Мнение
В калифорнийском суде технический миллиардер изо всех сил пытается опровергнуть утверждения о том, что его платформа социальных сетей была спроектирована так, чтобы вызывать привыкание, несмотря на растущее количество доказательств и опыт миллионов людей, говорящих об обратном. В частности, есть опасения по поводу «бесконечной прокрутки», «автовоспроизведения» и «опасных и вызывающих привыкание алгоритмов».
Ожидая этого исторического решения, мы также должны рассмотреть, какую угрозу эти продукты представляют для демократии, социальной сплоченности и свободы информации, и начать рассматривать средства правовой защиты.
Во-первых, социальные сети бросили вызов олигархической, ориентированной на прибыль и самоцензуре устаревшей системе СМИ, предоставив альтернативную и равную платформу для голосов.. Но теперь крупнейшие компании социальных сетей также принадлежат горстке технологических миллиардеров, и они контролируют цифровую инфраструктуру, в которой мы общаемся, организуем информацию и получаем к ней доступ беспрецедентными способами.
Хотя алгоритмы могут создавать иллюзию свободы, условия, в которых они работают, искажают доступ к информации и препятствуют свободе слова. Контент невозможно удалить полностью, но теперь частные организации выступают посредниками в публичном и межличностном дискурсе посредством своих собственных правил, которые определяют приоритеты, блокируют, продвигают и подвергают цензуре исходя из пожеланий крупных технологий. Эти желания можно трансформировать на основе идеологий или стимулов к получению прибыли, но никогда — с помощью прозрачности.
Это представляет угрозу как демократии, так и социальному единству. Были созданы эхо-камеры, и хотя алгоритм в основном удерживает нас внутри них, он делает это, чтобы намеренно спровоцировать и укрепить уверенность в том, что камера, в которой мы находимся, является «правильной», он символически показывает фрагменты контента с другой стороны спектра. Дезинформация и дезинформация являются обычным явлением на наших экранах, и те, кто обращает на них внимание, опасаются, что это привело нас в эпоху постправды, где эмоциональный резонанс и личные убеждения более важны, чем эмпирические данные, влияя на убеждения и решения.
(Очень привлекательная) технологическая инфраструктура, которая контролирует то, что мы видим на наших экранах, предназначена для определения приоритетности контента, который вызывает самые сильные эмоциональные реакции. Обида, ложь, ревность, страх и гнев — все это мотивирует более активное взаимодействие, почти всегда по принципу «мы» и «они». Это создает среду, в которой ненавистнический контент не только не существует, но и преуспевает и доминирует в ущерб социальной сплоченности.
Материал, который дается людям, начинается не с открытого призыва к насилию, а с жалобы и аргумента о том, что у них отобрали то, что они заслуживают. Все также начинается с женоненавистничества: исследования показывают, что мальчикам и мужчинам требуется всего 23 минуты, чтобы увидеть женоненавистнический контент в социальных сетях после регистрации, независимо от их предпочтений при просмотре.
Все формы ненависти – женоненавистничество, ксенофобия, исламофобия, антисемитизм, расизм – следуют одной и той же схеме: она усиливается в периоды быстрых социальных изменений, обвиняет другую группу в своих проблемах и процветает на вредных стереотипах и ложных историях. Эти формы ненависти не существуют изолированно. Все большее количество исследований показывает структурное сходство между женоненавистническим экстремизмом и насильственным экстремизмом в более широком смысле. Это неудивительно, если рассматривать и то, и другое как мужское насилие. Бесправным мужчинам постоянно подают материалы, которые идентифицируют «других» как источник их проблем, кем бы это ни было – женщинами, мусульманами, евреями, беженцами. Список бесконечен и пересекается снова и снова.
Исследования показали, что австралийцы, которые враждебно относятся к женщинам, с большей вероятностью будут поддерживать различные формы насильственного экстремизма. Ученые из Мельбурнского университета предупредили, что расовая и гендерная предвзятость как движущая сила радикализации и насильственного экстремизма является «важной, но игнорируемой проблемой безопасности Австралии».
Главный вывод Королевской комиссии по расследованию нападений на мечети Крайстчерча заключался в том, что австралийские сторонники превосходства белой расы были радикализированы на YouTube и других онлайн-площадках, управляемых алгоритмами. Благодаря недавним расследованиям мы также знаем, что неонацистские и другие экстремистские группы вербуют людей через женоненавистнические онлайн-пространства и форумы, и что набор вербовщиков находится на рекордно высоком уровне.
Самая опасная радикальная сила больше не всегда является «группой», которую мы можем контролировать и остановить. Вместо этого теперь он может быть неосязаемым, меняющим форму, невидимым и вездесущим одновременно. Алгоритмы не рекрутируют в традиционном смысле этого слова, а рекомендуют, подкрепляют и продвигают. Они делают это одновременно в больших масштабах и в частном порядке, и их склонность к распространению дезинформации и дезинформации, а также к разжиганию ненависти является сегодня одной из величайших угроз демократии и социальной сплоченности в Австралии..
В середине 2000-х годов австралийские планы мобильной связи начали предлагать контракты с бесплатными текстовыми сообщениями, позволяющие нам общаться бесплатно. Этот, казалось бы, небольшой технологический рычаг позволил цепному тексту «Спускайтесь в Кронуллу на День избиения W*G» распространиться с беспрецедентной скоростью (в 2005 году). Это были медленные темпы по сравнению с сегодняшними технологическими достижениями. Теперь контент ненависти, такой как женоненавистничество, исламофобия, антисемитизм и превосходство белой расы, доступен для принудительной скармливания нам на наших цифровых устройствах весь день, каждый день. Если вы не можете связать это с тем, что появляется на вашем экране, это отражает более опасную особенность алгоритмов, когда контент, разжигающий ненависть, намеренно и систематически нацелен на демографические группы, которые с наибольшей вероятностью заинтересуются и воспримут идеологию.
Крупные технологические компании заявляют, что являются поборниками свободы слова, но на самом деле это искусственное усиление и цензура, продиктованные интересами избранного меньшинства. В экономической системе, где человеческое внимание рассматривается как редкий товар, наше экранное время занимает карманы крупных технологий, и чем больше мы раздражаемся, тем больше времени мы тратим на их вызывающие привыкание продукты. Менталитет «мы» и «они», который на протяжении тысячелетий способствовал дегуманизации групп, был использован в качестве оружия для кликов и прибылей, позволяя расколу распространяться с огромной и совершенно беспрецедентной скоростью. Общественные дискуссии контролируются системами, созданными не ради демократического здоровья, а ради прибыли, за счет социальной сплоченности и растущего числа случаев радикализма.
Независимо от результата испытания социальных сетей в Калифорнии, австралийцы должны иметь возможность отключить эту вызывающую привыкание систему рекомендаций, основанную на вовлеченности, и вернуться к хронологической ленте, если они захотят это сделать. Это перераспределит автономию среди людей и даст людям контроль над своей информационной средой и медиа-диетой, вместо того, чтобы концентрировать эту власть в руках крупных технологий.
Шанель Контос — основатель и генеральный директор Teach Us Consent. Она имеет степень магистра государственной политики Оксфордского университета и степень магистра искусств в области гендера, образования и международного развития Университетского колледжа Лондона.
Получайте еженедельный набор идей, которые бросят вызов, поддержат и наполнят ваше мышление. Подпишитесь на нашу рассылку мнений.