Конвейер альтернативных правых (также называемый кроличьей норой альтернативных правых ) — это предлагаемая концептуальная модель , касающаяся радикализации Интернета в сторону движения альтернативных правых . Она описывает явление, при котором потребление провокационного правого политического контента, такого как антифеминистские или анти-SJW идеи, постепенно увеличивает подверженность альтернативным правым или аналогичной крайне правой политике . Она утверждает, что это взаимодействие происходит из-за взаимосвязанной природы политических комментаторов и онлайн-сообществ , что позволяет членам одной аудитории или сообщества находить более экстремальные группы. [1] [2] Этот процесс чаще всего ассоциируется с видеоплатформой YouTube и был задокументирован на ней , и в значительной степени огранен методом, при котором алгоритмы на различных платформах социальных сетей функционируют через процесс рекомендации контента, который похож на то, с чем взаимодействуют пользователи, но может быстро завести пользователей в кроличьи норы. [2] [3] [4] Эффект алгоритмической предвзятости YouTube в радикализации пользователей был воспроизведен в одном исследовании, [2] [5] [6] [7], хотя два других исследования не обнаружили практически никаких доказательств процесса радикализации. [3] [8] [9]
Многие политические движения были связаны с концепцией трубопровода. Интеллектуальный темный веб , [2] либертарианство , [10] движение за права мужчин , [11] и движение alt-lite [2] были идентифицированы как возможные источники для знакомства аудитории с идеями alt-right. Аудитория, которая ищет и готова принимать экстремальный контент таким образом, как правило, состоит из молодых мужчин, обычно тех, кто испытывает значительное одиночество и ищет принадлежность или смысл. [12]
Канал альтернативных правых может быть фактором, способствующим внутреннему терроризму . [13] [14] Многие платформы социальных сетей признали этот путь радикализации и приняли меры для его предотвращения, включая удаление экстремистских деятелей и правила против разжигания ненависти и дезинформации. [3] [12] Левые движения, такие как BreadTube , также выступают против канала альтернативных правых и «стремятся создать «левый канал» в качестве противовеса каналу альтернативных правых». [15]
Использование интернета позволяет людям с неортодоксальными убеждениями изменять свое окружение, что, в свою очередь, оказывает преобразующее воздействие на пользователя. Влияние внешних источников, таких как интернет, может быть постепенным, так что человек не сразу осознает изменение своего понимания или окружения. Члены альтернативных правых называют этот процесс радикализации «приемом красной таблетки » в отношении метода немедленного достижения большей осведомленности в «Матрице» . Это контрастирует с постепенной природой радикализации, описанной в конвейере альтернативных правых. [14] [16] Многие крайне правые осознают потенциал этого метода радикализации и активно делятся правым контентом с намерением постепенно радикализировать окружающих. Использование расистских образов или юмора может использоваться этими людьми под видом иронии или неискренности, чтобы сделать идеи альтернативных правых ощутимыми и приемлемыми для новой аудитории. Природа интернет-мемов означает, что их можно легко воссоздать и распространить во многих различных интернет-сообществах. [16] [17]
YouTube был определен как основной элемент в конвейере альтернативных правых. Этому способствует «Альтернативная сеть влияния», в которой различные правые ученые, эксперты и интернет-персоны взаимодействуют друг с другом, чтобы повысить эффективность своего контента. Эти деятели могут различаться по своей идеологии между консерватизмом , либертарианством или белым национализмом , но они разделяют общую оппозицию феминизму , прогрессивизму и социальной справедливости , что позволяет зрителям одной фигуры быстро адаптироваться к другой. [1] Они часто отдают приоритет правым социальным проблемам над правыми экономическими проблемами, мало обсуждая фискальный консерватизм . Некоторые люди в этой сети могут не взаимодействовать друг с другом, но набор интервью, интернет-дебатов и других взаимодействий создает пути для знакомства пользователей с новым контентом. [2]
Алгоритмическая система YouTube для рекомендации видео позволяет пользователям быстро получать доступ к контенту, похожему на то, что они просматривали ранее, позволяя им более глубоко исследовать идею, как только они выразили интерес. Это позволяет новым аудиториям подвергаться воздействию экстремального контента, когда видео, продвигающие дезинформацию и теории заговора, набирают обороты. [14] [12] Когда пользователь подвергается воздействию определенного контента, посвященного определенным политическим вопросам или вопросам культурной войны , эта система рекомендаций может привести пользователей к другим идеям или проблемам, включая исламофобию , противодействие иммиграции , антифеминизм или темпы воспроизводства . [14] [18] Рекомендуемый контент часто в некоторой степени связан, что создает эффект постепенной радикализации между несколькими проблемами, называемый конвейером. [14]
Иногда платформа также рекомендует эти видео пользователям, которые не проявили интереса к этим точкам зрения. [4] [18] Радикализация также происходит во взаимодействии с другими радикализированными пользователями в Интернете на различных платформах, таких как Gab , Reddit , 4chan или Discord . [14] Основные личности в этой цепочке часто присутствуют на Facebook и Twitter , хотя YouTube, как правило, является их основной платформой для обмена сообщениями и получения дохода. [12]
Канал альтернативных правых в основном нацелен на разгневанных белых мужчин , включая тех, кто идентифицирует себя как инцелов , что отражает женоненавистничество альтернативных правых. Harvard Political Review описал этот процесс как «эксплуатацию скрытой женоненавистничества и сексуальной фрустрации посредством «мужской связи», которая пошла ужасно неправильно». Канал также нацелен на людей с неуверенностью в себе . [19]
Было обнаружено, что альтернативно-правый конвейер начинается с интеллектуального сообщества даркнета , которое состоит из интернет-персон, объединенных оппозицией политике идентичности и политической корректности , таких как Джо Роган , Бен Шапиро , Дэйв Рубин и Джордан Питерсон . [2] Интеллектуальное сообщество даркнета пересекается и взаимодействует с сообществом альтернативно-правых , таким как Стивен Краудер , Пол Джозеф Уотсон , Марк Дайс и Саргон Аккадский . [2] Это сообщество, в свою очередь, пересекается и взаимодействует с сообществом альтернативно-правых, таким как Джеймс Оллсап , Black Pigeon Speaks, Варг Викернес и Red Ice . [2] Самая крайняя конечная точка часто включает в себя фашизм или веру в международный еврейский заговор , [16] хотя степень экстремизма может различаться у разных людей. [12]
Контент альтернативных правых в Интернете распространяет идеологию, похожую на более ранние движения за превосходство белой расы и фашистские движения. Интернет упаковывает идеологию по-другому, часто более приемлемым способом, и, таким образом, более успешно доносит ее до большего числа людей. [20] Из-за консервативной природы альтернативных правых, большая часть идеологии связана с сохранением традиционных ценностей и образа жизни. Это создает восприимчивость к теориям заговора о тайных силах, которые стремятся разрушить традиционный образ жизни. [21]
Антифеминистская Manosphere была определена как еще одна ранняя точка в конвейере alt-right. [11] Движение за права мужчин часто обсуждает мужские проблемы более заметно, чем другие группы, привлекая молодых людей, интересующихся такими проблемами, когда нет альтернативы. Многие правые интернет-персоны разработали метод расширения своей аудитории, комментируя популярные медиа; видеоролики, критикующие фильмы или видеоигры за поддержку левых идей, с большей вероятностью привлекут поклонников соответствующих франшиз. [12]
Формат, представленный YouTube, позволил различным идеологиям получить доступ к новой аудитории с помощью этого средства. [12] Тот же процесс также использовался для облегчения доступа к антикапиталистической политике через интернет-сообщество BreadTube . Это сообщество было разработано с помощью этого процесса конвейера, чтобы познакомить пользователей с левым контентом и смягчить воздействие правого контента, [12] [15] хотя процесс конвейера оказался менее эффективным для левой политики из-за большего разнообразия противостоящих левых групп, что ограничивает взаимодействие и перекрытие. [15] Эта дихотомия также может вызвать « поляризацию хлыста », при которой люди преобразуются между крайне правыми и крайне левыми политиками. [12]
Психологические факторы радикализации через альтернативно-правый конвейер схожи с другими формами радикализации, включая нормализацию , акклиматизацию и дегуманизацию . Нормализация подразумевает тривиализацию расистской и антисемитской риторики. Люди, находящиеся на раннем этапе альтернативно-правого конвейера, не будут добровольно принимать такую риторику, но будут принимать ее под видом черного юмора , делая ее менее шокирующей со временем. [14] Иногда это может быть намеренно спланировано членами альтернативно-правых, чтобы сделать свои убеждения более приемлемыми и обеспечить правдоподобное отрицание экстремальных убеждений . [16] [17] Акклиматизация — это процесс привыкания к просмотру фанатичного контента. Привыкая к спорному контенту, люди становятся более открытыми для немного более экстремального контента. Со временем консервативные фигуры кажутся слишком умеренными, и пользователи ищут более экстремальные голоса. Дегуманизация — это последний шаг альтернативно-правого конвейера, где меньшинства рассматриваются как низшие или недостойные жизни, а для обозначения людей, не согласных с крайне правыми убеждениями, используется дегуманизирующий язык . [14]
Этот процесс ассоциируется с молодыми людьми, которые испытывают одиночество, бессмысленность или отсутствие принадлежности. [12] Открытость к непопулярным взглядам необходима для того, чтобы люди принимали убеждения, связанные с альтернативно-правым конвейером. Это было связано с контрарианством, в котором человек использует рабочее предположение, что мировоззрение большинства людей полностью неверно. Исходя из этого предположения, люди более склонны принимать убеждения, которые непопулярны или маргинальны. Это делает эффективными несколько точек входа альтернативно-правого конвейера, таких как либертарианство, в котором идеологии привлекают людей с чертами, которые делают их восприимчивыми к радикализации при воздействии других маргинальных идей. [10] Мотивация для следования этим сообществам различается, некоторые люди находят их случайно, а другие ищут их. Интерес к видеоиграм связан с ранними стадиями альтернативно-правого конвейера. [12]
Наряду с алгоритмами, онлайн-сообщества также могут играть большую роль в радикализации . Люди с маргинальными и радикальными идеологиями могут встречаться с другими людьми, которые разделяют, подтверждают и укрепляют эти идеологии. Поскольку люди могут контролировать, с кем и чем они взаимодействуют в сети, они могут избегать любых мнений или идей, которые противоречат их прежним убеждениям. Это создает эхо-камеру, которая поддерживает и укрепляет радикальные убеждения. Сильное чувство общности и принадлежности, которое приходит с этим, является важным фактором для людей, присоединяющихся к альтернативным правым и принимающих их как свою идентичность. [22]
Радикализация в Интернете коррелирует с ростом нападений одиночек и внутреннего терроризма . [13] [23] Альтернативно-правый конвейер был связан со стрельбой в мечети Крайстчерча , в ходе которой крайне правый экстремист убил 51 мусульманина-верующего в Крайстчерче , который в своем манифесте напрямую приписал Интернету формирование своих убеждений. [14] [24] Неформальный характер радикализации через альтернативно-правый конвейер позволяет радикализации происходить на индивидуальном уровне, и радикально настроенные люди могут жить нормальной жизнью офлайн. Это усложнило усилия экспертов по отслеживанию экстремизма и прогнозированию актов внутреннего терроризма, поскольку нет надежного способа определить, кто подвергся радикализации или планирует ли он осуществлять политическое насилие. [14] [25] Кампании преследования против предполагаемых противников альтернативно-правого движения являются еще одним распространенным эффектом радикализации. [14]
Многие платформы социальных сетей осознали потенциал радикализации и приняли меры по ограничению ее распространенности. Известные экстремистские комментаторы, такие как Алекс Джонс, были забанены на нескольких платформах, и платформы часто имеют правила против разжигания ненависти и дезинформации. [12] В 2019 году YouTube объявил об изменении своего алгоритма рекомендаций, чтобы сократить контент, связанный с теориями заговора. [12] [18] Некоторые экстремальные материалы, такие как явное изображение насилия, обычно удаляются на большинстве платформ социальных сетей. На YouTube материалы, выражающие поддержку экстремизма, могут иметь удаленные функции монетизации, могут быть помечены для проверки или могут иметь отключенные публичные комментарии пользователей. [3]
Исследование, опубликованное в сентябре 2018 года Институтом исследований данных и общества, показало, что 65 правых политических влиятельных лиц используют механизм рекомендаций YouTube — в сочетании с традиционными методами построения бренда, такими как кросс-маркетинг между схожими влиятельными лицами — для привлечения подписчиков и радикализации своих зрителей в определенную правую идеологию. [26] Исследование, проведенное в августе 2019 года Федеральным университетом Минас-Жерайс и Федеральной политехнической школой Лозанны и представленное на конференции ACM по справедливости, подотчетности и прозрачности 2020, использовало информацию из более раннего исследования Data & Society и Антидиффамационной лиги (ADL) для классификации уровней экстремизма 360 каналов YouTube. Исследование также отслеживало пользователей в течение 11-летнего периода, анализируя 72 миллиона комментариев, 2 миллиона рекомендаций видео и 10 000 рекомендаций каналов. Исследование показало, что пользователи, которые взаимодействовали с менее радикальным правым контентом, со временем имели тенденцию взаимодействовать с более экстремистским контентом, что, по мнению исследователей, свидетельствует о « конвейере радикализации ». [2] [5] [6] [7]
Исследование 2020 года, опубликованное в The International Journal of Press/Politics, утверждает, что «формирующийся журналистский консенсус» о том, что алгоритм YouTube радикализирует пользователей в сторону крайне правых взглядов, «является преждевременным». Вместо этого исследование предлагает «структуру « Спроса и предложения » для анализа политики на YouTube». [27]
Исследование 2021 года, опубликованное в Трудах Национальной академии наук, не обнаружило «никаких доказательств того, что взаимодействие с крайне правым контентом систематически вызвано рекомендациями YouTube, и мы не находим четких доказательств того, что анти-пробужденные каналы служат воротами к крайне правым ». Вместо этого исследование показало, что «потребление политического контента на YouTube, по-видимому, отражает индивидуальные предпочтения, которые распространяются на всю сеть». [8] Исследование 2022 года, опубликованное Городским университетом Нью-Йорка, показало, что «существует мало систематических доказательств в поддержку» утверждения о том, что алгоритм YouTube радикализирует пользователей, добавив, что воздействие экстремистских взглядов «на YouTube в значительной степени сконцентрировано среди небольшой группы людей с высоким уровнем гендерного и расового негодования», и что «неподписчикам редко рекомендуют видео с альтернативных и экстремистских каналов, и они редко следуют таким рекомендациям, когда их предлагают». [9]