Пузырь фильтров или идеологическая рамка — это состояние интеллектуальной изоляции [1] , которое может возникнуть в результате персонализированного поиска , систем рекомендаций и алгоритмического курирования . Результаты поиска основаны на информации о пользователе, такой как его местоположение, поведение при кликах в прошлом и история поиска. [2] Следовательно, пользователи отделяются от информации, которая не согласуется с их точками зрения, эффективно изолируя их в своих собственных культурных или идеологических пузырях, что приводит к ограниченному и индивидуальному взгляду на мир. [3] Выбор, сделанный этими алгоритмами, лишь иногда прозрачен. [4] Яркими примерами являются результаты персонализированного поиска Google и персонализированная лента новостей Facebook.
Однако существуют противоречивые сообщения о том, в какой степени происходит персонализированная фильтрация и приносит ли такая деятельность пользу или вред, при этом различные исследования дают неубедительные результаты.
Термин « пузырь фильтров» был придуман интернет-активистом Эли Паризером примерно в 2010 году. Во влиятельной книге Паризера под тем же названием « Пузырь фильтров » (2011) было предсказано, что индивидуализированная персонализация с помощью алгоритмической фильтрации приведет к интеллектуальной изоляции и социальной фрагментации. [5] По мнению Паризера , эффект «пузыря» может иметь негативные последствия для гражданского дискурса , но противоположные точки зрения считают этот эффект минимальным [6] и решаемым. [7] По мнению Парайзера, пользователи меньше подвергаются воздействию противоречивых точек зрения и интеллектуально изолированы в своем информационном пузыре. [8] Он привел пример, в котором один пользователь ввел в Google запрос «BP» и получил инвестиционные новости о British Petroleum , а другой пользователь получил информацию о разливе нефти Deepwater Horizon , отметив, что две страницы результатов поиска были «разительно разными», несмотря на использование одних и тех же ключевых слов. [8] [9] [10] [6] Результаты президентских выборов в США в 2016 году были связаны с влиянием платформ социальных сетей, таких как Twitter и Facebook, [11] и в результате поставили под сомнение последствия феномена «пузыря фильтров» о воздействии на пользователей фейковых новостей и эхо-камер , [12] стимулируя новый интерес к этому термину, [13] многие обеспокоены тем, что это явление может нанести ущерб демократии и благополучию , усугубляя последствия дезинформации . [14] [15] [13] [16] [17] [18]
Паризер определил свою концепцию пузыря фильтров более формально как «эту личную экосистему информации , которая обслуживается этими алгоритмами». [8] Прошлые просмотры и история поиска интернет-пользователя накапливаются с течением времени, когда он проявляет интерес к темам, «щелкая ссылки, просматривая друзей, помещая фильмы в [свою] очередь, читая новости» и так далее. [19] Затем интернет-компания использует эту информацию для таргетирования рекламы на пользователя или для того, чтобы определенные типы информации появлялись на страницах результатов поиска более заметно . [19]
Этот процесс не является случайным, поскольку, по словам Парайзера, он состоит из трех этапов: «Сначала вы выясняете, кто эти люди и что им нравится. Затем вы предоставляете им контент и услуги, которые им лучше всего подходят. Наконец, вы настраиваетесь на правильную настройку. Ваша личность формирует ваши медиа». [20] Паризер также сообщает:
Согласно исследованию Wall Street Journal , пятьдесят крупнейших интернет-сайтов, от CNN до Yahoo и MSN, устанавливают в среднем 64 файла cookie с данными и персональные маяки слежения. Найдите на Dictionary.com такое слово, как «депрессия», и сайт установит на ваш компьютер до 223 файлов cookie и маяков для отслеживания, чтобы другие веб-сайты могли нацеливать вас на антидепрессанты. Поделитесь статьей о кулинарии на канале ABC News, и вас может преследовать в Интернете реклама кастрюль с тефлоновым покрытием. Откройте — хотя бы на мгновение — страницу со списком признаков того, что ваш супруг, возможно, изменяет, и приготовьтесь к тому, что вас преследует реклама ДНК-тестов на отцовство. [21]
Доступ к данным о кликах по ссылкам, отображаемым посредством измерения трафика сайта, определяет, что пузырьки фильтров могут быть коллективными или индивидуальными. [22]
По состоянию на 2011 год один инженер рассказал Паризеру, что Google просматривает 57 различных фрагментов данных, чтобы лично адаптировать результаты поиска пользователя, включая данные, не относящиеся к файлам cookie, такие как тип используемого компьютера и физическое местоположение пользователя. [23]
Идея Паризера о пузыре фильтров получила популяризацию после выступления на TED в мае 2011 года, в котором он привел примеры того, как работают пузыри фильтров и где их можно увидеть. В ходе теста, призванного продемонстрировать эффект пузыря фильтра, Паризер попросил нескольких друзей выполнить поиск по слову «Египет» в Google и отправить ему результаты. При сравнении первых страниц результатов двух друзей, несмотря на совпадение между ними по таким темам, как новости и путешествия, результаты одного друга заметно включали ссылки на информацию о продолжавшейся тогда египетской революции 2011 года , в то время как первая страница результатов другого друга таких ссылок не было. [24]
В книге «Пузырь фильтров » Паризер предупреждает, что потенциальным недостатком фильтрованного поиска является то, что он «закрывает нас от новых идей, предметов и важной информации» [25] и «создает впечатление, что наш узкий личный интерес — это все, что существует». ." [9] По его мнению, пузыри фильтров потенциально вредны как для отдельных людей, так и для общества. Он раскритиковал Google и Facebook за то, что они предлагают пользователям «слишком много конфет и недостаточно моркови». [26] Он предупредил, что «невидимое алгоритмическое редактирование сети» может ограничить доступ к новой информации и сузить наш кругозор. [26] По мнению Паризера, пагубные последствия пузырей фильтров включают в себя вред обществу в целом в том смысле, что они могут «подорвать гражданский дискурс» и сделать людей более уязвимыми для «пропаганды и манипуляций». [9] Он писал:
Мир, построенный из привычного, — это мир, в котором нечему учиться… (поскольку существует) невидимая автопропаганда, внушающая нам наши собственные идеи.
- Эли Паризер в The Economist , 2011 г. [27]
Многие люди даже не подозревают о существовании пузырей-фильтров. Это можно увидеть в статье в The Guardian, в которой упоминается тот факт, что «более 60% пользователей Facebook совершенно не подозревают о каком-либо курировании на Facebook, вместо этого полагая, что каждая отдельная история от их друзей и страниц, на которые они подписаны, появляется в их Новостная лента." [28] Краткое объяснение того, как Facebook решает, что происходит в ленте новостей пользователя, заключается в использовании алгоритма, который учитывает, «как вы взаимодействовали с подобными сообщениями в прошлом». [28]
Пузырь фильтров был описан как усугубляющий явление , называемое сплинтернетом или кибербалканизацией . разные взгляды. Эта проблема возникла еще на заре общедоступного Интернета, когда в 1996 году был придуман термин «кибербалканизация». [29] [30] [31] Для описания этого явления использовались и другие термины, в том числе « идеологические рамки » [ 9] и «образная сфера, окружающая вас, когда вы ищете в Интернете». [19]
Концепция пузыря фильтров была распространена и на другие области, чтобы описать общества, которые самосегрегируются в соответствии с политическими взглядами, а также экономическими, социальными и культурными ситуациями. [32] Этот бурный рост приводит к потере более широкого сообщества и создает ощущение, что, например, детям не место на общественных мероприятиях, если только эти мероприятия не были специально запланированы так, чтобы быть привлекательными для детей и непривлекательными для взрослых без детей. [32]
В прощальной речи Барака Обамы подобная концепция фильтрации пузырей была названа «угрозой [американской] демократии», то есть «уходом в наши собственные пузыри, ... особенно в наши ленты в социальных сетях, в окружении людей, похожих на нас и разделяем одни и те же политические взгляды и никогда не оспариваем наши предположения... И все чаще мы становимся настолько защищенными в своих пузырях, что начинаем принимать только ту информацию, правдивую она или нет, которая соответствует нашим мнениям, вместо того, чтобы основывать наши мнения на доказательствах, которые находится там». [33]
И «эхо-камеры», и «пузыри фильтров» описывают ситуации, когда люди сталкиваются с узким диапазоном мнений и точек зрения, которые укрепляют их существующие убеждения и предубеждения, но между ними есть некоторые тонкие различия, особенно в практиках, связанных с социальными сетями. [34] [35]
Специально для средств массовой информации эхо-камера — это метафорическое описание ситуации, в которой убеждения усиливаются или подкрепляются посредством общения и повторения внутри закрытой системы. [36] [37] Основываясь на социологической концепции теории выборочного воздействия , этот термин представляет собой метафору, основанную на акустической эхо-камере, где звуки отражаются в полом корпусе. Что касается социальных сетей, такого рода ситуация подпитывается явными механизмами самостоятельной персонализации , которые описывают все процессы, в которых пользователи данной платформы могут активно соглашаться на потребление информации и отказываться от нее, например, возможность пользователя следить за другими пользователями. или выберите в группы. [38]
В эхо-камере люди могут искать информацию, которая подкрепляет их существующие взгляды, возможно, в качестве бессознательного проявления предвзятости подтверждения . Такое регулирование с обратной связью может усилить политическую и социальную поляризацию и экстремизм. Это может привести к агрегированию пользователей в гомофильные кластеры внутри социальных сетей, что способствует групповой поляризации. [39] «Эхо-камеры» укрепляют убеждения человека без фактической поддержки. Люди окружены теми, кто признает и следует одним и тем же точкам зрения, но у них также есть возможность вырваться за пределы эхо-камер. [40]
С другой стороны, «пузыри фильтров» представляют собой неявные механизмы предварительно выбранной персонализации , при которых медиапотребление пользователя создается с помощью персонализированных алгоритмов; контент, который видит пользователь, фильтруется с помощью алгоритма, управляемого искусственным интеллектом, который укрепляет его существующие убеждения и предпочтения, потенциально исключая противоположные или разные точки зрения. В этом случае пользователи играют более пассивную роль и воспринимаются как жертвы технологии, которая автоматически ограничивает их доступ к информации, которая бросает вызов их мировоззрению. [38] Однако некоторые исследователи утверждают, что, поскольку пользователи по-прежнему играют активную роль в выборочном курировании своих собственных новостных лент и источников информации посредством взаимодействия с поисковыми системами и сетями социальных сетей, они напрямую помогают в процессе фильтрации с помощью алгоритмов, управляемых ИИ. , тем самым эффективно взаимодействуя с пузырьками самосепарирующегося фильтра. [41]
Несмотря на различия, использование этих терминов идет рука об руку как в академических, так и в платформенных исследованиях. Часто бывает трудно провести различие между этими двумя концепциями в исследованиях социальных сетей из-за ограничений доступности алгоритмов фильтрации, которые, возможно, могли бы позволить исследователям сравнивать и противопоставлять действие двух концепций. [42] Проведение такого типа исследований будет продолжать становиться все труднее, поскольку многие социальные сети также начали ограничивать доступ к API, необходимый для академических исследований. [43]
Существуют противоречивые сведения о том, в какой степени происходит персонализированная фильтрация и приносит ли такая деятельность пользу или вред. Аналитик Джейкоб Вайсберг, писавший в июне 2011 года для Slate , провел небольшой ненаучный эксперимент для проверки теории Паризера, в котором участвовали пять коллег с разным идеологическим прошлым, проводившие серию поисков: « Джон Боэнер» , « Барни Фрэнк» , « План Райана », и « Обамакер » и отправил Вейсбергу скриншоты их результатов. Результаты различались лишь в незначительных отношениях от человека к человеку, и любые различия, по-видимому, не были связаны с идеологией, что привело Вайсберга к выводу, что пузырь фильтров не действует, и написать, что идея, которую большинство интернет-пользователей «подпитывают» у корыта Daily Me » была преувеличена. [9] Вайсберг попросил Google прокомментировать ситуацию, и представитель заявил, что алгоритмы были созданы для того, чтобы намеренно «ограничивать персонализацию и способствовать разнообразию». [9] Книжный рецензент Пол Бутен провел эксперимент, аналогичный эксперименту Вайсберга, среди людей с разной историей поиска и снова обнаружил, что разные поисковики получили почти идентичные результаты поиска. [6] Журналист Пер Гранквист, беседуя с программистами Google (не для протокола), обнаружил, что пользовательские данные раньше играли большую роль в определении результатов поиска, но Google посредством тестирования обнаружил, что поисковый запрос, безусловно, является лучшим фактором, определяющим результаты поиска. для отображения. [44]
Есть сообщения о том, что Google и другие сайты хранят обширные «досье» информации о своих пользователях, что может позволить им дополнительно персонализировать индивидуальный опыт в Интернете, если они захотят это сделать. Например, существует технология, позволяющая Google отслеживать историю пользователей, даже если у них нет личной учетной записи Google или они не вошли в нее. [6] В одном отчете говорилось, что Google собрала информацию «за 10 лет», полученную из различных источников, таких как Gmail , Google Maps и других сервисов, помимо своей поисковой системы, [10] [ проверка не удалась ] , хотя было опубликовано противоположное сообщение. что попытка персонализировать Интернет для каждого пользователя была технически сложной задачей для интернет-компании, несмотря на огромные объемы доступных данных. [ нужна цитация ] Аналитик Дуг Гросс из CNN предположил, что поиск с фильтром кажется более полезным для потребителей , чем для граждан , и поможет потребителю, ищущему «пиццу», найти местные варианты доставки на основе персонализированного поиска и соответствующим образом отфильтровать отдаленные магазины пиццы. . [10] [ не удалось проверить ] Такие организации, как Washington Post , The New York Times и другие, экспериментировали с созданием новых персонализированных информационных сервисов с целью адаптации результатов поиска к тем, которые могут понравиться пользователям или с которыми они согласятся. [9]
Научное исследование Wharton , в котором анализировались персонализированные рекомендации, также показало, что эти фильтры могут создавать общность, а не фрагментацию вкусов онлайн-музыки. [45] Сообщается, что потребители используют фильтры, чтобы расширить свой вкус, а не ограничить его. [45] Профессор права из Гарварда Джонатан Зиттрейн оспорил степень, в которой фильтры персонализации искажают результаты поиска Google, заявив, что «эффект персонализации поиска был незначительным». [9] Кроме того, Google предоставляет пользователям возможность отключить функции персонализации, если они захотят [46] , удалив запись Google об их истории поиска и настроив Google не запоминать их ключевые слова для поиска и посещенные ссылки в будущем. [6]
В исследовании Internet Policy Review было рассмотрено отсутствие четкого и проверяемого определения «пузырей фильтров» в разных дисциплинах; это часто приводит к тому, что исследователи определяют и изучают пузырьки фильтров по-разному. [47] Впоследствии исследование объяснило отсутствие эмпирических данных о существовании пузырей фильтров в разных дисциплинах [12] и предположило, что приписываемые им эффекты могут быть связаны больше с ранее существовавшими идеологическими предубеждениями, чем с алгоритмами. Подобные взгляды можно найти и в других академических проектах, которые также затрагивают проблемы определений «пузырей фильтров» и взаимосвязей между идеологическими и технологическими факторами, связанными с ними. [48] Критический обзор пузырей фильтров показал, что «тезис о пузыре фильтров часто постулирует особый тип политического человека, мнение которого является сильным, но в то же время очень податливым» и что это «парадокс, что люди имеют активные агенты, когда они выбирают контент, но становятся пассивными получателями, когда они подвергаются воздействию рекомендуемого им контента, созданного алгоритмами». [49]
В исследовании, проведенном исследователями из Оксфорда, Стэнфорда и Microsoft, были изучены истории просмотров 1,2 миллиона пользователей панели инструментов Bing для Internet Explorer в США в период с марта по май 2013 года. Они выбрали 50 000 из тех пользователей, которые были активными потребителями новостей, а затем классифицировали, были ли они активными потребителями новостей. новостные агентства, которые они посещали, были левыми или правыми, в зависимости от того, проголосовало ли большинство избирателей в округах, связанных с IP-адресами пользователей, за Обаму или Ромни на президентских выборах 2012 года. Затем они определили, были ли новости прочитаны после прямого доступа к сайту издателя, через службу агрегирования новостей Google, веб-поиск или социальные сети. Исследователи обнаружили, что, хотя веб-поиск и социальные сети действительно способствуют идеологической сегрегации, подавляющее большинство потребления онлайн-новостей состоит из пользователей, непосредственно посещающих основные новостные сайты левого или правого толка и, следовательно, подвергающихся почти исключительно взглядам с одной стороны. политический спектр. Ограничения исследования включали такие проблемы отбора, как возраст пользователей Internet Explorer выше, чем у общего населения Интернета; Использование панели инструментов Bing и добровольный (или неосознанный) обмен выбранной историей просмотров для пользователей, которые меньше заботятся о конфиденциальности; предположение, что все статьи в публикациях левого толка являются левыми, и то же самое относится и к правым; и вероятность того, что пользователи, которые не являются активными потребителями новостей, могут получать большую часть своих новостей через социальные сети и, таким образом, испытывать более сильные последствия социальной или алгоритмической предвзятости , чем те пользователи, которые, по сути, самостоятельно выбирают свою предвзятость посредством выбора новостных публикаций (при условии, что они знают о предвзятости публикаций). [50]
Исследование, проведенное исследователями Принстонского университета и Нью-Йоркского университета, было направлено на изучение влияния пузыря фильтров и алгоритмической фильтрации на поляризацию социальных сетей. Они использовали математическую модель под названием « стохастическая блочная модель », чтобы проверить свою гипотезу в средах Reddit и Twitter. Исследователи измерили изменения в поляризации в регуляризованных и нерегуляризованных социальных сетях, в частности, измеряя процентные изменения в поляризации и разногласиях на Reddit и Twitter. Они обнаружили, что поляризация значительно увеличилась на 400% в нерегуляризованных сетях, в то время как поляризация увеличилась на 4% в регуляризованных сетях, а разногласия - на 5%. [51]
Хотя алгоритмы действительно ограничивают политическое разнообразие, некоторые «пузыри фильтров» являются результатом выбора пользователей. [52] Исследование, проведенное учеными из Facebook, показало, что на каждые четыре друга в Facebook, разделяющих одну и ту же идеологию, у пользователей есть один друг с противоположными взглядами. [53] [54] Независимо от того, какой алгоритм Facebook использует для своей ленты новостей , люди с большей вероятностью будут дружить или подписываться на людей, которые разделяют схожие убеждения. [53] Суть алгоритма заключается в том, что он ранжирует истории на основе истории пользователя, что приводит к сокращению «политически сквозного контента на 5 процентов для консерваторов и на 8 процентов для либералов». [53] Однако даже когда людям предоставляется возможность нажать на ссылку, предлагающую противоположные мнения, они по-прежнему по умолчанию выбирают наиболее просматриваемые источники. [53] «Выбор пользователя снижает вероятность нажатия на сквозную ссылку на 17 процентов для консерваторов и на 6 процентов для либералов». [53] Сквозная ссылка — это ссылка, которая представляет точку зрения, отличную от предполагаемой точки зрения пользователя или того, что веб-сайт привязал к убеждениям пользователя. [55] Недавнее исследование Леви Бокселла, Мэтью Генцкоу и Джесси М. Шапиро показывает, что онлайн-СМИ не являются движущей силой политической поляризации. [56] В документе утверждается, что поляризация вызвана демографическими группами, которые проводят меньше всего времени в Интернете. Наибольший идеологический разрыв наблюдается среди американцев старше 75 лет, при этом только 20% сообщили об использовании социальных сетей по состоянию на 2012 год. Напротив, 80% американцев в возрасте 18–39 лет сообщили об использовании социальных сетей по состоянию на 2012 год. Данные показывают, что более молодая демографическая группа В 2012 году поляризация не стала более поляризованной, чем в 1996 году, когда онлайн-СМИ почти не существовало. Исследование подчеркивает различия между возрастными группами и то, как потребление новостей остается поляризованным, поскольку люди ищут информацию, которая апеллирует к их предубеждениям. Пожилые американцы обычно остаются неизменными в своих политических взглядах, поскольку традиционные средства массовой информации продолжают оставаться основным источником новостей, в то время как онлайн-СМИ являются ведущим источником для более молодой аудитории. Хотя алгоритмы и «пузыри фильтров» ослабляют разнообразие контента, это исследование показывает, что тенденции политической поляризации в первую очередь обусловлены уже существующими взглядами и неспособностью признать внешние источники. В исследовании 2020 года, проведенном в Германии, использовалась модель психологии «Большой пятерки» для проверки влияния индивидуальной личности, демографии и идеологии на потребление новостей пользователями. [57]Основываясь на идее о том, что количество источников новостей, которые потребляют пользователи, влияет на их вероятность попасть в пузырь фильтров (при этом более высокое разнообразие СМИ снижает шансы), их результаты показывают, что определенные демографические группы (старший возраст и мужчины) наряду с определенной личностью Черты (высокая открытость) положительно коррелируют с количеством источников новостей, потребляемых людьми. Исследование также выявило негативную идеологическую связь между разнообразием СМИ и степенью приверженности пользователей правому авторитаризму. Помимо предложения различных индивидуальных пользовательских факторов, которые могут повлиять на роль пользовательского выбора, это исследование также поднимает вопросы и устанавливает связи между вероятностью попадания пользователей в фильтры и поведением пользователей при голосовании. [57]
Исследование Facebook показало, что «неубедительно» сыграл ли алгоритм такую большую роль в фильтрации новостных лент , как предполагали люди. [58] Исследование также показало, что «индивидуальный выбор», или предвзятость подтверждения, также влияет на то, что отфильтровывается из новостных лент. [58] Некоторые социологи раскритиковали этот вывод, поскольку смысл протеста против пузыря фильтров заключается в том, что алгоритмы и индивидуальный выбор работают вместе, чтобы отфильтровать новостные ленты. [59] Они также раскритиковали небольшой размер выборки Facebook, который составляет около «9% реальных пользователей Facebook», и тот факт, что результаты исследования «невоспроизводимы» из-за того, что исследование проводилось «учеными Facebook», которые имел доступ к данным, которые Facebook не предоставляет сторонним исследователям. [60]
Хотя исследование показало, что только около 15–20% друзей среднего пользователя в Facebook подписываются на противоположную сторону политического спектра, Джулия Каман из Vox предположила, что это может иметь потенциально положительные последствия для разнообразия точек зрения. Эти «друзья» часто являются знакомыми, с которыми мы вряд ли стали бы делиться нашей политикой без Интернета. Facebook может создать уникальную среду, в которой пользователь видит и, возможно, взаимодействует с контентом, опубликованным или повторно опубликованным этими друзьями «второго уровня». Исследование показало, что «24 процента новостей, которые видели либералы, были консервативными, а 38 процентов новостей, которые видели консерваторы, были либеральными». [61] «У либералов, как правило, меньше друзей, которые делятся информацией с другой стороны, по сравнению с их консервативными коллегами». [62] Это взаимодействие позволяет предоставлять разнообразную информацию и источники, которые могут модерировать мнения пользователей.
Аналогичным образом, исследование пузырей фильтров Твиттера, проведенное Нью -Йоркским университетом, пришло к выводу, что «отдельные люди теперь имеют доступ к более широкому спектру точек зрения на новостные события, и большая часть этой информации поступает не по традиционным каналам, а либо напрямую от политических деятелей». или через своих друзей и родственников. Кроме того, интерактивный характер социальных сетей создает возможности для людей обсуждать политические события со своими сверстниками, в том числе с теми, с кем у них слабые социальные связи». [63] Согласно этим исследованиям, социальные сети могут диверсифицировать информацию и мнения, с которыми сталкиваются пользователи, хотя существует много спекуляций вокруг «пузырей фильтров» и их способности создавать более глубокую политическую поляризацию .
Одним из драйверов и возможным решением проблемы является роль эмоций в онлайн-контенте. Исследование 2018 года показывает, что различные эмоции сообщений могут привести к поляризации или конвергенции: радость преобладает при эмоциональной поляризации, тогда как печаль и страх играют важную роль в эмоциональной конвергенции. [64] Поскольку эмоциональное содержание сообщений относительно легко обнаружить, эти результаты могут помочь разработать более социально ответственные алгоритмы, начав фокусироваться на эмоциональном содержании алгоритмических рекомендаций.
Социальные боты использовались различными исследователями для проверки поляризации и связанных с ней эффектов, связанных с пузырьками фильтров и эхо-камерами. [65] [66] В исследовании 2018 года социальные боты в Твиттере использовались для проверки намеренного воздействия пользователей на партийные точки зрения. [65] В исследовании утверждалось, что оно продемонстрировало партийные различия между подверженностью различным взглядам, хотя в нем предупреждалось, что результаты должны быть ограничены зарегистрированными партиями американскими пользователями Твиттера. Один из основных выводов заключался в том, что после знакомства с различными взглядами (предоставляемыми ботами) саморегистрированные республиканцы стали более консервативными, тогда как саморегистрированные либералы продемонстрировали меньшие идеологические изменения, если вообще не проявили их вообще. Другое исследование, проведенное в Китайской Народной Республике, использовало социальных ботов на Weibo — крупнейшей социальной сети в Китае — для изучения структуры «пузырей фильтров» с точки зрения их влияния на поляризацию. [66] В исследовании проводится различие между двумя концепциями поляризации. В одном случае люди со схожими взглядами формируют группы, разделяют схожие мнения и блокируют себя от различных точек зрения (поляризация мнений), а в другом случае люди не имеют доступа к разнообразному контенту и источникам информации (поляризация информации). Используя социальных ботов вместо людей-добровольцев и уделяя больше внимания поляризации информации, а не основанному на мнениях, исследователи пришли к выводу, что существует два основных элемента пузыря фильтров: большая концентрация пользователей вокруг одной темы и однонаправленная звездная система. -подобная структура, которая влияет на ключевые информационные потоки.
В июне 2018 года платформа DuckDuckGo провела исследование платформы веб-браузера Google. Для этого исследования 87 взрослых в разных местах континентальной части США одновременно ввели в Google три ключевых слова: иммиграция, контроль над огнестрельным оружием и вакцинация. Даже в режиме приватного просмотра большинство людей видели уникальные для них результаты. Google включил определенные ссылки для некоторых участников, которые не были включены для других участников, а информационные окна «Новости» и «Видео» показали значительные различия. Google публично оспорил эти результаты, заявив, что персонализация страницы результатов поисковой системы (SERP) по большей части является мифом. Представитель Google по поиску Дэнни Салливан заявил: «С годами сложился миф о том, что поиск Google настолько персонализируется, что по одному и тому же запросу разные люди могут получить существенно отличающиеся друг от друга результаты. Это не так. Результаты могут отличаться, но обычно по неперсонализированным причинам». [67]
Когда пузырьки-фильтры находятся на месте, они могут создавать особые моменты, которые ученые называют моментами «Вау». Момент «Ого» — это когда на вашем компьютере появляется статья, реклама, публикация и т. д., связанная с текущим действием или текущим использованием объекта. Ученые обнаружили этот термин после того, как молодая женщина выполняла свой распорядок дня, включающий употребление кофе, когда она открыла компьютер и заметила рекламу той же марки кофе, которую она пила. «Сегодня утром, пока я пил кофе, сел и открыл Facebook, и там было две рекламы Nespresso . Что-то вроде «ого» момента, когда продукт, который вы пьете, всплывает на экране перед вами». [68] «Ого» моменты случаются, когда людей «находят». Это означает, что рекламные алгоритмы нацелены на конкретных пользователей на основе их «поведения при кликах», чтобы увеличить их доход от продаж.
Несколько проектировщиков разработали инструменты для противодействия эффекту пузырьков фильтров (см. § Меры противодействия). [69] Швейцарская радиостанция SRF признала слово filterblase (немецкий перевод слова «пузырь фильтра») словом 2016 года. [70]
В книге «Пузырь фильтров: что Интернет скрывает от вас» [ 71] интернет-активист Эли Паризер подчеркивает, как растущее появление пузырей фильтров еще больше подчеркивает ценность связующего социального капитала , как это определено Робертом Путманом. Паризер утверждает, что пузыри фильтров усиливают чувство социальной однородности, что ослабляет связи между людьми с потенциально расходящимися интересами и точками зрения. [72] В этом смысле высокий промежуточный капитал может способствовать социальной интеграции, увеличивая наше воздействие на пространство, выходящее за рамки личных интересов. Наращивание связующего капитала, например, путем общения с большим количеством людей в неформальной обстановке, может быть эффективным способом уменьшить явление «пузыря фильтров».
Пользователи могут предпринять множество действий, чтобы прорваться сквозь пузырьки фильтров, например, приложив сознательные усилия, чтобы оценить, какой информации они подвергаются, и критически подумав о том, взаимодействуют ли они с широким спектром контента. [73] Пользователи могут сознательно избегать непроверяемых или слабых источников новостей. Крис Глушко, вице-президент по маркетингу IAB, выступает за использование сайтов проверки фактов для выявления фейковых новостей. [74] Технологии также могут сыграть ценную роль в борьбе с пузырьками на фильтрах. [75]
Некоторые плагины браузера призваны помочь людям выйти за рамки фильтров и рассказать им о своей личной точке зрения; таким образом, эти СМИ показывают контент, который противоречит их убеждениям и мнениям. Помимо плагинов, существуют приложения, созданные с целью побудить пользователей открыть свои эхо-камеры. Новостные приложения, такие как Read Across the Aisle, подталкивают пользователей читать разные точки зрения, если их стиль чтения смещен в сторону одной стороны/идеологии. [76] Хотя приложения и плагины — это инструменты, которые люди могут использовать, Эли Паризер заявил, что «конечно, здесь есть определенная индивидуальная ответственность за поиск новых источников и людей, которые не похожи на вас». [52]
Поскольку веб-реклама может усилить эффект пузырьков фильтров, предоставляя пользователям больше одного и того же контента, пользователи могут заблокировать большую часть рекламы, удалив свою историю поиска, отключив таргетированную рекламу и загрузив расширения для браузера. Некоторые используют анонимные или неперсонализированные поисковые системы, такие как YaCy , DuckDuckGo , Qwant , Startpage.com , Disconnect и Searx , чтобы помешать компаниям собирать свои данные веб-поиска. Швейцарская ежедневная газета Neue Zürcher Zeitung проводит бета-тестирование персонализированного приложения для создания новостей, которое использует машинное обучение, чтобы угадать, какой контент интересует пользователя, «всегда включая элемент неожиданности»; идея состоит в том, чтобы смешать истории, за которыми пользователь вряд ли следил в прошлом. [77]
Европейский Союз принимает меры, чтобы уменьшить эффект «пузыря фильтров». Европейский парламент спонсирует исследования того, как пузыри фильтров влияют на возможность людей получать доступ к разнообразным новостям. [78] Кроме того, была введена программа, направленная на информирование граждан о социальных сетях. [79] В США комиссия CSCW предлагает использовать приложения-агрегаторы новостей для расширения потребления новостей потребителями СМИ. Приложения-агрегаторы новостей сканируют все текущие новостные статьи и направляют вас к различным точкам зрения на определенную тему. Пользователи также могут использовать многофункциональный балансировщик новостей, который визуально показывает потребителю медиа, наклоняется ли он влево или вправо, когда дело доходит до чтения новостей, указывая правый наклон с помощью более крупной красной полосы или левый наклон с помощью более крупной синей полосы. Исследование, оценивающее этот балансировщик новостей, обнаружило «небольшое, но заметное изменение в поведении при чтении в сторону более сбалансированного воздействия среди пользователей, видящих обратную связь, по сравнению с контрольной группой». [80]
В свете недавних опасений по поводу фильтрации информации в социальных сетях Facebook признал наличие пузырей фильтров и предпринял шаги по их устранению. [81] В январе 2017 года Facebook удалил персонализацию из своего списка «Трендовые темы» в ответ на проблемы, связанные с тем, что некоторые пользователи не видят там широко обсуждаемые события. [82] Стратегия Facebook состоит в том, чтобы отменить функцию «Похожие статьи», реализованную в 2013 году, которая будет публиковать соответствующие новости после того, как пользователь прочитает общую статью. Теперь обновленная стратегия перевернет этот процесс и будет публиковать статьи с разных точек зрения на одну и ту же тему. Facebook также пытается пройти процедуру проверки, при которой будут показываться только статьи из авторитетных источников. Вместе с основателем Craigslist и некоторыми другими Facebook инвестировал 14 миллионов долларов в усилия «повысить доверие к журналистике во всем мире и лучше информировать общественность». [81] Идея состоит в том, что даже если люди читают только посты, которыми делятся их друзья, по крайней мере, эти посты будут вызывать доверие.
Аналогичным образом, Google по состоянию на 30 января 2018 года также признал существование проблем с «пузырем фильтров» на своей платформе. Поскольку текущие поисковые запросы Google извлекают результаты, ранжированные алгоритмически на основе «авторитетности» и «релевантности», которые показывают или скрывают определенные результаты поиска, Google пытается бороться с этим. Обучая свою поисковую систему распознавать цель поискового запроса, а не буквальный синтаксис вопроса, Google пытается ограничить размер пузырьков фильтров. На данный момент начальный этап этого обучения будет введен во втором квартале 2018 года. Вопросы, связанные с предвзятостью и/или противоречивыми мнениями, не будут рассматриваться до более позднего времени, что порождает более серьезную проблему, которая все еще существует: является ли поисковая система действует либо как арбитр истины, либо как знающий наставник, с помощью которого можно принимать решения. [83]
В апреле 2017 года появились новости о том, что Facebook, Mozilla и Craigslist внесли большую часть пожертвования в размере 14 миллионов долларов на «Инициативу целостности новостей» CUNY , направленную на устранение фейковых новостей и создание более честных новостных СМИ. [84]
Позже, в августе, Mozilla, создатели веб-браузера Firefox , объявили о создании Mozilla Information Trust Initiative (MITI). +MITI будет служить коллективным усилием по разработке продуктов, исследований и общественных решений для борьбы с эффектами пузырей фильтров и распространением фейковых новостей. Команда открытых инноваций Mozilla возглавляет эту инициативу, стремясь бороться с дезинформацией, уделяя особое внимание продукту с точки зрения грамотности, исследований и творческих вмешательств. [85]
Ожидается , что по мере роста популярности облачных сервисов персонализированные алгоритмы , используемые для создания пузырьков фильтров, станут более распространенными. [86] Ученые начали рассматривать влияние пузырей фильтров на пользователей социальных сетей с этической точки зрения , особенно в отношении областей личной свободы , безопасности и предвзятости информации . [87] Пузыри фильтров в популярных социальных сетях и на сайтах персонализированного поиска могут определять конкретный контент, который видят пользователи, часто без их прямого согласия или ведома, [86] благодаря алгоритмам, используемым для курирования этого контента. Самосозданный контент, проявляющийся в моделях поведения, может привести к частичной информационной слепоте. [88] Критики использования пузырей фильтров предполагают, что люди могут потерять автономию в отношении своего опыта в социальных сетях и создать свою идентичность в обществе в результате повсеместного распространения пузырей фильтров. [86]
Технологи, инженеры социальных сетей и компьютерные специалисты также исследовали распространенность «пузырей фильтров». [89] Марк Цукерберг , основатель Facebook, и Эли Паризер, автор книги «Пузырь фильтров» , выразили обеспокоенность по поводу рисков конфиденциальности и поляризации информации. [90] [91] Информация пользователей персонализированных поисковых систем и социальных сетей не является конфиденциальной, хотя некоторые люди считают, что так и должно быть. [90] Обеспокоенность по поводу конфиденциальности привела к спорам о том, морально ли со стороны информационных технологов отслеживать онлайн-активность пользователей и манипулировать будущим доступом к соответствующей информации. [91]
Некоторые ученые выразили обеспокоенность по поводу влияния «пузырей фильтров» на индивидуальное и социальное благополучие, т.е. распространение медицинской информации среди широкой публики и потенциальное влияние поисковых систем Интернета на изменение поведения, связанного со здоровьем. [16] [17] [18] [92] В междисциплинарной книге 2019 года сообщалось об исследованиях и взглядах на роль пузырей фильтров в дезинформации о здоровье. [18] Опираясь на различные области, такие как журналистика, право, медицина и психология здоровья, книга рассматривает различные спорные представления о здоровье (например, альтернативная медицина и лженаука), а также потенциальные средства правовой защиты от негативного воздействия пузырей фильтров и эхо-камер на различные темы в дискурсе о здоровье. Исследование 2016 года о потенциальном влиянии пузырей фильтров на результаты поисковых систем, связанные с самоубийствами, показало, что алгоритмы играют важную роль в том, отображаются ли пользователям линии помощи и аналогичные результаты поиска, и обсуждалось влияние их исследований на политику здравоохранения. [17] В другом исследовании 2016 года, опубликованном в хорватском медицинском журнале, были предложены некоторые стратегии по смягчению потенциально вредного воздействия пузырьков фильтров на информацию о здоровье, такие как: информирование общественности больше о пузырьках фильтров и связанных с ними эффектах, пользователи, решившие попробовать альтернативу [Google] ] поисковые системы и дополнительные объяснения процессов, которые поисковые системы используют для определения отображаемых результатов. [16]
Поскольку на контент, который видят отдельные пользователи социальных сетей, влияют алгоритмы, которые создают пузырьки фильтров, пользователи платформ социальных сетей более подвержены предвзятости подтверждения [ 93] и могут подвергаться предвзятой, вводящей в заблуждение информации. [94] Социальная сортировка и другие непреднамеренные дискриминационные практики также ожидаются в результате персонализированной фильтрации. [95]
В свете президентских выборов в США в 2016 году ученые также выразили обеспокоенность по поводу влияния «пузырей фильтров» на демократию и демократические процессы, а также роста «идеологических СМИ». [11] Эти ученые опасаются, что пользователи не смогут «[думать] за пределами [своих] узких личных интересов», поскольку пузыри фильтров создают персонализированные социальные каналы, изолируя их от различных точек зрения и окружающих их сообществ. [96] По этой причине все чаще обсуждается возможность создания социальных сетей с большей случайностью, то есть активно рекомендовать контент, который находится за пределами пузыря фильтров, включая сложную политическую информацию, и, в конечном итоге, предоставлять пользователям расширенные фильтры и инструменты. . [97] [98] [99] Связанная с этим проблема заключается в том, как пузыри фильтров способствуют распространению « фейковых новостей » и как это может повлиять на политические взгляды, в том числе на то, как голосуют пользователи. [11] [100] [101]
Разоблачения в марте 2018 года сбора и использования Cambridge Analytica пользовательских данных по меньшей мере 87 миллионов профилей Facebook во время президентских выборов 2016 года подчеркивают этические последствия пузырей фильтров. [102] Соучредитель и осведомитель Cambridge Analytica Кристофер Уайли подробно рассказал, как у фирмы была возможность разрабатывать «психографические» профили этих пользователей и использовать эту информацию для формирования их избирательного поведения. [103] Доступ к пользовательским данным третьих лиц, таких как Cambridge Analytica, может раздражать и усиливать существующие «пузыри фильтров», созданные пользователями, искусственно усиливая существующие предубеждения и еще больше разделяя общество.
Пузыри фильтров возникли из-за всплеска персонализации СМИ, что может заманить пользователей в ловушку. Использование ИИ для персонализации предложений может привести к тому, что пользователи будут просматривать только тот контент, который подкрепляет их собственные точки зрения, не бросая им вызов. Веб-сайты социальных сетей, такие как Facebook, также могут представлять контент таким образом, что пользователям сложно определить источник контента, что заставляет их самостоятельно решать, является ли источник надежным или поддельным. [104] Это может привести к тому, что люди привыкнут слышать то, что они хотят услышать, что может заставить их реагировать более радикально, когда они видят противоположную точку зрения. Пузырь фильтров может привести к тому, что человек будет воспринимать любые противоположные точки зрения как неправильные и, таким образом, может позволить средствам массовой информации навязывать свои взгляды потребителям. [105] [104] [106]
Исследования объясняют, что пузырь фильтров усиливает то, о чем человек уже думает. [107] Вот почему чрезвычайно важно использовать ресурсы, предлагающие различные точки зрения. [107]
Отслеживая отдельные веб-браузеры с помощью файлов cookie, Google смог персонализировать результаты даже для пользователей, которые не создают личную учетную запись Google или не вошли в нее.
...
С 4 декабря 2009 г. Google стал персонализированным для всех.
Итак, когда этой весной у меня было два друга, которые загуглили «BP», один из них получил набор ссылок, посвященных инвестиционным возможностям BP.
Другой получил информацию о разливе нефти....
Когда произошел разлив нефти, у меня были друзья в Google BP.
Это две женщины, которые во многом были очень похожи.
Получено множество результатов об экологических последствиях произошедшего и разлива.
Другой только что получил инвестиционную информацию и вообще ничего о разливе.
... «Если вы видите сообщения только от таких же людей, как вы, вы будете удивлены, когда кто-то, очень непохожий на вас, выиграет президентство», - сказал Паризер The Guardian....
...Глобальная деревня, которая когда-то была Интернетом... цифровые острова изоляции, которые с каждым днем все больше отдаляются друг от друга... ваш онлайн-опыт становится все более персонализированным...
...Победа Трампа ошеломляет... потому что, как это понимают исследователи средств массовой информации, мы все больше живем в «пузыре фильтров»: информация, которую мы воспринимаем, настолько персонализирована, что мы слепы к другим точкам зрения....
пузырь фильтра — это образная сфера, окружающая вас при поиске в Интернете.
Паризер объясняет, что кормление нас только тем, что нам знакомо и удобно, закрывает нас от новых идей, предметов и важной информации.
Когда дело доходит до контента, Google и Facebook предлагают нам слишком много сладостей и недостаточно морковки.
Книга г-на Паризера представляет собой обзор эволюции Интернета в направлении персонализации, исследует, как представление информации меняет способ ее восприятия, и завершается рецептами, как лопнуть пузырь фильтров, окружающий каждого пользователя.
... если бы рекомендатели были идеальными, я мог бы иметь возможность общаться только с такими же людьми, как я ... Кибербалканизация, как сформулировал сценарий Бриньольфссон, не является неизбежным эффектом рекомендательных инструментов.
Настройка результатов поиска Google — это автоматическая функция, но вы можете отключить эту функцию.
... если, исходя из истории потребления, кто-то не проявил интереса к спорту, его лента будет включать новости о больших и важных историях, связанных со спортом,...
... Референдум ЕС в Великобритании на панели на мероприятии «Политики в коммуникационном шторме»... Помимо пузыря фильтров, партийные страницы Facebook также подали диету, насыщенную фейковыми новостями....