Пузырь фильтров или идеологический фрейм — это состояние интеллектуальной изоляции [1] , которое может возникнуть в результате персонализированного поиска , рекомендательных систем и алгоритмического курирования . Результаты поиска основаны на информации о пользователе, такой как его местоположение, предыдущее поведение при кликах и история поиска. [2] Следовательно, пользователи отделяются от информации, которая не согласуется с их точками зрения, эффективно изолируя их в их собственных культурных или идеологических пузырях, что приводит к ограниченному и индивидуальному взгляду на мир. [3] Выбор, сделанный этими алгоритмами, лишь иногда прозрачен. [4] Яркими примерами являются персонализированные результаты поиска Google и персонализированная новостная лента Facebook.
Однако существуют противоречивые данные о том, в какой степени происходит персонализированная фильтрация и является ли такая деятельность полезной или вредной, при этом различные исследования дают неоднозначные результаты.
Термин «пузырь фильтров» был придуман интернет-активистом Эли Паризером около 2010 года. В влиятельной книге Паризера под тем же названием «Пузырь фильтров» (2011) было предсказано, что индивидуальная персонализация с помощью алгоритмической фильтрации приведет к интеллектуальной изоляции и социальной фрагментации. [5] По словам Паризера, эффект пузыря может иметь негативные последствия для гражданского дискурса , но противоположные взгляды считают этот эффект минимальным [6] и поддающимся решению. [7] По словам Паризера, пользователи получают меньше информации о противоречивых точках зрения и интеллектуально изолированы в своем информационном пузыре. [8] Он привел пример, в котором один пользователь искал в Google «BP» и получил инвестиционные новости о BP , в то время как другой пользователь получил информацию о разливе нефти Deepwater Horizon , отметив, что две страницы результатов поиска были «разительно разными», несмотря на использование одних и тех же ключевых слов. [8] [9] [10] [6] Результаты президентских выборов в США в 2016 году были связаны с влиянием социальных сетей, таких как Twitter и Facebook, [11] и, как следствие, поставили под сомнение влияние феномена «пузыря фильтров» на подверженность пользователей фейковым новостям и эхо-камерам , [12] стимулируя новый интерес к термину, [13] поскольку многие обеспокоены тем, что это явление может нанести вред демократии и благополучию , усугубляя последствия дезинформации. [14] [15] [13] [16] [17] [18]
Паризер определил свою концепцию фильтра-пузыря более формально, как «персональную экосистему информации , которая обслуживается этими алгоритмами». [8] История прошлых просмотров и поиска интернет-пользователя формируется с течением времени, когда он проявляет интерес к темам, «щелкая ссылки, просматривая друзей, добавляя фильмы в [свою] очередь, читая новости» и т. д. [ 19] Затем интернет-компания использует эту информацию для таргетирования рекламы на пользователя или для того, чтобы определенные типы информации появлялись более заметно на страницах результатов поиска . [19]
Этот процесс не случаен, поскольку он работает в рамках трехэтапного процесса, согласно Паризеру, который утверждает: «Сначала вы выясняете, кто такие люди и что им нравится. Затем вы предоставляете им контент и услуги, которые им лучше всего подходят. Наконец, вы настраиваетесь, чтобы получить то, что им подходит. Ваша личность формирует ваши медиа». [20] Паризер также сообщает:
Согласно одному исследованию Wall Street Journal , пятьдесят крупнейших интернет-сайтов, от CNN до Yahoo и MSN , устанавливают в среднем 64 загруженных данными куки-файла и персональных маяков отслеживания. Введите в поиск слово «депрессия» на Dictionary.com, и сайт установит на вашем компьютере до 223 отслеживающих куки-файлов и маяков, чтобы другие веб-сайты могли нацелить вас на антидепрессанты. Поделитесь статьей о кулинарии на ABC News, и вас может преследовать по всему Интернету реклама кастрюль с тефлоновым покрытием. Откройте — хотя бы на мгновение — страницу со списком признаков того, что ваш супруг может изменять, и приготовьтесь к тому, что вас будут преследовать объявления о тесте ДНК на отцовство. [21]
Доступ к данным о кликах по ссылкам, отображаемым посредством измерений трафика сайта, определяет, что пузыри фильтров могут быть коллективными или индивидуальными. [22]
По состоянию на 2011 год один инженер сообщил Паризеру, что Google просматривает 57 различных фрагментов данных, чтобы персонально подгонять результаты поиска пользователя, включая данные, не относящиеся к файлам cookie, такие как тип используемого компьютера и физическое местоположение пользователя. [23]
Идея Паризера о пузыре фильтров была популяризирована после выступления на TED в мае 2011 года, в котором он привел примеры того, как работают пузыри фильтров и где их можно увидеть. В тесте, призванном продемонстрировать эффект пузыря фильтров, Паризер попросил нескольких друзей поискать слово «Египет» в Google и отправить ему результаты. Сравнивая первые страницы результатов двух друзей, хотя между ними и было совпадение по таким темам, как новости и путешествия, результаты одного друга заметно включали ссылки на информацию о тогдашней египетской революции 2011 года , в то время как первая страница результатов другого друга не включала таких ссылок. [24]
В своей книге «Пузырь фильтров » Паризер предупреждает, что потенциальным недостатком фильтрованного поиска является то, что он «закрывает нам доступ к новым идеям, темам и важной информации» [25] и «создает впечатление, что наш узкий личный интерес — это все, что существует». [9] По его мнению, пузыри фильтров потенциально вредны как для отдельных лиц, так и для общества. Он критиковал Google и Facebook за то, что они предлагают пользователям «слишком много конфет и недостаточно морковки». [26] Он предупредил, что «невидимое алгоритмическое редактирование сети» может ограничить наше восприятие новой информации и сузить наш кругозор. [26] По словам Паризера, пагубные последствия пузырей фильтров включают вред для общества в целом в том смысле, что они могут «подрывать гражданский дискурс» и делать людей более уязвимыми для «пропаганды и манипуляций». [9] Он писал:
Мир, построенный из знакомого, — это мир, в котором нечему учиться... (поскольку существует) невидимая автопропаганда, навязывающая нам наши собственные идеи.
— Эли Паризер в The Economist , 2011 [27]
Многие люди даже не знают о существовании пузырей фильтров. Это можно увидеть в статье в The Guardian, в которой упоминается тот факт, что «более 60% пользователей Facebook вообще не знают о каком-либо курировании на Facebook, полагая, что каждая отдельная история от их друзей и страниц, на которые они подписаны, появляется в их новостной ленте». [28] Краткое объяснение того, как Facebook решает, что поместить в новостную ленту пользователя, заключается в алгоритме, который учитывает «то, как вы взаимодействовали с похожими постами в прошлом». [28]
Фильтрационный пузырь описывается как усугубляющий явление , называемое splinternet или cyberbalkanization [Примечание 1] , которое происходит, когда интернет разделяется на подгруппы единомышленников, которые оказываются изолированными в своем собственном онлайн-сообществе и не могут получить доступ к различным взглядам. Эта проблема восходит к ранним дням общедоступного интернета, с термином «cyberbalkanization», придуманным в 1996 году. [29] [30] [31] Для описания этого явления использовались и другие термины, включая « идеологические рамки » [9] и «образная сфера, окружающая вас, когда вы ищете информацию в интернете». [19]
Концепция фильтра-пузыря была распространена на другие области, чтобы описать общества, которые самосегрегируются в соответствии с политическими взглядами, а также экономическими, социальными и культурными ситуациями. [32] Такое раздувание приводит к потере более широкого сообщества и создает ощущение, что, например, дети не должны присутствовать на общественных мероприятиях, если только эти мероприятия не были специально спланированы так, чтобы быть привлекательными для детей и непривлекательными для взрослых без детей. [32]
В прощальном обращении Барака Обамы аналогичная концепция фильтровальных пузырей была обозначена как «угроза демократии [американцев]», то есть «уход в наши собственные пузыри, ...особенно в наши каналы социальных сетей, в окружении людей, которые выглядят как мы, разделяют те же политические взгляды и никогда не оспаривают наши предположения... И все больше мы становимся настолько уверенными в своих пузырях, что начинаем принимать только ту информацию, которая соответствует нашему мнению, независимо от того, верна она или нет, вместо того, чтобы основывать свое мнение на имеющихся доказательствах». [33]
И «эхо-камеры», и «фильтрующие пузыри» описывают ситуации, в которых люди подвергаются воздействию узкого диапазона мнений и точек зрения, которые усиливают их существующие убеждения и предубеждения, но между ними есть некоторые тонкие различия, особенно в практиках, связанных с социальными сетями. [34] [35]
Характерная для новостных СМИ , эхо-камера — это метафорическое описание ситуации, в которой убеждения усиливаются или подкрепляются посредством коммуникации и повторения внутри закрытой системы. [36] [37] Основываясь на социологической концепции теории избирательного воздействия , этот термин представляет собой метафору, основанную на акустической эхо-камере, где звуки отражаются в полом корпусе. Что касается социальных сетей, то такого рода ситуации подпитываются явными механизмами самовыбранной персонализации , которая описывает все процессы, в которых пользователи данной платформы могут активно выбирать и выключать потребление информации, например, способность пользователя следовать за другими пользователями или выбирать группы. [38]
В эхо-камере люди способны искать информацию, которая подкрепляет их существующие взгляды, потенциально как бессознательное проявление предвзятости подтверждения . Этот вид регулирования обратной связи может усилить политическую и социальную поляризацию и экстремизм. Это может привести к объединению пользователей в гомофильные кластеры в социальных сетях, что способствует групповой поляризации. [39] «Эхо-камеры» усиливают убеждения человека без фактической поддержки. Люди окружены теми, кто признает и следует тем же точкам зрения, но они также обладают способностью вырываться за пределы эхо-камер. [40]
С другой стороны, пузыри фильтров являются неявными механизмами предварительно выбранной персонализации , где потребление медиа пользователем создается персонализированными алгоритмами; контент, который видит пользователь, фильтруется с помощью алгоритма, управляемого ИИ, который усиливает его существующие убеждения и предпочтения, потенциально исключая противоположные или разнообразные точки зрения. В этом случае пользователи играют более пассивную роль и воспринимаются как жертвы технологии, которая автоматически ограничивает их воздействие информации, которая может бросить вызов их мировоззрению. [38] Однако некоторые исследователи утверждают, что, поскольку пользователи по-прежнему играют активную роль в избирательном курировании своих собственных новостных лент и источников информации посредством взаимодействия с поисковыми системами и социальными сетями, они напрямую помогают в процессе фильтрации с помощью алгоритмов, управляемых ИИ, тем самым эффективно участвуя в саморазделяющихся пузырях фильтров. [41]
Несмотря на их различия, использование этих терминов идет рука об руку как в академических, так и в платформенных исследованиях. Часто бывает трудно различить эти две концепции в исследованиях социальных сетей из-за ограничений в доступности алгоритмов фильтрации, которые, возможно, могли бы позволить исследователям сравнивать и сопоставлять агентства двух концепций. [42] Этот тип исследований будет продолжать становиться все более сложным для проведения, поскольку многие социальные сети также начали ограничивать доступ к API, необходимый для академических исследований. [43]
Существуют противоречивые сообщения о том, в какой степени происходит персонализированная фильтрация и полезна ли или вредна такая деятельность. Аналитик Джейкоб Вайсберг, писавший в июне 2011 года для Slate , провел небольшой ненаучный эксперимент для проверки теории Паризера, в котором участвовали пять коллег с разным идеологическим бэкграундом, которые провели серию поисков, « Джон Бёнер », « Барни Фрэнк », « План Райана » и « Obamacare », и отправили Вайсбергу скриншоты своих результатов. Результаты различались только в незначительных отношениях от человека к человеку, и любые различия, по-видимому, не были связаны с идеологией, что привело Вайсберга к выводу, что пузырь фильтров не действует, и написать, что идея о том, что большинство интернет-пользователей «кормят из кормушки Daily Me », была преувеличена. [9] Вайсберг попросил Google прокомментировать, и представитель заявил, что алгоритмы были введены для намеренного «ограничения персонализации и поощрения разнообразия». [9] Книжный обозреватель Пол Бутин провел эксперимент, аналогичный эксперименту Вайсберга, среди людей с разной историей поиска и снова обнаружил, что разные пользователи получали почти идентичные результаты поиска. [6] Опрашивая программистов в Google, не для протокола, журналист Пер Гранквист обнаружил, что пользовательские данные раньше играли большую роль в определении результатов поиска, но Google, проведя тестирование, обнаружил, что поисковый запрос является лучшим фактором, определяющим, какие результаты отображать. [44]
Есть сообщения о том, что Google и другие сайты ведут обширные «досье» информации о своих пользователях, что может позволить им персонализировать индивидуальный интернет-опыт еще больше, если они захотят это сделать. Например, существует технология, позволяющая Google отслеживать историю пользователей, даже если у них нет личной учетной записи Google или они не вошли в нее. [6] В одном отчете говорится, что Google собрала «10-летнюю» информацию, накопленную из различных источников, таких как Gmail , Google Maps и других сервисов, помимо своей поисковой системы, [10] [ неудачная проверка ], хотя в противоположном отчете говорилось, что попытка персонализировать интернет для каждого пользователя была технически сложной для интернет-фирмы, несмотря на огромные объемы доступных данных. [ необходима цитата ] Аналитик Дуг Гросс из CNN предположил, что фильтрованный поиск, по-видимому, более полезен для потребителей, чем для граждан , и поможет потребителю, ищущему «пиццу», найти местные варианты доставки на основе персонализированного поиска и соответствующим образом отфильтровать удаленные магазины пиццы. [10] [ неудачная проверка ] Такие организации, как Washington Post , The New York Times и другие, экспериментировали с созданием новых персонализированных информационных сервисов с целью адаптации результатов поиска к тем, которые пользователям, скорее всего, понравятся или с которыми они согласятся. [9]
Научное исследование Уортона , в котором анализировались персонализированные рекомендации , также показало, что эти фильтры могут создавать общность, а не фрагментацию вкусов онлайн-музыки. [45] Сообщается, что потребители используют фильтры для расширения своего вкуса, а не для его ограничения. [45] Профессор права Гарварда Джонатан Зиттрейн оспорил степень, в которой фильтры персонализации искажают результаты поиска Google, заявив, что «влияние персонализации поиска было незначительным». [9] Кроме того, Google предоставляет пользователям возможность отключать функции персонализации, если они этого захотят [46], удалив запись Google об их истории поиска и настроив Google не запоминать их ключевые слова поиска и посещенные ссылки в будущем. [6]
Исследование Internet Policy Review рассмотрело отсутствие четкого и проверяемого определения пузырей фильтров в разных дисциплинах; это часто приводит к тому, что исследователи определяют и изучают пузыри фильтров по-разному. [47] Впоследствии исследование объяснило отсутствие эмпирических данных о существовании пузырей фильтров в разных дисциплинах [12] и предположило, что приписываемые им эффекты могут возникать скорее из-за уже существующих идеологических предубеждений, чем из-за алгоритмов. Похожие взгляды можно найти в других академических проектах, которые также рассматривают проблемы с определениями пузырей фильтров и отношениями между идеологическими и технологическими факторами, связанными с ними. [48] Критический обзор пузырей фильтров предположил, что «тезис о пузыре фильтров часто постулирует особый тип политического человека, который имеет сильные, но в то же время очень податливые мнения», и что «парадокс заключается в том, что люди имеют активное агентство, когда выбирают контент, но становятся пассивными получателями, когда они подвергаются воздействию алгоритмически курируемого рекомендованного им контента». [49]
Исследование, проведенное исследователями из Оксфорда, Стэнфорда и Microsoft, изучило историю просмотров 1,2 миллиона пользователей из США, использующих надстройку Bing Toolbar для Internet Explorer, в период с марта по май 2013 года. Они отобрали 50 000 из этих пользователей, которые были активными потребителями новостей, затем классифицировали новостные ресурсы, которые они посещали, как левые или правые, на основе того, голосовало ли большинство избирателей в округах, связанных с IP-адресами пользователей, за Обаму или Ромни на президентских выборах 2012 года. Затем они определили, читались ли новости после прямого доступа к сайту издателя, через службу агрегации новостей Google, веб-поиск или социальные сети. Исследователи обнаружили, что, хотя веб-поиск и социальные сети действительно способствуют идеологической сегрегации, подавляющее большинство потребления новостей в Интернете состояло из пользователей, которые напрямую посещали основные новостные сайты левого или правого уклона и, следовательно, подвергались почти исключительно взглядам с одной стороны политического спектра. Ограничения исследования включали такие проблемы отбора, как более высокий возраст пользователей Internet Explorer, чем общее население Интернета; Использование панели инструментов Bing и добровольное (или неосознанное) предоставление пользователями, которые меньше заботятся о конфиденциальности, возможности выбора истории просмотров; предположение, что все истории в левых изданиях являются левыми, и то же самое относится к правым изданиям; и вероятность того, что пользователи, которые не являются активными потребителями новостей, могут получать большую часть своих новостей через социальные сети и, таким образом, испытывать более сильное влияние социальной или алгоритмической предвзятости, чем те пользователи, которые по сути сами выбирают свою предвзятость посредством выбора новостных публикаций (предполагая, что они знают о предвзятости публикаций). [50]
Исследование исследователей Принстонского университета и Нью-Йоркского университета было направлено на изучение влияния фильтра-пузыря и алгоритмической фильтрации на поляризацию социальных сетей. Они использовали математическую модель, называемую « стохастической блочной моделью », чтобы проверить свою гипотезу на средах Reddit и Twitter. Исследователи измерили изменения поляризации в регуляризованных сетях социальных сетей и нерегуляризованных сетях, в частности, измерив процентные изменения поляризации и несогласия на Reddit и Twitter. Они обнаружили, что поляризация значительно увеличилась на 400% в нерегуляризованных сетях, в то время как поляризация увеличилась на 4% в регуляризованных сетях, а несогласие на 5%. [51]
Хотя алгоритмы ограничивают политическое разнообразие, некоторые из пузырей фильтров являются результатом выбора пользователя. [52] Исследование, проведенное специалистами по данным в Facebook, показало, что у пользователей есть один друг с противоположными взглядами на каждых четырех друзей Facebook, которые разделяют идеологию. [53] [54] Независимо от того, какой алгоритм Facebook использует для своей новостной ленты , люди с большей вероятностью будут дружить/подписываться на людей, которые разделяют схожие убеждения. [53] Природа алгоритма заключается в том, что он ранжирует истории на основе истории пользователя, что приводит к сокращению «политически сквозного контента на 5 процентов для консерваторов и на 8 процентов для либералов». [53] Однако даже когда людям предоставляется возможность нажать на ссылку, предлагающую противоположные взгляды, они по умолчанию все равно используют свои наиболее просматриваемые источники. [53] «Выбор [пользователя] снижает вероятность нажатия на сквозную ссылку на 17 процентов для консерваторов и на 6 процентов для либералов». [53] Сквозная ссылка — это ссылка, которая представляет точку зрения, отличную от предполагаемой точки зрения пользователя или того, что веб-сайт выдает за убеждения пользователя. [55] Недавнее исследование Леви Бокселла, Мэтью Генцкова и Джесси М. Шапиро предполагает, что онлайн-СМИ не являются движущей силой политической поляризации. [56] В статье утверждается, что поляризация была вызвана демографическими группами, которые проводят меньше всего времени в сети. Наибольший идеологический раскол наблюдается среди американцев старше 75 лет, в то время как только 20% сообщили об использовании социальных сетей по состоянию на 2012 год. Напротив, 80% американцев в возрасте 18–39 лет сообщили об использовании социальных сетей по состоянию на 2012 год. Данные свидетельствуют о том, что более молодая демографическая группа не более поляризована в 2012 году, чем это было, когда онлайн-СМИ едва существовали в 1996 году. Исследование подчеркивает различия между возрастными группами и то, как потребление новостей остается поляризованным, поскольку люди ищут информацию, которая апеллирует к их предубеждениям. Пожилые американцы обычно остаются застойными в своих политических взглядах, поскольку традиционные СМИ продолжают оставаться основным источником новостей, в то время как онлайн-СМИ являются ведущим источником для молодой демографической группы. Хотя алгоритмы и пузыри фильтров ослабляют разнообразие контента, это исследование показывает, что тенденции политической поляризации в первую очередь обусловлены уже существующими взглядами и неспособностью распознавать внешние источники. Исследование, проведенное в Германии в 2020 году, использовало модель Big Five Psychology для проверки влияния индивидуальной личности, демографических данных и идеологий на потребление новостей пользователями. [57]Основывая свое исследование на представлении о том, что количество источников новостей, потребляемых пользователями, влияет на вероятность попадания в пузыри фильтров — при этом большее разнообразие СМИ снижает шансы — их результаты показывают, что определенные демографические показатели (старший возраст и мужчины) вместе с определенными чертами личности (высокая открытость) положительно коррелируют с количеством источников новостей, потребляемых отдельными лицами. Исследование также обнаружило отрицательную идеологическую связь между разнообразием СМИ и степенью, в которой пользователи придерживаются правого авторитаризма. Помимо предложения различных индивидуальных факторов пользователя, которые могут влиять на роль выбора пользователя, это исследование также поднимает вопросы и связи между вероятностью попадания пользователей в пузыри фильтров и поведением пользователей при голосовании. [57]
Исследование Facebook показало, что «неубедительно» то, играл ли алгоритм такую большую роль в фильтрации новостных лент, как предполагали люди. [58] Исследование также показало, что «индивидуальный выбор» или предвзятость подтверждения также влияли на то, что отфильтровывалось из новостных лент. [58] Некоторые социологи критиковали этот вывод, потому что смысл протеста против пузыря фильтров заключается в том, что алгоритмы и индивидуальный выбор работают вместе, чтобы отфильтровывать новостные ленты. [59] Они также критиковали небольшой размер выборки Facebook, который составляет около «9% фактических пользователей Facebook», и тот факт, что результаты исследования «невоспроизводимы» из-за того, что исследование проводилось «учеными Facebook», имевшими доступ к данным, которые Facebook не предоставляет сторонним исследователям. [60]
Хотя исследование показало, что только около 15–20% друзей среднестатистического пользователя Facebook подписаны на противоположную сторону политического спектра, Джулия Каман из Vox предположила, что это может иметь потенциально положительные последствия для разнообразия точек зрения. Эти «друзья» часто являются знакомыми, с которыми мы вряд ли бы поделились своей политикой без Интернета. Facebook может способствовать созданию уникальной среды, в которой пользователь видит и, возможно, взаимодействует с контентом, опубликованным или переопубликованным этими друзьями «второго уровня». Исследование показало, что «24 процента новостей, которые видели либералы, были консервативно настроенными, а 38 процентов новостей, которые видели консерваторы, были либерально настроенными». [61] «Либералы, как правило, связаны с меньшим количеством друзей, которые делятся информацией с другой стороны, по сравнению с их консервативными коллегами». [62] Это взаимодействие имеет возможность предоставлять разнообразную информацию и источники, которые могут смягчать взгляды пользователей.
Аналогичным образом, исследование фильтров Twitter, проведенное Нью -Йоркским университетом, пришло к выводу, что «теперь у людей есть доступ к более широкому спектру точек зрения на новостные события, и большая часть этой информации поступает не через традиционные каналы, а либо напрямую от политических деятелей, либо через их друзей и родственников. Более того, интерактивная природа социальных сетей создает возможности для людей обсуждать политические события со своими сверстниками, включая тех, с кем у них слабые социальные связи». [63] Согласно этим исследованиям, социальные сети могут диверсифицировать информацию и мнения, с которыми сталкиваются пользователи, хотя существует много спекуляций вокруг фильтров и их способности создавать более глубокую политическую поляризацию .
Одним из драйверов и возможных решений проблемы является роль эмоций в онлайн-контенте. Исследование 2018 года показывает, что различные эмоции сообщений могут приводить к поляризации или конвергенции: радость преобладает в эмоциональной поляризации, в то время как грусть и страх играют значительную роль в эмоциональной конвергенции. [64] Поскольку относительно легко обнаружить эмоциональное содержание сообщений, эти результаты могут помочь разработать более социально ответственные алгоритмы, начав фокусироваться на эмоциональном содержании алгоритмических рекомендаций.
Социальные боты использовались разными исследователями для проверки поляризации и связанных с ней эффектов, которые приписываются пузырям фильтров и эхо-камерам. [65] [66] Исследование 2018 года использовало социальных ботов в Twitter для проверки преднамеренного воздействия на пользователя партийных точек зрения. [65] Исследование утверждало, что оно продемонстрировало партийные различия между воздействием различных взглядов, хотя и предупреждало, что результаты должны быть ограничены зарегистрированными в партии американскими пользователями Twitter. Одним из главных выводов было то, что после воздействия различных взглядов (предоставленных ботами) самозарегистрированные республиканцы становились более консервативными, тогда как самозарегистрированные либералы демонстрировали меньше идеологических изменений, если вообще их не наблюдали. Другое исследование Китайской Народной Республики использовало социальных ботов на Weibo — крупнейшей платформе социальных сетей в Китае — для изучения структуры пузырей фильтров относительно их влияния на поляризацию. [66] Исследование проводит различие между двумя концепциями поляризации. Один из них заключается в том, что люди со схожими взглядами формируют группы, делятся схожими мнениями и блокируют себя от различных точек зрения (поляризация мнений), а другой — в том, что люди не имеют доступа к разнообразному контенту и источникам информации (поляризация информации). Используя социальных ботов вместо людей-добровольцев и уделяя больше внимания поляризации информации, а не мнениям, исследователи пришли к выводу, что существует два основных элемента фильтра-пузыря: большая концентрация пользователей вокруг одной темы и однонаправленная, звездообразная структура, которая влияет на ключевые потоки информации.
В июне 2018 года платформа DuckDuckGo провела исследование на платформе веб-браузера Google. В этом исследовании 87 взрослых в разных местах по всей континентальной части Соединенных Штатов одновременно искали в Google три ключевых слова: иммиграция, контроль над оружием и вакцинация. Даже в режиме приватного просмотра большинство людей видели уникальные для них результаты. Google включил определенные ссылки для некоторых участников, которые не включил для других, а информационные поля новостей и видео показали значительные различия. Google публично оспорил эти результаты, заявив, что персонализация страницы результатов поиска (SERP) в основном является мифом. Контактное лицо Google по поиску Дэнни Салливан заявил, что «За эти годы сложился миф о том, что поиск Google персонализирует так сильно, что по одному и тому же запросу разные люди могут получать существенно разные результаты друг от друга. Это не так. Результаты могут отличаться, но обычно по неперсонализированным причинам». [67]
Когда пузырьки фильтров установлены, они могут создавать особые моменты, которые ученые называют моментами «Ух ты». Момент «Ух ты» — это когда на вашем компьютере появляется статья, реклама, пост и т. д., которые связаны с текущим действием или текущим использованием объекта. Ученые открыли этот термин после того, как молодая женщина занималась своими повседневными делами, включая питье кофе, когда она открыла свой компьютер и заметила рекламу той же марки кофе, которую пила. «Сегодня утром я села и открыла Facebook, пока пила кофе, и там были две рекламы Nespresso . Своего рода момент «Ух ты», когда продукт, который вы пьете, появляется на экране перед вами». [68] Моменты «Ух ты» возникают, когда людей «находят». Это означает, что рекламные алгоритмы нацеливаются на определенных пользователей на основе их «поведения кликов», чтобы увеличить доход от продаж.
Несколько разработчиков разработали инструменты для противодействия эффектам пузырей фильтров (см. § Контрмеры). [69] Швейцарская радиостанция SRF проголосовала за слово filterblase (немецкий перевод слова filter bubble) как за слово года 2016. [70]
В книге «Пузырь фильтров: что скрывает от вас Интернет » [71] интернет-активист Эли Паризер подчеркивает, как участившиеся случаи возникновения пузырей фильтров еще больше подчеркивают ценность связующего социального капитала , как его определил Роберт Путман. Паризер утверждает, что пузыри фильтров усиливают чувство социальной однородности, что ослабляет связи между людьми с потенциально расходящимися интересами и точками зрения. [72] В этом смысле высокий связующий капитал может способствовать социальной интеграции, увеличивая нашу подверженность пространству, которое выходит за рамки личных интересов. Укрепление связующего капитала, например, путем общения с большим количеством людей в неформальной обстановке, может быть эффективным способом уменьшения явления пузыря фильтров.
Пользователи могут предпринять множество действий, чтобы прорваться через свои пузыри фильтров, например, предпринимая сознательные усилия для оценки того, какой информации они подвергаются, и критически думая о том, взаимодействуют ли они с широким спектром контента. [73] Пользователи могут сознательно избегать источников новостей, которые не поддаются проверке или слабы. Крис Глушко, вице-президент по маркетингу в IAB, выступает за использование сайтов проверки фактов для выявления фейковых новостей. [74] Технологии также могут играть ценную роль в борьбе с пузырями фильтров. [75]
Некоторые плагины браузера направлены на то, чтобы помочь людям выйти за рамки своих фильтров и осознать свои личные перспективы; таким образом, эти медиа показывают контент, который противоречит их убеждениям и мнениям. В дополнение к плагинам, существуют приложения, созданные с целью побудить пользователей открыть свои эхо-камеры. Новостные приложения, такие как Read Across the Aisle, подталкивают пользователей к чтению различных точек зрения, если их шаблон чтения склоняется к одной стороне/идеологии. [76] Хотя приложения и плагины являются инструментами, которые люди могут использовать, Эли Паризер заявил: «Конечно, здесь есть некоторая индивидуальная ответственность, чтобы действительно искать новые источники и людей, которые не похожи на вас». [52]
Поскольку веб-реклама может усилить эффект пузырей фильтров, предоставляя пользователям больше того же контента, пользователи могут заблокировать большую часть рекламы, удалив историю поиска, отключив целевую рекламу и загрузив расширения браузера. Некоторые используют анонимные или неперсонализированные поисковые системы, такие как YaCy , DuckDuckGo , Qwant , Startpage.com , Disconnect и Searx , чтобы помешать компаниям собирать данные их веб-поиска. Швейцарская ежедневная газета Neue Zürcher Zeitung проводит бета-тестирование персонализированного приложения новостного движка, которое использует машинное обучение для угадывания того, какой контент интересует пользователя, при этом «всегда включая элемент неожиданности»; идея состоит в том, чтобы смешивать истории, за которыми пользователь вряд ли следил в прошлом. [77]
Европейский союз принимает меры по уменьшению эффекта фильтра-пузыря. Европейский парламент спонсирует исследования того, как фильтр-пузыри влияют на способность людей получать доступ к разнообразным новостям. [78] Кроме того, он представил программу, направленную на просвещение граждан о социальных сетях. [79] В США группа CSCW предлагает использовать приложения-агрегаторы новостей для расширения потребления новостей потребителями СМИ. Приложения-агрегаторы новостей сканируют все текущие новостные статьи и направляют вас к различным точкам зрения относительно определенной темы. Пользователи также могут использовать балансировщик новостей с учетом разнообразия, который визуально показывает потребителю СМИ, склоняется ли он влево или вправо, когда дело доходит до чтения новостей, указывая на правый уклон с помощью большей красной полосы или на левый уклон с помощью большей синей полосы. Исследование, оценивающее этот балансировщик новостей, обнаружило «небольшое, но заметное изменение в поведении чтения в сторону более сбалансированного воздействия среди пользователей, видящих обратную связь, по сравнению с контрольной группой». [80]
В свете недавних опасений по поводу фильтрации информации в социальных сетях Facebook признал наличие пузырей фильтров и предпринял шаги по их удалению. [81] В январе 2017 года Facebook удалил персонализацию из своего списка популярных тем в ответ на проблемы с тем, что некоторые пользователи не видят там широко обсуждаемых событий. [82] Стратегия Facebook заключается в том, чтобы отменить функцию связанных статей, которую он внедрил в 2013 году, которая публиковала связанные новости после того, как пользователь прочитал общую статью. Теперь обновленная стратегия перевернет этот процесс и будет публиковать статьи с разных точек зрения на одну и ту же тему. Facebook также пытается пройти процесс проверки, в ходе которого будут показаны только статьи из авторитетных источников. Вместе с основателем Craigslist и несколькими другими Facebook инвестировал 14 миллионов долларов в усилия «по повышению доверия к журналистике во всем мире и лучшему информированию общественного обсуждения». [81] Идея заключается в том, что даже если люди читают только посты, которыми поделились их друзья, по крайней мере эти посты будут заслуживать доверия.
Аналогичным образом, Google по состоянию на 30 января 2018 года также признал существование проблем с пузырем фильтров в своей платформе. Поскольку текущие поисковые запросы Google выдают алгоритмически ранжированные результаты на основе «авторитетности» и «релевантности», которые показывают и скрывают определенные результаты поиска, Google стремится бороться с этим. Обучая свою поисковую систему распознавать намерение поискового запроса, а не буквальный синтаксис вопроса, Google пытается ограничить размер пузырей фильтров. На данный момент начальная фаза этого обучения будет введена во втором квартале 2018 года. Вопросы, которые включают предвзятость и/или спорные мнения, не будут рассматриваться до более позднего времени, что приводит к более крупной проблеме, которая все еще существует: действует ли поисковая система либо как арбитр истины, либо как знающее руководство, с помощью которого можно принимать решения. [83]
В апреле 2017 года появились новости о том, что Facebook, Mozilla и Craigslist внесли большую часть пожертвования в размере 14 миллионов долларов в «Инициативу по обеспечению честности новостей» Городского университета Нью-Йорка , направленную на устранение фейковых новостей и создание более честных новостных СМИ. [84]
Позже, в августе, Mozilla, создатели веб-браузера Firefox , объявили о создании Mozilla Information Trust Initiative (MITI). +MITI будет служить коллективным усилием по разработке продуктов, исследований и решений на основе сообщества для борьбы с эффектами пузырей фильтров и распространением фейковых новостей. Команда Mozilla Open Innovation возглавляет инициативу, стремясь бороться с дезинформацией, уделяя особое внимание продукту в отношении грамотности, исследований и творческих вмешательств. [85]
По мере роста популярности облачных сервисов ожидается , что персонализированные алгоритмы , используемые для построения пузырей фильтров, станут более распространенными. [86] Ученые начали рассматривать влияние пузырей фильтров на пользователей социальных сетей с этической точки зрения , особенно в отношении областей личной свободы , безопасности и информационной предвзятости . [87] Пузыри фильтров в популярных социальных сетях и персонализированных поисковых сайтах могут определять конкретный контент, просматриваемый пользователями, часто без их прямого согласия или осведомленности, [86] из-за алгоритмов, используемых для курирования этого контента. Самостоятельно созданный контент, проявляющийся из поведенческих моделей, может привести к частичной информационной слепоте. [88] Критики использования пузырей фильтров предполагают, что люди могут потерять автономию в отношении собственного опыта в социальных сетях и иметь социально сконструированную идентичность в результате всепроникаемости пузырей фильтров. [86]
Технологи, инженеры социальных сетей и специалисты по компьютерам также исследовали распространенность пузырей фильтров. [89] Марк Цукерберг , основатель Facebook, и Эли Паризер, автор книги «Пузырь фильтров» , выразили обеспокоенность относительно рисков конфиденциальности и поляризации информации. [90] [91] Информация пользователей персонализированных поисковых систем и платформ социальных сетей не является конфиденциальной, хотя некоторые люди считают, что она должна быть таковой. [90] Озабоченность по поводу конфиденциальности привела к дебатам о том, является ли моральным для информационных технологов брать онлайн-активность пользователей и манипулировать будущим воздействием связанной информации. [91]
Некоторые ученые выразили обеспокоенность относительно влияния пузырей фильтров на индивидуальное и социальное благополучие, то есть распространение информации о здоровье среди широкой общественности и потенциальное влияние поисковых систем в Интернете на изменение поведения, связанного со здоровьем. [16] [17] [18] [92] В многопрофильной книге 2019 года сообщалось об исследовании и перспективах роли пузырей фильтров в отношении дезинформации о здоровье. [18] Опираясь на различные области, такие как журналистика, юриспруденция, медицина и психология здоровья, книга рассматривает различные спорные убеждения в отношении здоровья (например, альтернативная медицина и псевдонаука), а также потенциальные средства устранения негативного влияния пузырей фильтров и эхо-камер на различные темы в дискурсе о здоровье. Исследование 2016 года потенциального влияния пузырей фильтров на результаты поисковых систем, связанные с самоубийством, показало, что алгоритмы играют важную роль в том, отображаются ли телефоны доверия и аналогичные результаты поиска для пользователей, и обсуждались последствия их исследований для политики в области здравоохранения. [17] Другое исследование 2016 года, проведенное Хорватским медицинским журналом, предложило некоторые стратегии для смягчения потенциально вредного воздействия пузырей фильтров на информацию о здоровье, такие как: информирование общественности о пузырях фильтров и связанных с ними эффектах, выбор пользователями альтернативных [Google] поисковых систем и более подробное объяснение процессов, которые поисковые системы используют для определения отображаемых ими результатов. [16]
Поскольку контент, просматриваемый отдельными пользователями социальных сетей, находится под влиянием алгоритмов, которые создают пузыри фильтров, пользователи платформ социальных сетей более подвержены предвзятости подтверждения [93] и могут подвергаться воздействию предвзятой, вводящей в заблуждение информации. [94] Социальная сортировка и другие непреднамеренные дискриминационные практики также ожидаются в результате персонализированной фильтрации. [95]
В свете президентских выборов в США 2016 года ученые также выразили обеспокоенность по поводу влияния пузырей фильтров на демократию и демократические процессы, а также подъема «идеологических СМИ». [11] Эти ученые опасаются, что пользователи не смогут «[мыслить] за пределами [своих] узких личных интересов», поскольку пузыри фильтров создают персонализированные социальные каналы, изолируя их от различных точек зрения и окружающих их сообществ. [96] По этой причине все чаще обсуждается возможность разработки социальных сетей с большей степенью случайности, то есть проактивно рекомендовать контент, который находится за пределами пузыря фильтров, включая сложную политическую информацию, и, в конечном итоге, предоставлять пользователям расширяющие возможности фильтры и инструменты. [97] [98] [99] Связанная с этим обеспокоенность заключается в том, как пузыри фильтров способствуют распространению « фейковых новостей » и как это может повлиять на политические взгляды, включая то, как пользователи голосуют. [11] [100] [101]
Раскрытие информации в марте 2018 года о сборе и использовании компанией Cambridge Analytica пользовательских данных по меньшей мере из 87 миллионов профилей Facebook во время президентских выборов 2016 года подчеркивает этические последствия пузырей фильтров. [102] Соучредитель и осведомитель Cambridge Analytica Кристофер Уайли подробно рассказал о том, как фирма имела возможность разрабатывать «психографические» профили этих пользователей и использовать эту информацию для формирования их поведения при голосовании. [103] Доступ к пользовательским данным третьих лиц, таких как Cambridge Analytica, может раздражать и усиливать существующие пузыри фильтров, созданные пользователями, искусственно усиливая существующие предубеждения и еще больше разделяя общества.
Пузыри фильтров возникли из-за всплеска персонализации медиа, которая может заманить пользователей в ловушку. Использование ИИ для персонализации предложений может привести к тому, что пользователи будут просматривать только тот контент, который подкрепляет их собственные точки зрения, не оспаривая их. Сайты социальных сетей, такие как Facebook, также могут представлять контент таким образом, что пользователям будет сложно определить источник контента, заставляя их самостоятельно решать, является ли источник надежным или фальшивым. [104] Это может привести к тому, что люди привыкнут слышать то, что они хотят услышать, что может заставить их реагировать более радикально, когда они видят противоположную точку зрения. Пузырь фильтров может заставить человека считать любые противоположные точки зрения неправильными и, таким образом, может позволить СМИ навязывать взгляды потребителям. [105] [104] [106]
Исследования объясняют, что фильтрующий пузырь усиливает то, о чем человек уже думает. [107] Вот почему крайне важно использовать ресурсы, которые предлагают различные точки зрения. [107]
отдельные веб-браузеры с помощью файлов cookie, Google смогла персонализировать результаты даже для пользователей, которые не создали личную учетную запись Google или не вошли в нее. ...
4 декабря 2009 г. Google был персонализирован для всех. Поэтому, когда этой весной у меня было двое друзей, которые искали в Google «BP», один из них получил набор ссылок об инвестиционных возможностях в BP. Другой получил информацию о разливе нефти....
меня были друзья Google BP, когда происходил разлив нефти. Это две женщины, которые были во многом похожи. Одна получила много результатов об экологических последствиях того, что происходило, и разлива. Другая получила только инвестиционную информацию и ничего о разливе вообще.
...«Если вы видите только посты от людей, которые похожи на вас, вы будете удивлены, когда кто-то совсем не похожий на вас победит на президентских выборах», — сказал Паризер The Guardian....
Глобальная деревня, которая когда-то была Интернетом... цифровые острова изоляции, которые с каждым днем все дальше отдаляются друг от друга... ваш опыт работы в сети становится все более персонализированным...
Победа Трампа ошеломляет... потому что, как понимают исследователи СМИ, мы все больше живем в «пузыре фильтров»: информация, которую мы получаем, настолько персонализирована, что мы слепы к другим точкам зрения....
фильтров — это образная сфера, окружающая вас при поиске в Интернете.
объясняет, что если давать нам только то, что нам знакомо и комфортно, мы закрываем доступ к новым идеям, темам и важной информации.
дело доходит до контента, Google и Facebook предлагают нам слишком много конфет и недостаточно морковки.
Книга г-на Паризера представляет собой обзор эволюции Интернета в сторону персонализации, изучает, как представление информации меняет способ ее восприятия, и завершается рекомендациями по разрушению фильтра, окружающего каждого пользователя.
если бы рекомендатели были идеальными, у меня была бы возможность общаться только с людьми, которые похожи на меня... Кибербалканизация, как сформулировал сценарий Бриньолфссон, не является неизбежным эффектом рекомендательных инструментов.
результатов поиска Google — это автоматическая функция, но вы можете ее отключить.
... если, исходя из истории потребления, кто-то не проявил интереса к спорту, его поток будет включать новости о больших, важных историях, связанных со спортом,...
... Референдум по ЕС в Великобритании на панели на мероприятии «Политики в коммуникационном шторме»... Вдобавок к пузырю фильтров, партийные страницы Facebook также подавали диету, богатую фейковыми новостями....