stringtranslate.com

Фильтр пузырь

По словам интернет-активиста Эли Паризера, социальные сети непреднамеренно изолируют пользователей, помещая их в их собственные идеологические фильтры.

Пузырь фильтров или идеологический фрейм — это состояние интеллектуальной изоляции [1] , которое может возникнуть в результате персонализированного поиска , рекомендательных систем и алгоритмического курирования . Результаты поиска основаны на информации о пользователе, такой как его местоположение, предыдущее поведение при кликах и история поиска. [2] Следовательно, пользователи отделяются от информации, которая не согласуется с их точками зрения, эффективно изолируя их в их собственных культурных или идеологических пузырях, что приводит к ограниченному и индивидуальному взгляду на мир. [3] Выбор, сделанный этими алгоритмами, лишь иногда прозрачен. [4] Яркими примерами являются персонализированные результаты поиска Google и персонализированная лента новостей Facebook.

Однако существуют противоречивые данные о том, в какой степени происходит персонализированная фильтрация и является ли такая деятельность полезной или вредной, при этом различные исследования дают неоднозначные результаты.

Термин «пузырь фильтров» был придуман интернет-активистом Эли Паризером около 2010 года. В влиятельной книге Паризера под тем же названием «Пузырь фильтров» (2011) было предсказано, что индивидуальная персонализация с помощью алгоритмической фильтрации приведет к интеллектуальной изоляции и социальной фрагментации. [5] По словам Паризера, эффект пузыря может иметь негативные последствия для гражданского дискурса , но противоположные взгляды считают этот эффект минимальным [6] и поддающимся решению. [7] По словам Паризера, пользователи получают меньше информации о противоречивых точках зрения и интеллектуально изолированы в своем информационном пузыре. [8] Он привел пример, в котором один пользователь искал в Google «BP» и получил инвестиционные новости о British Petroleum , в то время как другой пользователь получил информацию о разливе нефти Deepwater Horizon , отметив, что две страницы результатов поиска были «разительно разными», несмотря на использование одних и тех же ключевых слов. [8] [9] [10] [6] Результаты президентских выборов в США в 2016 году были связаны с влиянием социальных сетей, таких как Twitter и Facebook, [11] и, как следствие, поставили под сомнение влияние феномена «пузыря фильтров» на подверженность пользователей фейковым новостям и эхо-камерам , [12] стимулируя новый интерес к термину, [13] многие обеспокоены тем, что это явление может нанести вред демократии и благополучию , усугубляя последствия дезинформации. [14] [15] [13] [16] [17] [18]

Концепция

Термин «пузырь фильтров» был придуман интернет-активистом Эли Паризером примерно в 2010 году.

Паризер определил свою концепцию фильтра-пузыря более формально, как «персональную экосистему информации , которая обслуживается этими алгоритмами». [8] История прошлых просмотров и поиска интернет-пользователя формируется с течением времени, когда он проявляет интерес к темам, «щелкая ссылки, просматривая друзей, добавляя фильмы в [свою] очередь, читая новости» и т. д. [ 19] Затем интернет-компания использует эту информацию для таргетирования рекламы на пользователя или для того, чтобы определенные типы информации появлялись более заметно на страницах результатов поиска . [19]

Этот процесс не случаен, поскольку он работает в рамках трехэтапного процесса, согласно Паризеру, который утверждает: «Сначала вы выясняете, кто такие люди и что им нравится. Затем вы предоставляете им контент и услуги, которые им лучше всего подходят. Наконец, вы настраиваетесь, чтобы получить то, что им подходит. Ваша личность формирует ваши медиа». [20] Паризер также сообщает:

Согласно одному исследованию Wall Street Journal , пятьдесят крупнейших интернет-сайтов, от CNN до Yahoo и MSN, устанавливают в среднем 64 загруженных данными куки-файла и персональных маяков отслеживания. Введите в поиск слово «депрессия» на Dictionary.com, и сайт установит на вашем компьютере до 223 отслеживающих куки-файлов и маяков, чтобы другие веб-сайты могли нацелить вас на антидепрессанты. Поделитесь статьей о кулинарии на ABC News, и вас может преследовать по всему Интернету реклама кастрюль с тефлоновым покрытием. Откройте — хотя бы на мгновение — страницу со списком признаков того, что ваш супруг может изменять, и приготовьтесь к тому, что вас будут преследовать объявления о тесте ДНК на отцовство. [21]

Доступ к данным о кликах по ссылкам, отображаемым посредством измерений трафика сайта, определяет, что пузыри фильтров могут быть коллективными или индивидуальными. [22]

По состоянию на 2011 год один инженер сообщил Паризеру, что Google просматривает 57 различных фрагментов данных, чтобы персонально подгонять результаты поиска пользователя, включая данные, не относящиеся к файлам cookie, такие как тип используемого компьютера и физическое местоположение пользователя. [23]

Идея Паризера о пузыре фильтров была популяризирована после выступления на TED в мае 2011 года, в котором он привел примеры того, как работают пузыри фильтров и где их можно увидеть. В тесте, призванном продемонстрировать эффект пузыря фильтров, Паризер попросил нескольких друзей поискать слово «Египет» в Google и отправить ему результаты. Сравнивая первые страницы результатов двух друзей, хотя между ними и было совпадение по таким темам, как новости и путешествия, результаты одного друга заметно включали ссылки на информацию о тогдашней египетской революции 2011 года , в то время как первая страница результатов другого друга не включала таких ссылок. [24]

В своей книге «Пузырь фильтров » Паризер предупреждает, что потенциальным недостатком фильтрованного поиска является то, что он «закрывает нам доступ к новым идеям, темам и важной информации» [25] и «создает впечатление, что наш узкий личный интерес — это все, что существует». [9] По его мнению, пузыри фильтров потенциально вредны как для отдельных лиц, так и для общества. Он критиковал Google и Facebook за то, что они предлагают пользователям «слишком много конфет и недостаточно морковки». [26] Он предупредил, что «невидимое алгоритмическое редактирование сети» может ограничить наше восприятие новой информации и сузить наш кругозор. [26] По словам Паризера, пагубные последствия пузырей фильтров включают вред для общества в целом в том смысле, что они могут «подрывать гражданский дискурс» и делать людей более уязвимыми для «пропаганды и манипуляций». [9] Он писал:

Мир, построенный из знакомого, — это мир, в котором нечему учиться... (поскольку существует) невидимая автопропаганда, навязывающая нам наши собственные идеи.

—  Эли Паризер в The Economist , 2011 [27]

Многие люди даже не знают о существовании пузырей фильтров. Это можно увидеть в статье в The Guardian, где упоминается тот факт, что «более 60% пользователей Facebook вообще не знают о каком-либо курировании на Facebook, полагая, что каждая отдельная история от их друзей и страниц, на которые они подписаны, появляется в их новостной ленте». [28] Краткое объяснение того, как Facebook решает, что поместить в новостную ленту пользователя, заключается в алгоритме, который учитывает «то, как вы взаимодействовали с похожими постами в прошлом». [28]

Расширение концепции

Фильтрационный пузырь описывается как усугубляющий явление , называемое splinternet или cyberbalkanization [Примечание 1] , которое происходит, когда интернет разделяется на подгруппы единомышленников, которые оказываются изолированными в своем собственном онлайн-сообществе и не могут получить доступ к различным взглядам. Эта проблема восходит к ранним дням общедоступного интернета, с термином «cyberbalkanization», придуманным в 1996 году. [29] [30] [31] Для описания этого явления использовались и другие термины, включая « идеологические рамки » [9] и «образная сфера, окружающая вас, когда вы ищете информацию в интернете». [19]

Концепция пузыря фильтров была распространена на другие области, чтобы описать общества, которые самосегрегируются в соответствии с политическими взглядами, а также экономическими, социальными и культурными ситуациями. [32] Такое раздувание приводит к потере более широкого сообщества и создает ощущение, что, например, дети не должны присутствовать на общественных мероприятиях, если только эти мероприятия не были специально спланированы так, чтобы быть привлекательными для детей и непривлекательными для взрослых без детей. [32]

В прощальном обращении Барака Обамы аналогичная концепция фильтровальных пузырей была обозначена как «угроза демократии [американцев]», то есть «уход в наши собственные пузыри, ...особенно в наши каналы социальных сетей, в окружении людей, которые выглядят как мы, разделяют те же политические взгляды и никогда не оспаривают наши предположения... И все больше мы становимся настолько уверенными в своих пузырях, что начинаем принимать только ту информацию, независимо от того, верна она или нет, которая соответствует нашему мнению, вместо того, чтобы основывать свое мнение на имеющихся доказательствах». [33]

Сравнение с эхо-камерами

И «эхо-камеры», и «фильтрующие пузыри» описывают ситуации, в которых люди подвергаются воздействию узкого диапазона мнений и точек зрения, которые усиливают их существующие убеждения и предубеждения, но между ними есть некоторые тонкие различия, особенно в практиках, связанных с социальными сетями. [34] [35]

Характерная для новостных СМИ , эхо-камера — это метафорическое описание ситуации, в которой убеждения усиливаются или подкрепляются посредством коммуникации и повторения внутри закрытой системы. [36] [37] Основываясь на социологической концепции теории избирательного воздействия , этот термин представляет собой метафору, основанную на акустической эхо-камере, где звуки отражаются в полой оболочке. Что касается социальных сетей, то такого рода ситуации подпитываются явными механизмами самовыбранной персонализации , которая описывает все процессы, в которых пользователи данной платформы могут активно выбирать и выключать потребление информации, например, способность пользователя следовать за другими пользователями или выбирать группы. [38]

В эхо-камере люди способны искать информацию, которая подкрепляет их существующие взгляды, потенциально как бессознательное проявление предвзятости подтверждения . Этот вид регулирования обратной связи может усилить политическую и социальную поляризацию и экстремизм. Это может привести к объединению пользователей в гомофильные кластеры в социальных сетях, что способствует групповой поляризации. [39] «Эхо-камеры» усиливают убеждения человека без фактической поддержки. Люди окружены теми, кто признает и следует тем же точкам зрения, но они также обладают способностью вырываться за пределы эхо-камер. [40]

С другой стороны, пузыри фильтров являются неявными механизмами предварительно выбранной персонализации , где потребление медиа пользователем создается персонализированными алгоритмами; контент, который видит пользователь, фильтруется с помощью алгоритма, управляемого ИИ, который усиливает его существующие убеждения и предпочтения, потенциально исключая противоположные или разнообразные точки зрения. В этом случае пользователи играют более пассивную роль и воспринимаются как жертвы технологии, которая автоматически ограничивает их воздействие информации, которая может бросить вызов их мировоззрению. [38] Однако некоторые исследователи утверждают, что, поскольку пользователи по-прежнему играют активную роль в избирательном курировании своих собственных новостных лент и источников информации посредством взаимодействия с поисковыми системами и социальными сетями, они напрямую помогают в процессе фильтрации с помощью алгоритмов, управляемых ИИ, тем самым эффективно участвуя в саморазделяющихся пузырях фильтров. [41]

Несмотря на их различия, использование этих терминов идет рука об руку как в академических, так и в платформенных исследованиях. Часто бывает трудно различить эти две концепции в исследованиях социальных сетей из-за ограничений в доступности алгоритмов фильтрации, которые, возможно, могли бы позволить исследователям сравнивать и сопоставлять агентства двух концепций. [42] Этот тип исследований будет продолжать становиться все более сложным для проведения, поскольку многие социальные сети также начали ограничивать доступ к API, необходимый для академических исследований. [43]

Реакции и исследования

Реакция СМИ

Существуют противоречивые сообщения о том, в какой степени происходит персонализированная фильтрация и полезна ли или вредна такая деятельность. Аналитик Джейкоб Вайсберг, писавший в июне 2011 года для Slate , провел небольшой ненаучный эксперимент для проверки теории Паризера, в котором участвовали пять коллег с разным идеологическим бэкграундом, которые проводили серию поисков, « Джон Бёнер », « Барни Фрэнк », « План Райана » и « Obamacare », и отправляли Вайсбергу скриншоты своих результатов. Результаты различались только в незначительных отношениях от человека к человеку, и любые различия, по-видимому, не были связаны с идеологией, что привело Вайсберга к выводу, что пузырь фильтров не действует, и написать, что идея о том, что большинство интернет-пользователей «кормят из кормушки Daily Me », была преувеличена. [9] Вайсберг попросил Google прокомментировать, и представитель заявил, что алгоритмы были введены для намеренного «ограничения персонализации и поощрения разнообразия». [9] Книжный обозреватель Пол Бутин провел эксперимент, аналогичный эксперименту Вайсберга, среди людей с разной историей поиска и снова обнаружил, что разные пользователи получали почти идентичные результаты поиска. [6] Опрашивая программистов в Google, не для протокола, журналист Пер Гранквист  [sv] обнаружил, что пользовательские данные раньше играли большую роль в определении результатов поиска, но Google, проведя тестирование, обнаружил, что поисковый запрос является лучшим фактором, определяющим, какие результаты отображать. [44]

Есть сообщения о том, что Google и другие сайты ведут обширные «досье» информации о своих пользователях, что может позволить им персонализировать индивидуальный интернет-опыт еще больше, если они захотят это сделать. Например, существует технология, позволяющая Google отслеживать историю пользователей, даже если у них нет личной учетной записи Google или они не вошли в нее. [6] В одном отчете говорится, что Google собрала «10-летнюю» информацию, накопленную из различных источников, таких как Gmail , Google Maps и других сервисов, помимо своей поисковой системы, [10] [ неудачная проверка ], хотя в противоположном отчете говорилось, что попытка персонализировать интернет для каждого пользователя была технически сложной для интернет-фирмы, несмотря на огромные объемы доступных данных. [ необходима цитата ] Аналитик Дуг Гросс из CNN предположил, что фильтрованный поиск, по-видимому, более полезен для потребителей, чем для граждан , и поможет потребителю, ищущему «пиццу», найти местные варианты доставки на основе персонализированного поиска и соответствующим образом отфильтровать удаленные магазины пиццы. [10] [ неудачная проверка ] Такие организации, как Washington Post , The New York Times и другие, экспериментировали с созданием новых персонализированных информационных сервисов с целью адаптации результатов поиска к тем, которые пользователям, скорее всего, понравятся или с которыми они согласятся. [9]

Исследования и реакции академических кругов

Научное исследование Уортона , в котором анализировались персонализированные рекомендации , также показало, что эти фильтры могут создавать общность, а не фрагментацию вкусов онлайн-музыки. [45] Сообщается, что потребители используют фильтры для расширения своего вкуса, а не для его ограничения. [45] Профессор права Гарварда Джонатан Зиттрейн оспорил степень, в которой фильтры персонализации искажают результаты поиска Google, заявив, что «влияние персонализации поиска было незначительным». [9] Кроме того, Google предоставляет пользователям возможность отключать функции персонализации, если они этого захотят [46], удалив запись Google об их истории поиска и настроив Google не запоминать их ключевые слова поиска и посещенные ссылки в будущем. [6]

Исследование Internet Policy Review рассмотрело отсутствие четкого и проверяемого определения пузырей фильтров в разных дисциплинах; это часто приводит к тому, что исследователи определяют и изучают пузыри фильтров по-разному. [47] Впоследствии исследование объяснило отсутствие эмпирических данных о существовании пузырей фильтров в разных дисциплинах [12] и предположило, что приписываемые им эффекты могут возникать скорее из-за уже существующих идеологических предубеждений, чем из-за алгоритмов. Похожие взгляды можно найти в других академических проектах, которые также рассматривают проблемы с определениями пузырей фильтров и отношениями между идеологическими и технологическими факторами, связанными с ними. [48] Критический обзор пузырей фильтров предположил, что «тезис о пузыре фильтров часто постулирует особый тип политического человека, который имеет сильные, но в то же время очень податливые мнения», и что «парадокс заключается в том, что люди имеют активное агентство, когда они выбирают контент, но становятся пассивными получателями, когда они подвергаются воздействию алгоритмически курируемого рекомендованного им контента». [49]

Исследование, проведенное исследователями из Оксфорда, Стэнфорда и Microsoft, изучило историю просмотров 1,2 миллиона пользователей из США, использующих надстройку Bing Toolbar для Internet Explorer, в период с марта по май 2013 года. Они отобрали 50 000 из этих пользователей, которые были активными потребителями новостей, затем классифицировали новостные ресурсы, которые они посещали, как левые или правые, на основе того, голосовало ли большинство избирателей в округах, связанных с IP-адресами пользователей, за Обаму или Ромни на президентских выборах 2012 года. Затем они определили, читались ли новости после прямого доступа к сайту издателя, через службу агрегации новостей Google, веб-поиск или социальные сети. Исследователи обнаружили, что, хотя веб-поиск и социальные сети действительно способствуют идеологической сегрегации, подавляющее большинство потребления новостей в Интернете состояло из пользователей, которые напрямую посещали основные новостные сайты левого или правого уклона и, следовательно, подвергались почти исключительно взглядам с одной стороны политического спектра. Ограничения исследования включали такие проблемы отбора, как перекос в возрасте пользователей Internet Explorer выше, чем у общей популяции Интернета; Использование панели инструментов Bing и добровольное (или неосознанное) предоставление пользователями, которые меньше заботятся о конфиденциальности, возможности выбора истории просмотров; предположение, что все истории в левых изданиях являются левыми, и то же самое относится к правым изданиям; и вероятность того, что пользователи, которые не являются активными потребителями новостей, могут получать большую часть новостей через социальные сети и, таким образом, испытывать более сильное влияние социальной или алгоритмической предвзятости, чем те пользователи, которые по сути сами выбирают свою предвзятость посредством выбора новостных публикаций (при условии, что они знают о предвзятости публикаций). [50]

Исследование исследователей Принстонского университета и Нью-Йоркского университета было направлено на изучение влияния фильтра-пузыря и алгоритмической фильтрации на поляризацию социальных сетей. Они использовали математическую модель, называемую « стохастической блочной моделью », чтобы проверить свою гипотезу на средах Reddit и Twitter. Исследователи измерили изменения поляризации в регуляризованных сетях социальных сетей и нерегуляризованных сетях, в частности, измерив процентные изменения поляризации и несогласия на Reddit и Twitter. Они обнаружили, что поляризация значительно увеличилась на 400% в нерегуляризованных сетях, в то время как поляризация увеличилась на 4% в регуляризованных сетях, а несогласие на 5%. [51]

Платформенные исследования

Хотя алгоритмы ограничивают политическое разнообразие, некоторые из пузырей фильтров являются результатом выбора пользователя. [52] Исследование, проведенное специалистами по данным в Facebook, показало, что у пользователей есть один друг с противоположными взглядами на каждых четырех друзей Facebook, которые разделяют идеологию. [53] [54] Независимо от того, какой алгоритм Facebook использует для своей новостной ленты , люди с большей вероятностью будут дружить/подписываться на людей, которые разделяют схожие убеждения. [53] Природа алгоритма заключается в том, что он ранжирует истории на основе истории пользователя, что приводит к сокращению «политически сквозного контента на 5 процентов для консерваторов и на 8 процентов для либералов». [53] Однако даже когда людям предоставляется возможность нажать на ссылку, предлагающую противоположные взгляды, они по умолчанию все равно используют свои наиболее просматриваемые источники. [53] «Выбор [пользователя] снижает вероятность нажатия на сквозную ссылку на 17 процентов для консерваторов и на 6 процентов для либералов». [53] Сквозная ссылка — это ссылка, которая представляет другую точку зрения, отличную от предполагаемой точки зрения пользователя или от того, что веб-сайт выдает за убеждения пользователя. [55] Недавнее исследование Леви Бокселла, Мэтью Генцкова и Джесси М. Шапиро предполагает, что онлайн-СМИ не являются движущей силой политической поляризации. [56] В статье утверждается, что поляризация была вызвана демографическими группами, которые проводят меньше всего времени в сети. Наибольший идеологический раскол наблюдается среди американцев старше 75 лет, в то время как только 20% сообщили об использовании социальных сетей по состоянию на 2012 год. Напротив, 80% американцев в возрасте 18–39 лет сообщили об использовании социальных сетей по состоянию на 2012 год. Данные свидетельствуют о том, что более молодая демографическая группа не более поляризована в 2012 году, чем это было, когда онлайн-СМИ едва существовали в 1996 году. Исследование подчеркивает различия между возрастными группами и то, как потребление новостей остается поляризованным, поскольку люди ищут информацию, которая апеллирует к их предубеждениям. Пожилые американцы обычно остаются застойными в своих политических взглядах, поскольку традиционные СМИ продолжают оставаться основным источником новостей, в то время как онлайн-СМИ являются ведущим источником для молодой демографической группы. Хотя алгоритмы и пузыри фильтров ослабляют разнообразие контента, это исследование показывает, что тенденции политической поляризации в первую очередь обусловлены уже существующими взглядами и неспособностью распознавать внешние источники. Исследование, проведенное в Германии в 2020 году, использовало модель Big Five Psychology для проверки влияния индивидуальной личности, демографических данных и идеологий на потребление новостей пользователями. [57]Основывая свое исследование на представлении о том, что количество источников новостей, потребляемых пользователями, влияет на вероятность попадания в пузыри фильтров — при этом большее разнообразие СМИ снижает шансы — их результаты показывают, что определенные демографические показатели (старший возраст и мужчины) вместе с определенными чертами личности (высокая открытость) положительно коррелируют с количеством источников новостей, потребляемых отдельными лицами. Исследование также обнаружило отрицательную идеологическую связь между разнообразием СМИ и степенью, в которой пользователи поддерживают правый авторитаризм. Помимо предложения различных индивидуальных факторов пользователя, которые могут влиять на роль выбора пользователя, это исследование также поднимает вопросы и связи между вероятностью попадания пользователей в пузыри фильтров и поведением пользователей при голосовании. [57]

Исследование Facebook показало, что «неубедительно» то, играл ли алгоритм такую ​​большую роль в фильтрации новостных лент, как предполагали люди. [58] Исследование также показало, что «индивидуальный выбор» или предвзятость подтверждения также влияли на то, что отфильтровывалось из новостных лент. [58] Некоторые социологи критиковали этот вывод, потому что смысл протеста против пузыря фильтров заключается в том, что алгоритмы и индивидуальный выбор работают вместе, чтобы отфильтровывать новостные ленты. [59] Они также критиковали небольшой размер выборки Facebook, который составляет около «9% фактических пользователей Facebook», и тот факт, что результаты исследования «невоспроизводимы» из-за того, что исследование проводилось «учеными Facebook», имевшими доступ к данным, которые Facebook не предоставляет сторонним исследователям. [60]

Хотя исследование показало, что только около 15–20% друзей среднестатистического пользователя Facebook подписаны на противоположную сторону политического спектра, Джулия Каман из Vox предположила, что это может иметь потенциально положительные последствия для разнообразия точек зрения. Эти «друзья» часто являются знакомыми, с которыми мы вряд ли бы поделились своей политикой без Интернета. Facebook может способствовать созданию уникальной среды, в которой пользователь видит и, возможно, взаимодействует с контентом, опубликованным или переопубликованным этими друзьями «второго уровня». Исследование показало, что «24 процента новостей, которые видели либералы, были консервативно настроенными, а 38 процентов новостей, которые видели консерваторы, были либерально настроенными». [61] «Либералы, как правило, связаны с меньшим количеством друзей, которые делятся информацией с другой стороны, по сравнению с их консервативными коллегами». [62] Это взаимодействие имеет возможность предоставлять разнообразную информацию и источники, которые могут смягчать взгляды пользователей.

Аналогичным образом, исследование пузырей фильтров Twitter, проведенное Нью -Йоркским университетом, пришло к выводу, что «теперь у людей есть доступ к более широкому спектру точек зрения на новостные события, и большая часть этой информации поступает не через традиционные каналы, а либо напрямую от политических деятелей, либо через их друзей и родственников. Более того, интерактивная природа социальных сетей создает возможности для людей обсуждать политические события со своими сверстниками, включая тех, с кем у них слабые социальные связи». [63] Согласно этим исследованиям, социальные сети могут диверсифицировать информацию и мнения, с которыми сталкиваются пользователи, хотя существует много спекуляций вокруг пузырей фильтров и их способности создавать более глубокую политическую поляризацию .

Одним из драйверов и возможных решений проблемы является роль эмоций в онлайн-контенте. Исследование 2018 года показывает, что различные эмоции сообщений могут приводить к поляризации или конвергенции: радость преобладает в эмоциональной поляризации, в то время как грусть и страх играют значительную роль в эмоциональной конвергенции. [64] Поскольку относительно легко обнаружить эмоциональное содержание сообщений, эти результаты могут помочь разработать более социально ответственные алгоритмы, начав фокусироваться на эмоциональном содержании алгоритмических рекомендаций.

Визуализация процесса и роста двух ботов социальных сетей, использованных в исследовании Weibo 2019 года . Диаграммы представляют два аспекта структуры пузырей фильтров, согласно исследованию: большие концентрации пользователей вокруг отдельных тем и однонаправленная, звездообразная структура, которая влияет на ключевые потоки информации.

Социальные боты использовались разными исследователями для проверки поляризации и связанных с ней эффектов, которые приписываются пузырям фильтров и эхо-камерам. [65] [66] Исследование 2018 года использовало социальных ботов в Twitter для проверки преднамеренного воздействия на пользователя партийных точек зрения. [65] Исследование утверждало, что оно продемонстрировало партийные различия между воздействием различных взглядов, хотя и предупреждало, что результаты должны быть ограничены зарегистрированными в партии американскими пользователями Twitter. Одним из главных выводов было то, что после воздействия различных взглядов (предоставленных ботами) самозарегистрированные республиканцы становились более консервативными, тогда как самозарегистрированные либералы демонстрировали меньше идеологических изменений, если вообще их не наблюдали. Другое исследование Китайской Народной Республики использовало социальных ботов на Weibo — крупнейшей платформе социальных сетей в Китае — для изучения структуры пузырей фильтров относительно их влияния на поляризацию. [66] Исследование проводит различие между двумя концепциями поляризации. Один из них заключается в том, что люди со схожими взглядами формируют группы, делятся схожими мнениями и блокируют себя от различных точек зрения (поляризация мнений), а другой — в том, что люди не имеют доступа к разнообразному контенту и источникам информации (поляризация информации). Используя социальных ботов вместо людей-добровольцев и уделяя больше внимания поляризации информации, а не мнений, исследователи пришли к выводу, что существует два основных элемента фильтра-пузыря: большая концентрация пользователей вокруг одной темы и однонаправленная, звездообразная структура, которая влияет на ключевые потоки информации.

В июне 2018 года платформа DuckDuckGo провела исследование на платформе веб-браузера Google. В этом исследовании 87 взрослых в разных местах по всей континентальной части Соединенных Штатов одновременно искали в Google три ключевых слова: иммиграция, контроль над оружием и вакцинация. Даже в режиме приватного просмотра большинство людей видели уникальные для них результаты. Google включил определенные ссылки для некоторых участников, которые не включил для других, а информационные поля новостей и видео показали значительные различия. Google публично оспорил эти результаты, заявив, что персонализация страницы результатов поиска (SERP) — это в основном миф. Контактное лицо Google по поиску Дэнни Салливан заявил, что «За эти годы сложился миф о том, что поиск Google персонализирует так сильно, что по одному и тому же запросу разные люди могут получать существенно разные результаты друг от друга. Это не так. Результаты могут отличаться, но обычно по неперсонализированным причинам». [67]

Когда пузырьки фильтров установлены, они могут создавать особые моменты, которые ученые называют моментами «Ух ты». Момент «Ух ты» — это когда на вашем компьютере появляется статья, реклама, пост и т. д., которые связаны с текущим действием или текущим использованием объекта. Ученые открыли этот термин после того, как молодая женщина занималась своими повседневными делами, включая питье кофе, когда она открыла свой компьютер и заметила рекламу той же марки кофе, которую пила. «Сегодня утром я села и открыла Facebook, пока пила кофе, и там были две рекламы Nespresso . Своего рода момент «Ух ты», когда продукт, который вы пьете, появляется на экране перед вами». [68] Моменты «Ух ты» возникают, когда людей «находят». Это означает, что рекламные алгоритмы нацеливаются на конкретных пользователей на основе их «поведения кликов», чтобы увеличить доход от продаж.

Несколько разработчиков разработали инструменты для противодействия эффектам пузырей фильтров (см. § Контрмеры). [69] Швейцарская радиостанция SRF проголосовала за слово filterblase (немецкий перевод слова filter bubble) как за слово года 2016. [70]

Контрмеры

По отдельным лицам

В книге «Пузырь фильтров: что скрывает от вас Интернет » [71] интернет-активист Эли Паризер подчеркивает, как участившиеся случаи возникновения пузырей фильтров еще больше подчеркивают ценность связующего социального капитала , как его определил Роберт Путман. Паризер утверждает, что пузыри фильтров усиливают чувство социальной однородности, что ослабляет связи между людьми с потенциально расходящимися интересами и точками зрения. [72] В этом смысле высокий связующий капитал может способствовать социальной интеграции, увеличивая нашу открытость пространству, которое выходит за рамки личных интересов. Укрепление связующего капитала, например, путем общения с большим количеством людей в неформальной обстановке, может быть эффективным способом уменьшения явления пузыря фильтров.

Пользователи могут предпринять множество действий, чтобы прорваться через свои пузыри фильтров, например, предпринимая сознательные усилия для оценки того, какой информации они подвергаются, и критически думая о том, взаимодействуют ли они с широким спектром контента. [73] Пользователи могут сознательно избегать источников новостей, которые не поддаются проверке или слабы. Крис Глушко, вице-президент по маркетингу в IAB, выступает за использование сайтов проверки фактов для выявления фейковых новостей. [74] Технологии также могут играть ценную роль в борьбе с пузырями фильтров. [75]

Некоторые плагины браузера направлены на то, чтобы помочь людям выйти за рамки своих фильтров и осознать свои личные перспективы; таким образом, эти медиа показывают контент, который противоречит их убеждениям и мнениям. В дополнение к плагинам, существуют приложения, созданные с целью побудить пользователей открыть свои эхо-камеры. Новостные приложения, такие как Read Across the Aisle, подталкивают пользователей к чтению различных точек зрения, если их шаблон чтения склоняется к одной стороне/идеологии. [76] Хотя приложения и плагины являются инструментами, которые люди могут использовать, Эли Паризер заявил: «Конечно, здесь есть некоторая индивидуальная ответственность, чтобы действительно искать новые источники и людей, которые не похожи на вас». [52]

Поскольку веб-реклама может усилить эффект пузырей фильтров, предоставляя пользователям больше того же контента, пользователи могут заблокировать большую часть рекламы, удалив историю поиска, отключив целевую рекламу и загрузив расширения браузера. Некоторые используют анонимные или неперсонализированные поисковые системы, такие как YaCy , DuckDuckGo , Qwant , Startpage.com , Disconnect и Searx , чтобы помешать компаниям собирать данные их веб-поиска. Швейцарская ежедневная газета Neue Zürcher Zeitung проводит бета-тестирование персонализированного приложения новостного движка, которое использует машинное обучение для угадывания того, какой контент интересует пользователя, при этом «всегда включая элемент неожиданности»; идея состоит в том, чтобы смешивать истории, за которыми пользователь вряд ли следил в прошлом. [77]

Европейский союз принимает меры по уменьшению эффекта фильтра-пузыря. Европейский парламент спонсирует исследования того, как фильтр-пузыри влияют на способность людей получать доступ к разнообразным новостям. [78] Кроме того, он представил программу, направленную на просвещение граждан о социальных сетях. [79] В США группа CSCW предлагает использовать приложения-агрегаторы новостей для расширения потребления новостей потребителями СМИ. Приложения-агрегаторы новостей сканируют все текущие новостные статьи и направляют вас к различным точкам зрения относительно определенной темы. Пользователи также могут использовать балансировщик новостей с учетом разнообразия, который визуально показывает потребителю СМИ, склоняется ли он влево или вправо, когда дело доходит до чтения новостей, указывая на правый уклон с помощью большей красной полосы или на левый уклон с помощью большей синей полосы. Исследование, оценивающее этот балансировщик новостей, обнаружило «небольшое, но заметное изменение в поведении чтения в сторону более сбалансированного воздействия среди пользователей, видящих обратную связь, по сравнению с контрольной группой». [80]

Медиа-компании

В свете недавних опасений по поводу фильтрации информации в социальных сетях Facebook признал наличие пузырей фильтров и предпринял шаги по их удалению. [81] В январе 2017 года Facebook удалил персонализацию из своего списка Trending Topics в ответ на проблемы с тем, что некоторые пользователи не видят там широко обсуждаемых событий. [82] Стратегия Facebook заключается в том, чтобы отменить функцию Related Articles, которую он внедрил в 2013 году, которая публиковала связанные новости после того, как пользователь прочитал общую статью. Теперь обновленная стратегия перевернет этот процесс и будет публиковать статьи с разных точек зрения на одну и ту же тему. Facebook также пытается пройти процесс проверки, в ходе которого будут показаны только статьи из авторитетных источников. Вместе с основателем Craigslist и несколькими другими, Facebook инвестировал 14 миллионов долларов в усилия «по повышению доверия к журналистике во всем мире и лучшему информированию общественного обсуждения». [81] Идея заключается в том, что даже если люди читают только посты, которыми поделились их друзья, по крайней мере эти посты будут заслуживать доверия.

Аналогичным образом, Google по состоянию на 30 января 2018 года также признал существование проблем с пузырем фильтров в своей платформе. Поскольку текущие поисковые запросы Google выдают алгоритмически ранжированные результаты на основе «авторитетности» и «релевантности», которые показывают и скрывают определенные результаты поиска, Google стремится бороться с этим. Обучая свою поисковую систему распознавать намерение поискового запроса, а не буквальный синтаксис вопроса, Google пытается ограничить размер пузырей фильтров. На данный момент начальная фаза этого обучения будет введена во втором квартале 2018 года. Вопросы, которые включают предвзятость и/или спорные мнения, не будут рассматриваться до более позднего времени, что приводит к более крупной проблеме, которая все еще существует: действует ли поисковая система либо как арбитр истины, либо как знающее руководство, с помощью которого можно принимать решения. [83]

В апреле 2017 года появились новости о том, что Facebook, Mozilla и Craigslist внесли большую часть пожертвования в размере 14 миллионов долларов в «Инициативу по обеспечению честности новостей» Городского университета Нью-Йорка , направленную на устранение фейковых новостей и создание более честных новостных СМИ. [84]

Позже, в августе, Mozilla, создатели веб-браузера Firefox , объявили о создании Mozilla Information Trust Initiative (MITI). +MITI будет служить коллективным усилием по разработке продуктов, исследований и решений на основе сообщества для борьбы с эффектами пузырей фильтров и распространением фейковых новостей. Команда Mozilla Open Innovation возглавляет инициативу, стремясь бороться с дезинформацией, уделяя особое внимание продукту в отношении грамотности, исследований и творческих вмешательств. [85]

Этические последствия

По мере роста популярности облачных сервисов ожидается , что персонализированные алгоритмы , используемые для построения пузырей фильтров, станут более распространенными. [86] Ученые начали рассматривать влияние пузырей фильтров на пользователей социальных сетей с этической точки зрения , особенно в отношении областей личной свободы , безопасности и информационной предвзятости . [87] Пузыри фильтров в популярных социальных сетях и персонализированных поисковых сайтах могут определять конкретный контент, просматриваемый пользователями, часто без их прямого согласия или осведомленности, [86] из-за алгоритмов, используемых для курирования этого контента. Самостоятельно созданный контент, проявляющийся из поведенческих моделей, может привести к частичной информационной слепоте. [88] Критики использования пузырей фильтров предполагают, что люди могут потерять автономию в отношении собственного опыта в социальных сетях и иметь социально сконструированную идентичность в результате всепроникаемости пузырей фильтров. [86]

Технологи, инженеры социальных сетей и специалисты по компьютерам также исследовали распространенность пузырей фильтров. [89] Марк Цукерберг , основатель Facebook, и Эли Паризер, автор книги «Пузырь фильтров» , выразили обеспокоенность относительно рисков конфиденциальности и поляризации информации. [90] [91] Информация пользователей персонализированных поисковых систем и платформ социальных сетей не является конфиденциальной, хотя некоторые люди считают, что она должна быть таковой. [90] Озабоченность по поводу конфиденциальности привела к дебатам о том, является ли моральным для информационных технологов брать онлайн-активность пользователей и манипулировать будущим воздействием связанной информации. [91]

Некоторые ученые выразили обеспокоенность относительно влияния пузырей фильтров на индивидуальное и социальное благополучие, то есть распространение информации о здоровье среди широкой общественности и потенциальное влияние поисковых систем в Интернете на изменение поведения, связанного со здоровьем. [16] [17] [18] [92] В многопрофильной книге 2019 года сообщалось об исследовании и перспективах роли пузырей фильтров в отношении дезинформации о здоровье. [18] Опираясь на различные области, такие как журналистика, юриспруденция, медицина и психология здоровья, книга рассматривает различные спорные убеждения в отношении здоровья (например, альтернативная медицина и псевдонаука), а также потенциальные средства устранения негативного влияния пузырей фильтров и эхо-камер на различные темы в дискурсе о здоровье. Исследование 2016 года потенциального влияния пузырей фильтров на результаты поисковых систем, связанные с самоубийством, показало, что алгоритмы играют важную роль в том, отображаются ли телефоны доверия и аналогичные результаты поиска для пользователей, и обсуждались последствия их исследований для политики в области здравоохранения. [17] Другое исследование 2016 года, проведенное Хорватским медицинским журналом, предложило некоторые стратегии для смягчения потенциально вредного воздействия пузырей фильтров на информацию о здоровье, такие как: информирование общественности о пузырях фильтров и связанных с ними эффектах, выбор пользователями альтернативных [Google] поисковых систем и более подробное объяснение процессов, которые поисковые системы используют для определения отображаемых ими результатов. [16]

Поскольку контент, просматриваемый отдельными пользователями социальных сетей, находится под влиянием алгоритмов, которые создают пузыри фильтров, пользователи платформ социальных сетей более подвержены предвзятости подтверждения [93] и могут подвергаться воздействию предвзятой, вводящей в заблуждение информации. [94] Социальная сортировка и другие непреднамеренные дискриминационные практики также ожидаются в результате персонализированной фильтрации. [95]

В свете президентских выборов в США 2016 года ученые также выразили обеспокоенность по поводу влияния пузырей фильтров на демократию и демократические процессы, а также подъема «идеологических СМИ». [11] Эти ученые опасаются, что пользователи не смогут «[мыслить] за пределами [своих] узких личных интересов», поскольку пузыри фильтров создают персонализированные социальные каналы, изолируя их от различных точек зрения и окружающих их сообществ. [96] По этой причине все чаще обсуждается возможность разработки социальных сетей с большей степенью случайности, то есть проактивно рекомендовать контент, который находится за пределами пузыря фильтров, включая сложную политическую информацию, и, в конечном итоге, предоставлять пользователям расширяющие возможности фильтры и инструменты. [97] [98] [99] Связанная с этим обеспокоенность заключается в том, как пузыри фильтров способствуют распространению « фейковых новостей » и как это может повлиять на политические взгляды, включая то, как пользователи голосуют. [11] [100] [101]

Раскрытие информации в марте 2018 года о сборе и использовании компанией Cambridge Analytica пользовательских данных по меньшей мере из 87 миллионов профилей Facebook во время президентских выборов 2016 года подчеркивает этические последствия пузырей фильтров. [102] Соучредитель и осведомитель Cambridge Analytica Кристофер Уайли подробно рассказал о том, как фирма имела возможность разрабатывать «психографические» профили этих пользователей и использовать эту информацию для формирования их поведения при голосовании. [103] Доступ к пользовательским данным третьих лиц, таких как Cambridge Analytica, может раздражать и усиливать существующие пузыри фильтров, созданные пользователями, искусственно усиливая существующие предубеждения и еще больше разделяя общества.

Опасности

Пузыри фильтров возникли из-за всплеска персонализации медиа, которая может заманивать пользователей в ловушку. Использование ИИ для персонализации предложений может привести к тому, что пользователи будут просматривать только тот контент, который подкрепляет их собственные точки зрения, не оспаривая их. Сайты социальных сетей, такие как Facebook, также могут представлять контент таким образом, что пользователям будет сложно определить источник контента, заставляя их самостоятельно решать, является ли источник надежным или фальшивым. [104] Это может привести к тому, что люди привыкнут слышать то, что они хотят услышать, что может заставить их реагировать более радикально, когда они видят противоположную точку зрения. Пузырь фильтров может заставить человека считать любые противоположные точки зрения неправильными и, таким образом, может позволить СМИ навязывать взгляды потребителям. [105] [104] [106]

Исследователи объясняют, что фильтрующий пузырь усиливает то, о чем человек уже думает. [107] Вот почему крайне важно использовать ресурсы, которые предлагают различные точки зрения. [107]

Смотрите также

Примечания

  1. ^ Термин «кибербалканизация» (иногда с дефисом) представляет собой гибрид слова «кибер» , относящегося к Интернету, и слова «балканизация» , относящегося к региону Европы, который исторически был разделен по языкам, религиям и культурам; термин был введен в научный оборот исследователями Массачусетского технологического института Ван Альстином и Бриньольфссоном.

Ссылки

  1. ^ Technopedia, Определение – Что означает «пузырь фильтров»? Архивировано 10 октября 2017 г. в Wayback Machine , получено 10 октября 2017 г., «…Пузырь фильтров – это интеллектуальная изоляция, которая может возникнуть, когда веб-сайты используют алгоритмы для выборочного предположения информации, которую пользователь хотел бы видеть, а затем предоставляют информацию пользователю в соответствии с этим предположением… Таким образом, пузырь фильтров может привести к тому, что пользователи будут получать значительно меньше контактов с противоречивыми точками зрения, в результате чего пользователь станет интеллектуально изолированным…».
  2. ^ Боздаг, Энгин (сентябрь 2013 г.). «Предвзятость в алгоритмической фильтрации и персонализации». Этика и информационные технологии . 15 (3): 209–227. doi :10.1007/s10676-013-9321-6. S2CID  14970635.
  3. ^ Huffington Post, The Huffington Post «Сжимают ли пузыри фильтров наши умы?» Архивировано 03.11.2016 на Wayback Machine
  4. ^ Encrypt, Search (26 февраля 2019 г.). «Что такое пузыри фильтров и как их избежать». Поиск Encrypt Blog . Архивировано из оригинала 25 февраля 2019 г. Получено 19 марта 2019 г.
  5. ^ Китченс, Брент; Джонсон, Стив Л.; Грей, Питер (1 декабря 2020 г.). «Понимание эхо-камер и пузырей фильтров: влияние социальных сетей на диверсификацию и партийные сдвиги в потреблении новостей». MIS Quarterly . 44 (4): 1619–1649. doi : 10.25300/MISQ/2020/16371. S2CID  229294134.
  6. ^ abcde Бутин, Пол (20 мая 2011 г.). «Ваши результаты могут меняться: превратится ли информационная супермагистраль в тупик из-за автоматизированных фильтров?». The Wall Street Journal . Архивировано из оригинала 5 апреля 2015 г. Получено 15 августа 2011 г. Отслеживая отдельные веб-браузеры с помощью файлов cookie, Google смогла персонализировать результаты даже для пользователей, которые не создали личную учетную запись Google или не вошли в нее. ...
  7. ^ Чжан, Юань Цао; Сэагдха, Диармуид О; Кверсия, Даниэле; Джамбор, Тамас (2012). «Auralist: Introducing serendipity into music recommend». Труды пятой международной конференции ACM по веб-поиску и интеллектуальному анализу данных . С. 13–22. doi :10.1145/2124295.2124300. ISBN 9781450307475. S2CID  2956587.
  8. ^ abc Parramore, Lynn (10 октября 2010 г.). «Пузырь фильтров». The Atlantic . Архивировано из оригинала 22 августа 2017 г. Получено 20 апреля 2011 г. С 4 декабря 2009 г. Google был персонализирован для всех. Поэтому, когда этой весной у меня было двое друзей, которые искали в Google «BP», один из них получил набор ссылок об инвестиционных возможностях в BP. Другой получил информацию о разливе нефти....
  9. ^ abcdefgh Вайсберг, Джейкоб (10 июня 2011 г.). «Bubble Trouble: превращает ли веб-персонализация нас в солипсических придурков?». Slate . Архивировано из оригинала 12 июня 2011 г. Получено 15 августа 2011 г.
  10. ^ abc Gross, Doug (19 мая 2011 г.). «Что скрывает от вас Интернет». CNN . Архивировано из оригинала 9 апреля 2016 г. Получено 15 августа 2011 г. У меня были друзья Google BP, когда происходил разлив нефти. Это две женщины, которые были во многом похожи. Одна получила много результатов об экологических последствиях того, что происходило, и разлива. Другая получила только инвестиционную информацию и ничего о разливе вообще.
  11. ^ abc Baer, ​​Drake. «The „Filter Bubble“ Explains Why Trump Won and You Didn't See It Coming». Science of Us . Архивировано из оригинала 19 апреля 2017 г. Получено 19 апреля 2017 г.
  12. ^ ab DiFranzo, Dominic; Gloria-Garcia, Kristine (5 апреля 2017 г.). «Пузыри фильтров и фейковые новости». XRDS . 23 (3): 32–35. doi :10.1145/3055153. S2CID  7069187.
  13. ^ ab Джаспер Джексон (8 января 2017 г.). «Эли Паризер: активист, чьи предупреждения о пузыре фильтров предвещали Трампа и Brexit: руководитель Upworthy предупреждал об опасностях эхо-камер интернета за пять лет до голосования 2016 года». The Guardian . Архивировано из оригинала 7 марта 2017 г. . Получено 3 марта 2017 г. . ...«Если вы видите только посты от людей, похожих на вас, вы будете удивлены, когда кто-то совсем не похожий на вас победит на президентских выборах», — сказал Паризер The Guardian....
  14. ^ Mostafa M. El-Bermawy (18 ноября 2016 г.). «Ваш пузырь фильтров разрушает демократию». Wired . Архивировано из оригинала 9 марта 2017 г. Получено 3 марта 2017 г. ... Глобальная деревня, которая когда-то была Интернетом... цифровые острова изоляции, которые с каждым днем ​​все дальше отдаляются друг от друга... ваш опыт работы в сети становится все более персонализированным...
  15. ^ Drake Baer (9 ноября 2016 г.). «Пузырь фильтров объясняет, почему Трамп победил, а вы этого не ожидали». New York Magazine . Архивировано из оригинала 26 февраля 2017 г. Получено 3 марта 2017 г. ... Победа Трампа ошеломляет... потому что, как понимают исследователи СМИ, мы все больше живем в «пузыре фильтров»: информация, которую мы получаем, настолько персонализирована, что мы слепы к другим точкам зрения....
  16. ^ abc Холоне, Харальд (июнь 2016 г.). «Пузырь фильтров и его влияние на онлайн-информацию о личном здоровье». Хорватский медицинский журнал . 57 (3): 298–301. doi :10.3325/cmj.2016.57.298. PMC 4937233. PMID 27374832  . 
  17. ^ abc Haim, Mario; Arendt, Florian; Scherr, Sebastian (февраль 2017 г.). «Бездна или убежище? О релевантности результатов поиска в поисковых системах, когда люди ищут в Google слово «самоубийство». Health Communication . 32 (2): 253–258. doi :10.1080/10410236.2015.1113484. PMID  27196394. S2CID  3399012.
  18. ^ abc "Медицинская дезинформация и социальный вред в ненаучных медицинских практиках: междисциплинарная перспектива". CRC Press . Архивировано из оригинала 4 августа 2020 г. Получено 22 апреля 2020 г.
  19. ^ abc Lazar, Shira (1 июня 2011 г.). «Алгоритмы и пузырь фильтров, разрушающий ваш онлайн-опыт?». Huffington Post . Архивировано из оригинала 13 апреля 2016 г. Получено 15 августа 2011 г. Пузырь фильтров — это образная сфера, окружающая вас при поиске в Интернете.
  20. ^ Паризер, Эли (12 мая 2011 г.). Фильтр-пузырь: как новый персонализированный Интернет меняет то, что мы читаем и как мы думаем. Penguin. ISBN 9781101515129. Архивировано из оригинала 19 января 2021 г. . Получено 11 октября 2020 г. .
  21. ^ «Как пузыри фильтров искажают реальность: все, что вам нужно знать». 31 июля 2017 г. Архивировано из оригинала 3 июля 2019 г. Получено 23 июня 2019 г.
  22. ^ Николов, Димитар; Оливейра, Диего FM; Фламмини, Алессандро; Менцер, Филиппо (2 декабря 2015 г.). «Измерение социальных пузырей в Интернете». PeerJ Computer Science . 1 : e38. arXiv : 1502.07162 . Bibcode :2015arXiv150207162N. doi : 10.7717/peerj-cs.38 .
  23. ^ Паризер, Эли (март 2011 г.). «Остерегайтесь онлайн-«пузырей фильтров»». Архивировано из оригинала 28 мая 2018 г. Получено 30 мая 2018 г.
  24. ^ Паризер, Эли (март 2011 г.). «Остерегайтесь онлайн-«пузырей фильтров»». TED.com . Архивировано из оригинала 22 сентября 2017 г. Получено 24 сентября 2017 г.
  25. ^ «Первый понедельник: Что в этом месяце показывают по ТВ, в фильмах и книгах: The Filter Bubble Эли Паризера». USA Today . 2011. Архивировано из оригинала 3 мая 2011 г. Получено 20 апреля 2011 г. Паризер объясняет, что если давать нам только то, что нам знакомо и комфортно, мы закрываем доступ к новым идеям, темам и важной информации.
  26. ^ ab Bosker, Bianca (7 марта 2011 г.). «Facebook и Google дают нам информацию о вредной еде, предупреждает Эли Паризер». Huffington Post . Архивировано из оригинала 13 марта 2011 г. Получено 20 апреля 2011 г. Когда дело доходит до контента, Google и Facebook предлагают нам слишком много конфет и недостаточно морковки.
  27. ^ "Невидимое сито: Скрыто, специально для вас". The Economist . 30 июня 2011 г. Архивировано из оригинала 3 июля 2011 г. Получено 27 июня 2011 г. Книга г-на Паризера представляет собой обзор эволюции Интернета в сторону персонализации, изучает, как представление информации меняет способ ее восприятия, и завершается рекомендациями по разрушению фильтра, окружающего каждого пользователя.
  28. ^ ab Hern (22 мая 2017 г.). «Как пузыри и алгоритмы фильтров социальных сетей влияют на выборы». The Guardian . Архивировано из оригинала 31 мая 2018 г. Получено 30 мая 2018 г.
  29. ^ Ван Альстин, Маршалл; Бриньолфссон, Эрик (март 1997 г.) [Авторское право 1996 г.]. «Электронные сообщества: глобальная деревня или кибербалканы?» (PDF) . Архивировано (PDF) из оригинала 5 апреля 2016 г. . Получено 24 сентября 2017 г. .
  30. ^ Ван Олстин, Маршалл; Бриньолфссон, Эрик (ноябрь 1996 г.). «Может ли Интернет балканизировать науку?». Science . 274 (5292): 1479–1480. Bibcode :1996Sci...274.1479V. doi :10.1126/science.274.5292.1479. S2CID  62546078.
  31. ^ Алекс Фам; Джон Хили (24 сентября 2005 г.). «Системы надеются сказать вам, что вам нравится: «механизмы предпочтений» направляют пользователей через поток контента». Chicago Tribune . Архивировано из оригинала 8 декабря 2015 г. Получено 4 декабря 2015 г. ... если бы рекомендатели были идеальными, у меня была бы возможность общаться только с людьми, которые похожи на меня... Кибербалканизация, как сформулировал сценарий Бриньолфссон, не является неизбежным эффектом рекомендательных инструментов.
  32. ^ ab Menkedick, Sarah (14 мая 2020 г.). «Почему к американским детям относятся как к другому виду, нежели к взрослым?». Aeon . Архивировано из оригинала 15 мая 2020 г. Получено 15 мая 2020 г.
  33. Обама, Барак (10 января 2017 г.). Прощальное обращение президента Обамы (речь). Вашингтон, округ Колумбия. Архивировано из оригинала 24 января 2017 г. . Получено 24 января 2017 г. .
  34. ^ Hosanagar, Kartik (25 ноября 2016 г.). «Виноваты эхо-камера в Facebook. Но и себя тоже». Wired . Архивировано из оригинала 25 сентября 2017 г. Получено 24 сентября 2017 г.
  35. ^ ДиФонзо, Николас (21 апреля 2011 г.). «Эффект эхо-камеры». The New York Times . Архивировано из оригинала 13 июня 2017 г. Получено 24 сентября 2017 г.
  36. ^ sdf (23 июня 2004 г.). «Джон Горенфельд, Мун Мессия и медиа-эхо-камера». Daily Kos . Архивировано из оригинала 2 мая 2016 г. Получено 24 сентября 2017 г.
  37. ^ Джеймисон, Кэтлин Холл ; Капелла, Джозеф Н. (22 июля 2008 г.). Эхо-камера: Раш Лимбо и консервативный медиаистеблишмент . Oxford University Press . ISBN 978-0-19-536682-2. Получено 24 сентября 2017 г. .
  38. ^ ab «Что такое пузырьки-фильтры и цифровые эхо-камеры? | Фонд Генриха Бёлля | Тель-Авив - Израиль». Фонд Генриха Белля . Проверено 8 марта 2023 г.
  39. ^ Чинелли, Маттео; Де Франциски Моралес, Джанмарко; Галеацци, Алессандро; Кватрочокки, Вальтер; Старнини, Микеле (2 марта 2021 г.). «Эффект эхо-камеры в социальных сетях». Труды Национальной академии наук . 118 (9): e2023301118. Bibcode : 2021PNAS..11823301C. doi : 10.1073/pnas.2023301118 . ISSN  0027-8424. PMC 7936330. PMID 33622786  . 
  40. ^ Эланор Коллеони; Алессандро Роцца; Адам Арвидссон (апрель 2014 г.). «Эхо-камера или публичная сфера? Прогнозирование политической ориентации и измерение политической гомофилии в Twitter с использованием больших данных». Journal of Communication . 64 (2): 317–332. doi :10.1111/jcom.12084. hdl : 10281/66011 .
  41. ^ Экстрём, Аксель Г.; Нихорстер, Дидерик К.; Олссон, Эрик Дж. (1 августа 2022 г.). «Самонаведенные пузыри фильтров: избирательное внимание и воздействие при онлайн-поиске». Computers in Human Behavior Reports . 7 : 100226. doi : 10.1016/j.chbr.2022.100226 . ISSN  2451-9588. S2CID  251434172.
  42. ^ Ревильо, Урбано; Агости, Клаудио (апрель 2020 г.). «Мышление за пределами черного ящика: аргументы в пользу «алгоритмического суверенитета» в социальных сетях». Социальные сети + общество . 6 (2): 205630512091561. doi : 10.1177/2056305120915613. hdl : 2434/840214 . ISSN  2056-3051. S2CID  219019544.
  43. ^ «План Twitter по прекращению свободного доступа к данным вызывает «изрядную панику» среди ученых». www.science.org . Получено 8 марта 2023 г.
  44. ^ Гранквист, Пер (8 февраля 2018 г.). Большой пузырь: как технологии затрудняют понимание мира . United Stories Publishing. стр. 179. ISBN 978-91-639-5990-5.
  45. ^ ab Hosanagar, Kartik; Fleder, Daniel; Lee, Dokyun; Buja, Andreas (декабрь 2013 г.). «Расколется ли глобальная деревня на племена: рекомендательные системы и их влияние на потребителей». Management Science, предстоящая публикация . SSRN  1321962.
  46. ^ Людвиг, Эмбер. «Персонализация Google в результатах поиска плюс как ее отключить». NGNG. Архивировано из оригинала 17 августа 2011 г. Получено 15 августа 2011 г. Персонализация результатов поиска Google — это автоматическая функция, но вы можете ее отключить.
  47. ^ Брунс, Аксель (29 ноября 2019 г.). «Пузырь фильтров». Обзор политики Интернета . 8 (4). doi : 10.14763/2019.4.1426 . hdl : 10419/214088 .
  48. ^ Davies, Huw C (сентябрь 2018 г.). «Переопределение пузырей фильтров как (избегаемой) социотехнической рекурсии». Sociological Research Online . 23 (3): 637–654. doi : 10.1177/1360780418763824. S2CID  149367030. Архивировано из оригинала 19 января 2021 г. Получено 29 августа 2020 г.
  49. ^ Дальгрен, Питер М. (29 января 2021 г.). «Критический обзор пузырьков фильтров и сравнение с селективным воздействием». Обзор Nordicom . 42 (1): 15–33. doi : 10.2478/nor-2021-0002 .
  50. ^ Флаксман, Сет; Гоэль, Шарад; Рао, Джастин М. (2016). «Пузыри фильтров, эхо-камеры и потребление новостей в Интернете». Public Opinion Quarterly . 80 (S1): 298–320. doi :10.1093/poq/nfw006. S2CID 2386849 . 
  51. ^ Читра, Утсав; Муско, Кристофер (2020). «Анализ воздействия пузырей фильтров на поляризацию социальных сетей». WSDM '20: Труды 13-й Международной конференции по веб-поиску и интеллектуальному анализу данных . С. 115–123. doi :10.1145/3336191.3371825.
  52. ^ ab "5 вопросов Эли Паризеру, автору книги "Пузырь фильтров". Time . 16 мая 2011 г. Архивировано из оригинала 14 апреля 2017 г. Получено 24 мая 2017 г.
  53. ^ abcde Блейберг, Джошуа; Уэст, Даррелл М. (24 мая 2017 г.). «Политическая поляризация на Facebook». Brookings Institution . Архивировано из оригинала 10 октября 2017 г. . Получено 24 мая 2017 г. .
  54. ^ Бакши, Э.; Мессинг, С.; Адамич, Л.А. (5 июня 2015 г.). «Воздействие идеологически разнообразных новостей и мнений на Facebook». Science . 348 (6239): 1130–1132. Bibcode :2015Sci...348.1130B. doi : 10.1126/science.aaa1160 . PMID  25953820. S2CID  206632821.
  55. Lumb (8 мая 2015 г.). «Почему ученые расстроены исследованием пузыря фильтров Facebook». Архивировано из оригинала 11 ноября 2017 г. Получено 10 ноября 2017 г.
  56. Оремус, Уилл (5 апреля 2017 г.). «Пузырь фильтров снова в моде». Журнал Slate . Архивировано из оригинала 6 февраля 2020 г. Получено 2 марта 2020 г.
  57. ^ ab Sindermann, Cornelia; Elhai, Jon D.; Moshagen, Morten; Montag, Christian (январь 2020 г.). «Возраст, пол, личность, идеологические установки и индивидуальные различия в спектре новостей человека: сколько и кто может быть склонен к «фильтрующим пузырям» и «эхо-камерам» в сети?». Heliyon . 6 (1): e03214. Bibcode : 2020Heliy...603214S. doi : 10.1016 /j.heliyon.2020.e03214 . PMC 7002846. PMID  32051860. 
  58. ^ ab Pariser, Eli (7 мая 2015 г.). "Забавные факты из нового исследования пузыря фильтров Facebook". Medium . Архивировано из оригинала 11 ноября 2017 г. . Получено 24 октября 2017 г. .
  59. ^ Ламб, Дэвид (8 мая 2015 г.). «Почему ученые расстроены исследованием пузыря фильтров Facebook». Fast Company . Архивировано из оригинала 23 октября 2017 г. Получено 24 октября 2017 г.
  60. ^ Паризер, Эли (7 мая 2015 г.). «Уничтожило ли большое исследование Facebook мой тезис о пузыре фильтров?». Wired . Архивировано из оригинала 11 ноября 2017 г. Получено 24 октября 2017 г.
  61. ^ «Вопреки тому, что вы слышали, Facebook может помочь проколоть наши политические «пузыри»». Vox . Архивировано из оригинала 13 июня 2018 г. . Получено 30 мая 2018 г. .
  62. ^ Бакши, Э.; Мессинг, С.; Адамич, Л.А. (2015). «Воздействие идеологически разнообразных новостей и мнений на Facebook». Science . 348 (6239): 1130–1132. Bibcode :2015Sci...348.1130B. doi : 10.1126/science.aaa1160 . PMID  25953820. S2CID  206632821.
  63. ^ Барбера, Пабло (август 2015 г.). «Как социальные медиа снижают массовую политическую поляризацию. Данные из Германии, Испании и США» CiteSeerX 10.1.1.658.5476 . 
  64. ^ Hilbert, M., Ahmed, S., Cho, J., Liu, B., & Luu, J. (2018). Общение с помощью алгоритмов: анализ энтропии переноса побегов на основе эмоций из онлайн-эхо-камер. Communication Methods and Measures, 12(4), 260–275. https://doi.org/10.1080/19312458.2018.1479843 Архивировано 19 января 2021 г. на Wayback Machine  ; https://www.martinhilbert.net/communication-with-algorithms/ Архивировано 09 мая 2019 г. на Wayback Machine
  65. ^ ab Бейл, Кристофер; Аргайл, Лиза; Браун, Тейлор; Чен, Хаохан; Хунзакер, МБФ; Ли, Джаемин (2018). «Воздействие противоположных взглядов в социальных сетях может усилить политическую поляризацию» (PDF) . Труды Национальной академии наук . 115 (37): 9216–9221. Bibcode :2018PNAS..115.9216B. doi : 10.1073/pnas.1804840115 . PMC 6140520 . PMID  30154168. Архивировано (PDF) из оригинала 10 апреля 2020 г. . Получено 22 апреля 2020 г. . 
  66. ^ ab Минь, Юн; Цзян, Тинцзюнь; Цзинь, Чэн; Ли, Цюй; Цзинь, Сяоган (2019). «Эндогенетическая структура фильтра пузыря в социальных сетях». Royal Society Open Science . 6 (11): 190868. arXiv : 1907.02703 . Bibcode :2019RSOS....690868M. doi :10.1098/rsos.190868. PMC 6894573 . PMID  31827834. 
  67. ^ Статт, Ник (4 декабря 2018 г.). «Google персонализирует результаты поиска, даже если вы вышли из системы, утверждает новое исследование». The Verge . Архивировано из оригинала 31 июля 2020 г. . Получено 22 апреля 2020 г. .
  68. ^ Бухер, Тайна (25 февраля 2016 г.). «Алгоритмическое воображаемое: изучение обычных эффектов алгоритмов Facebook». Информация, коммуникация и общество . 20 – через Taylor & Francis Online.
  69. ^ «Как нам сломать пузырь фильтров и создать дизайн для демократии?». 3 марта 2017 г. Архивировано из оригинала 3 марта 2017 г. Получено 3 марта 2017 г.
  70. ^ ""Filterblase" - это Wort des Jahres 2016" . 7 декабря 2016. Архивировано из оригинала 20 декабря 2016 года . Проверено 27 декабря 2016 г.
  71. ^ Эли Паризер (май 2011). Фильтр-пузырь: что Интернет скрывает от вас . Нью-Йорк: Penguin Press. стр. 17. ISBN 978-1-59420-300-8.
  72. ^ Стивен Барон; Джон Филд; Том Шуллер (30 ноября 2000 г.). "Социальный капитал: обзор и критика". Социальный капитал: критические точки зрения . Oxford University Press. ISBN 9780199243679.
  73. ^ «Мы застряли в пузырях фильтров? Вот пять потенциальных путей выхода». Nieman Lab . Архивировано из оригинала 4 марта 2017 г. Получено 3 марта 2017 г.
  74. ^ Глушко, Крис (8 февраля 2017 г.). «Уничтожьте пузыри фильтров персонализации и сохраните разнообразие в Интернете». Marketing Land . Архивировано из оригинала 15 марта 2017 г. Получено 22 мая 2017 г.
  75. ^ Ритхольц, Барри (2 февраля 2017 г.). «Попробуйте сломать пузырь медиа-фильтров». Bloomberg . Архивировано из оригинала 21 августа 2017 г. Получено 22 мая 2017 г.
  76. ^ «Новостное приложение стремится лопнуть пузыри фильтров, подталкивая читателей к более «сбалансированной» медиадиете». Nieman Lab . Архивировано из оригинала 15 мая 2017 г. Получено 24 мая 2017 г.
  77. ^ Mădălina Ciobanu (3 марта 2017 г.). «NZZ разрабатывает приложение, которое дает читателям персонализированные новости, не создавая пузырь фильтров: приложение использует машинное обучение, чтобы предоставить читателям поток из 25 историй, которые могут их заинтересовать, исходя из их предпочтений, но «всегда включая элемент неожиданности»». Journalism.co.uk. Архивировано из оригинала 3 марта 2017 г. . Получено 3 марта 2017 г. . ... если, исходя из истории потребления, кто-то не проявил интереса к спорту, его поток будет включать новости о больших, важных историях, связанных со спортом,...
  78. ^ Каталина Албеану (17 ноября 2016 г.). «Разрушение пузыря фильтров после выборов в США: обречены ли СМИ на провал? На мероприятии в Брюсселе на этой неделе СМИ и политики обсуждали эхо-камеры в социальных сетях и борьбу с фейковыми новостями». Journalism.co.uk. Архивировано из оригинала 10 марта 2017 г. . Получено 3 марта 2017 г. . ... Референдум по ЕС в Великобритании на панели на мероприятии «Политики в коммуникационном шторме»... Вдобавок к пузырю фильтров, партийные страницы Facebook также подавали диету, богатую фейковыми новостями....
  79. ^ "Европейская комиссия". Архивировано из оригинала 4 марта 2017 г. Получено 3 марта 2017 г.
  80. ^ Резник, Пол; Гарретт, Р. Келли; Криплин, Трэвис; Мансон, Шон А.; Страуд, Натали Джомини (2013). «Разрывая ваш (фильтр) пузырь». Труды конференции 2013 года по компьютерной поддержке кооперативного рабочего компаньона - CSCW '13 . стр. 95. doi :10.1145/2441955.2441981. ISBN 978-1-4503-1332-2. S2CID  20865375.
  81. ^ ab Vanian, Jonathan (25 апреля 2017 г.). "Facebook тестирует функцию связанных статей для борьбы с пузырями фильтров". Fortune.com . Архивировано из оригинала 25 сентября 2017 г. . Получено 24 сентября 2017 г. .
  82. ^ Sydell, Laura (25 января 2017 г.). «Facebook меняет алгоритм «Трендинговые темы», чтобы лучше отражать реальные новости». KQED Public Media. NPR. Архивировано из оригинала 26 февраля 2018 г. Получено 5 апреля 2018 г.
  83. ^ Хао, Карен. «Google наконец-то признал, что у него проблема с пузырём фильтров». Quartz . Архивировано из оригинала 4 мая 2018 г. Получено 30 мая 2018 г.
  84. ^ "Facebook, Mozilla и Craigslist Крейг финансирует фейкового новостного пожарного". Архивировано из оригинала 23 ноября 2018 г. Получено 14 января 2019 г.
  85. ^ "Инициатива Mozilla Information Trust: создание движения по борьбе с дезинформацией в Интернете". Блог Mozilla . Архивировано из оригинала 14 января 2019 г. Получено 14 января 2019 г.
  86. ^ abc Bozdag, Engin; Timmerman, Job. "Values ​​in the filter bubble Ethics of Personalization Algorithms in Cloud Computing". ResearchGate . Архивировано из оригинала 14 декабря 2020 г. Получено 6 марта 2017 г.
  87. ^ Аль-Родхан, Наиф. «Множественные этические последствия новых технологий». Scientific American . Архивировано из оригинала 8 апреля 2017 г. Получено 6 марта 2017 г.
  88. ^ Хаим, Марио; Грефе, Андреас; Брозиус, Ханс-Бернд (16 марта 2018 г.). «Взрыв пузыря фильтров?». Цифровая журналистика . 6 (3): 330–343. doi : 10.1080/21670811.2017.1338145 . S2CID  168906316.
  89. ^ «Пузырь фильтров поднимает важные вопросы – вам просто нужно отфильтровать их для себя». Rainforest Action Network . Архивировано из оригинала 8 апреля 2017 г. Получено 6 марта 2017 г.
  90. ^ ab Sterling, Greg (20 февраля 2017 г.). «Манифест Марка Цукерберга: как Facebook объединит мир, победит фейковые новости и лопнет пузырь фильтров». Marketing Land . Архивировано из оригинала 8 марта 2017 г. Получено 6 марта 2017 г.
  91. ^ ab Морозов, Евгений (10 июня 2011 г.). «Ваши собственные факты». The New York Times . Архивировано из оригинала 4 марта 2017 г. Получено 6 марта 2017 г.
  92. ^ Hesse, Bradford W.; Nelson, David E.; Kreps, Gary L.; Croyle, Robert T.; Arora, Neeraj K.; Rimer, Barbara K.; Viswanath, Kasisomayajula (12 декабря 2005 г.). «Доверие и источники информации о здоровье: влияние Интернета и его последствия для поставщиков медицинских услуг: результаты первого национального исследования тенденций в области информации о здоровье». Архивы внутренней медицины . 165 (22): 2618–24. doi :10.1001/archinte.165.22.2618. PMID  16344419.
  93. ^ Эль-Бермави, Мостафа (18 ноября 2016 г.). «Ваш фильтр-пузырь разрушает демократию». Wired . Архивировано из оригинала 9 марта 2017 г. Получено 6 марта 2017 г.
  94. ^ «Как лопнуть «пузырь фильтров», который защищает нас от противоположных взглядов». MIT Technology Review . Архивировано из оригинала 19 января 2021 г. Получено 6 марта 2017 г.
  95. ^ Боргезиус, Фредерик; Триллинг, Дамиан; Мёллер, Юдит; Бодо, Балаж; де Вризе, Клас; Хельбергер, Натали (31 марта 2016 г.). «Стоит ли нам беспокоиться о пузырях фильтров?». Обзор политики Интернета . Архивировано из оригинала 20 марта 2017 г. . Получено 6 марта 2017 г.
  96. ^ Паризер, Эли (2011). Фильтр-пузырь: как новый персонализированный Интернет меняет то, что мы читаем и как мы думаем . Нью-Йорк: Penguin Press. ISBN 978-1-59420-300-8.
  97. ^ "В похвалу счастливой случайности". The Economist . 9 марта 2017 г. Архивировано из оригинала 15 января 2019 г. Получено 14 января 2019 г.
  98. ^ Ревильо, Урбано (июнь 2019 г.). «Serendipity как новый принцип проектирования инфосферы: проблемы и возможности». Этика и информационные технологии . 21 (2): 151–166. doi :10.1007/s10676-018-9496-y. S2CID  57426650.
  99. ^ Харамбам, Джарон; Хелбергер, Натали; ван Хобокен, Йорис (28 ноября 2018 г.). «Демократизация алгоритмических новостных рекомендателей: как материализовать голос в технологически насыщенной медиаэкосистеме». Философские труды Королевского общества A: Математические, физические и инженерные науки . 376 (2133): 20180088. Bibcode : 2018RSPTA.37680088H. doi : 10.1098/rsta.2018.0088. PMC 6191663. PMID  30323002 . 
  100. Херрман, Джон (24 августа 2016 г.). «Внутри (совершенно безумной, непреднамеренно гигантской, гиперпартийной) политической медиа-машины Facebook». The New York Times . Архивировано из оригинала 19 октября 2017 г. Получено 24 октября 2017 г.
  101. ^ Дель Викарио, Микела; Бесси, Алессандро; Цолло, Фабиана; Петрони, Фабио; Скала, Антонио; Калдарелли, Гвидо; Стэнли, Х. Юджин; Кватрочиокки, Уолтер (19 января 2016 г.). «Распространение дезинформации в Интернете». Труды Национальной академии наук . 113 (3): 554–559. Bibcode : 2016PNAS..113..554D. doi : 10.1073/pnas.1517441113 . PMC 4725489. PMID  26729863 . 
  102. ^ Грэнвилл, Кевин (19 марта 2018 г.). «Facebook и Cambridge Analytica: что вам нужно знать по мере расширения Fallout». The New York Times . Архивировано из оригинала 19 октября 2018 г. Получено 19 октября 2018 г.
  103. ^ Мередит, Сэм (10 апреля 2018 г.). «Facebook-Cambridge Analytica: Хронология скандала с перехватом данных». CNBC . Архивировано из оригинала 19 октября 2018 г. Получено 19 октября 2018 г.
  104. ^ ab Gross, Michael (январь 2017). «Опасности мира постправды». Current Biology . 27 (1): R1–R4. Bibcode : 2017CBio...27...R1G. doi : 10.1016/j.cub.2016.12.034 .
  105. ^ «Как пузыри фильтров искажают реальность: все, что вам нужно знать». Farnam Street . 31 июля 2017 г. Архивировано из оригинала 20 мая 2019 г. Получено 21 мая 2019 г.
  106. Dish, The Daily (10 октября 2010 г.). «Пузырь фильтров». The Atlantic . Архивировано из оригинала 22 августа 2017 г. Получено 21 мая 2019 г.
  107. ^ ab "Пузыри фильтров и предвзятость подтверждения - фейковые новости (и как с ними бороться) - LibGuides в учебных ресурсах Miami Dade College". Архивировано из оригинала 23 октября 2020 г. Получено 22 октября 2020 г.

Дальнейшее чтение

Внешние ссылки