stringtranslate.com

Фильтр-пузырь

По мнению Паризера, социальные сети непреднамеренно изолируют пользователей в их собственные идеологические фильтры .

Пузырь фильтров или идеологическая рамка — это состояние интеллектуальной изоляции [1] , которое может возникнуть в результате персонализированного поиска , систем рекомендаций и алгоритмического курирования . Результаты поиска основаны на информации о пользователе, такой как его местоположение, поведение при кликах в прошлом и история поиска. [2] Следовательно, пользователи отделяются от информации, которая не согласуется с их точками зрения, эффективно изолируя их в своих собственных культурных или идеологических пузырях, что приводит к ограниченному и индивидуальному взгляду на мир. [3] Выбор, сделанный этими алгоритмами, лишь иногда прозрачен. [4] Яркими примерами являются результаты персонализированного поиска Google и персонализированная лента новостей Facebook.

Однако существуют противоречивые сообщения о том, в какой степени происходит персонализированная фильтрация и приносит ли такая деятельность пользу или вред, при этом различные исследования дают неубедительные результаты.

Термин « пузырь фильтров» был придуман интернет-активистом Эли Паризером примерно в 2010 году. Во влиятельной книге Паризера под тем же названием « Пузырь фильтров » (2011) было предсказано, что индивидуализированная персонализация с помощью алгоритмической фильтрации приведет к интеллектуальной изоляции и социальной фрагментации. [5] По мнению Паризера , эффект «пузыря» может иметь негативные последствия для гражданского дискурса , но противоположные точки зрения считают этот эффект минимальным [6] и решаемым. [7] По мнению Парайзера, пользователи меньше подвергаются воздействию противоречивых точек зрения и интеллектуально изолированы в своем информационном пузыре. [8] Он привел пример, в котором один пользователь ввел в Google запрос «BP» и получил инвестиционные новости о British Petroleum , а другой пользователь получил информацию о разливе нефти Deepwater Horizon , отметив, что две страницы результатов поиска были «разительно разными», несмотря на использование одних и тех же ключевых слов. [8] [9] [10] [6] Результаты президентских выборов в США в 2016 году были связаны с влиянием платформ социальных сетей, таких как Twitter и Facebook, [11] и в результате поставили под сомнение последствия феномена «пузыря фильтров» о воздействии на пользователей фейковых новостей и эхо-камер , [12] стимулируя новый интерес к этому термину, [13] многие обеспокоены тем, что это явление может нанести ущерб демократии и благополучию , усугубляя последствия дезинформации . [14] [15] [13] [16] [17] [18]

Концепция

Термин «пузырь фильтров» был придуман интернет-активистом Эли Паризером примерно в 2010 году.

Паризер определил свою концепцию пузыря фильтров более формально как «эту личную экосистему информации , которая обслуживается этими алгоритмами». [8] Прошлые просмотры и история поиска интернет-пользователя накапливаются с течением времени, когда он проявляет интерес к темам, «щелкая ссылки, просматривая друзей, помещая фильмы в [свою] очередь, читая новости» и так далее. [19] Затем интернет-компания использует эту информацию для таргетирования рекламы на пользователя или для того, чтобы определенные типы информации появлялись на страницах результатов поиска более заметно . [19]

Этот процесс не является случайным, поскольку, по словам Парайзера, он состоит из трех этапов: «Сначала вы выясняете, кто эти люди и что им нравится. Затем вы предоставляете им контент и услуги, которые им лучше всего подходят. Наконец, вы настраиваетесь на правильную настройку. Ваша личность формирует ваши медиа». [20] Паризер также сообщает:

Согласно исследованию Wall Street Journal , пятьдесят крупнейших интернет-сайтов, от CNN до Yahoo и MSN, устанавливают в среднем 64 файла cookie с данными и персональные маяки слежения. Найдите на Dictionary.com такое слово, как «депрессия», и сайт установит на ваш компьютер до 223 файлов cookie и маяков для отслеживания, чтобы другие веб-сайты могли нацеливать вас на антидепрессанты. Поделитесь статьей о кулинарии на канале ABC News, и вас может преследовать в Интернете реклама кастрюль с тефлоновым покрытием. Откройте — хотя бы на мгновение — страницу со списком признаков того, что ваш супруг, возможно, изменяет, и приготовьтесь к тому, что вас преследует реклама ДНК-тестов на отцовство. [21]

Доступ к данным о кликах по ссылкам, отображаемым посредством измерения трафика сайта, определяет, что пузырьки фильтров могут быть коллективными или индивидуальными. [22]

По состоянию на 2011 год один инженер рассказал Паризеру, что Google просматривает 57 различных фрагментов данных, чтобы лично адаптировать результаты поиска пользователя, включая данные, не относящиеся к файлам cookie, такие как тип используемого компьютера и физическое местоположение пользователя. [23]

Идея Паризера о пузыре фильтров получила популяризацию после выступления на TED в мае 2011 года, в котором он привел примеры того, как работают пузыри фильтров и где их можно увидеть. В ходе теста, призванного продемонстрировать эффект пузыря фильтра, Паризер попросил нескольких друзей выполнить поиск по слову «Египет» в Google и отправить ему результаты. При сравнении первых страниц результатов двух друзей, несмотря на совпадение между ними по таким темам, как новости и путешествия, результаты одного друга заметно включали ссылки на информацию о продолжавшейся тогда египетской революции 2011 года , в то время как первая страница результатов другого друга таких ссылок не было. [24]

В книге «Пузырь фильтров » Паризер предупреждает, что потенциальным недостатком фильтрованного поиска является то, что он «закрывает нас от новых идей, предметов и важной информации» [25] и «создает впечатление, что наш узкий личный интерес — это все, что существует». ." [9] По его мнению, пузыри фильтров потенциально вредны как для отдельных людей, так и для общества. Он раскритиковал Google и Facebook за то, что они предлагают пользователям «слишком много конфет и недостаточно моркови». [26] Он предупредил, что «невидимое алгоритмическое редактирование сети» может ограничить доступ к новой информации и сузить наш кругозор. [26] По мнению Паризера, пагубные последствия пузырей фильтров включают в себя вред обществу в целом в том смысле, что они могут «подорвать гражданский дискурс» и сделать людей более уязвимыми для «пропаганды и манипуляций». [9] Он писал:

Мир, построенный из привычного, — это мир, в котором нечему учиться… (поскольку существует) невидимая автопропаганда, внушающая нам наши собственные идеи.

-  Эли Паризер в The Economist , 2011 г. [27]

Многие люди даже не подозревают о существовании пузырей-фильтров. Это можно увидеть в статье в The Guardian, в которой упоминается тот факт, что «более 60% пользователей Facebook совершенно не подозревают о каком-либо курировании на Facebook, вместо этого полагая, что каждая отдельная история от их друзей и страниц, на которые они подписаны, появляется в их Новостная лента." [28] Краткое объяснение того, как Facebook решает, что происходит в ленте новостей пользователя, заключается в использовании алгоритма, который учитывает, «как вы взаимодействовали с подобными сообщениями в прошлом». [28]

Расширение концепции

Пузырь фильтров был описан как усугубляющий явление , называемое сплинтернетом или кибербалканизацией . разные взгляды. Эта проблема возникла еще на заре общедоступного Интернета, когда в 1996 году был придуман термин «кибербалканизация». [29] [30] [31] Для описания этого явления использовались и другие термины, в том числе « идеологические рамки » [ 9] и «образная сфера, окружающая вас, когда вы ищете в Интернете». [19]

Концепция пузыря фильтров была распространена и на другие области, чтобы описать общества, которые самосегрегируются в соответствии с политическими взглядами, а также экономическими, социальными и культурными ситуациями. [32] Этот бурный рост приводит к потере более широкого сообщества и создает ощущение, что, например, детям не место на общественных мероприятиях, если только эти мероприятия не были специально запланированы так, чтобы быть привлекательными для детей и непривлекательными для взрослых без детей. [32]

В прощальной речи Барака Обамы подобная концепция фильтрации пузырей была названа «угрозой [американской] демократии», то есть «уходом в наши собственные пузыри, ... особенно в наши ленты в социальных сетях, в окружении людей, похожих на нас и разделяем одни и те же политические взгляды и никогда не оспариваем наши предположения... И все чаще мы становимся настолько защищенными в своих пузырях, что начинаем принимать только ту информацию, правдивую она или нет, которая соответствует нашим мнениям, вместо того, чтобы основывать наши мнения на доказательствах, которые находится там». [33]

Сравнение с эхокамерами

И «эхо-камеры», и «пузыри фильтров» описывают ситуации, когда люди сталкиваются с узким диапазоном мнений и точек зрения, которые укрепляют их существующие убеждения и предубеждения, но между ними есть некоторые тонкие различия, особенно в практиках, связанных с социальными сетями. [34] [35]

Специально для средств массовой информации эхо-камера — это метафорическое описание ситуации, в которой убеждения усиливаются или подкрепляются посредством общения и повторения внутри закрытой системы. [36] [37] Основываясь на социологической концепции теории выборочного воздействия , этот термин представляет собой метафору, основанную на акустической эхо-камере, где звуки отражаются в полом корпусе. Что касается социальных сетей, такого рода ситуация подпитывается явными механизмами самостоятельной персонализации , которые описывают все процессы, в которых пользователи данной платформы могут активно соглашаться на потребление информации и отказываться от нее, например, возможность пользователя следить за другими пользователями. или выберите в группы. [38]

В эхо-камере люди могут искать информацию, которая подкрепляет их существующие взгляды, возможно, в качестве бессознательного проявления предвзятости подтверждения . Такое регулирование с обратной связью может усилить политическую и социальную поляризацию и экстремизм. Это может привести к агрегированию пользователей в гомофильные кластеры внутри социальных сетей, что способствует групповой поляризации. [39] «Эхо-камеры» укрепляют убеждения человека без фактической поддержки. Люди окружены теми, кто признает и следует одним и тем же точкам зрения, но у них также есть возможность вырваться за пределы эхо-камер. [40]

С другой стороны, «пузыри фильтров» представляют собой неявные механизмы предварительно выбранной персонализации , при которых медиапотребление пользователя создается с помощью персонализированных алгоритмов; контент, который видит пользователь, фильтруется с помощью алгоритма, управляемого искусственным интеллектом, который укрепляет его существующие убеждения и предпочтения, потенциально исключая противоположные или разные точки зрения. В этом случае пользователи играют более пассивную роль и воспринимаются как жертвы технологии, которая автоматически ограничивает их доступ к информации, которая бросает вызов их мировоззрению. [38] Однако некоторые исследователи утверждают, что, поскольку пользователи по-прежнему играют активную роль в выборочном курировании своих собственных новостных лент и источников информации посредством взаимодействия с поисковыми системами и сетями социальных сетей, они напрямую помогают в процессе фильтрации с помощью алгоритмов, управляемых ИИ. , тем самым эффективно взаимодействуя с пузырьками самосепарирующегося фильтра. [41]

Несмотря на различия, использование этих терминов идет рука об руку как в академических, так и в платформенных исследованиях. Часто бывает трудно провести различие между этими двумя концепциями в исследованиях социальных сетей из-за ограничений доступности алгоритмов фильтрации, которые, возможно, могли бы позволить исследователям сравнивать и противопоставлять действие двух концепций. [42] Проведение такого типа исследований будет продолжать становиться все труднее, поскольку многие социальные сети также начали ограничивать доступ к API, необходимый для академических исследований. [43]

Реакции и исследования

Реакция СМИ

Существуют противоречивые сведения о том, в какой степени происходит персонализированная фильтрация и приносит ли такая деятельность пользу или вред. Аналитик Джейкоб Вайсберг, писавший в июне 2011 года для Slate , провел небольшой ненаучный эксперимент для проверки теории Паризера, в котором участвовали пять коллег с разным идеологическим прошлым, проводившие серию поисков: « Джон Боэнер» , « Барни Фрэнк» , « План Райана », и « Обамакер » и отправил Вейсбергу скриншоты их результатов. Результаты различались лишь в незначительных отношениях от человека к человеку, и любые различия, по-видимому, не были связаны с идеологией, что привело Вайсберга к выводу, что пузырь фильтров не действует, и написать, что идея, которую большинство интернет-пользователей «подпитывают» у корыта Daily Me » была преувеличена. [9] Вайсберг попросил Google прокомментировать ситуацию, и представитель заявил, что алгоритмы были созданы для того, чтобы намеренно «ограничивать персонализацию и способствовать разнообразию». [9] Книжный рецензент Пол Бутен провел эксперимент, аналогичный эксперименту Вайсберга, среди людей с разной историей поиска и снова обнаружил, что разные поисковики получили почти идентичные результаты поиска. [6] Журналист Пер Гранквист, беседуя с программистами Google (не для протокола), обнаружил, что пользовательские данные раньше играли большую роль в определении результатов поиска, но Google посредством тестирования обнаружил, что поисковый запрос, безусловно, является лучшим фактором, определяющим результаты поиска. для отображения. [44]

Есть сообщения о том, что Google и другие сайты хранят обширные «досье» информации о своих пользователях, что может позволить им дополнительно персонализировать индивидуальный опыт в Интернете, если они захотят это сделать. Например, существует технология, позволяющая Google отслеживать историю пользователей, даже если у них нет личной учетной записи Google или они не вошли в нее. [6] В одном отчете говорилось, что Google собрала информацию «за 10 лет», полученную из различных источников, таких как Gmail , Google Maps и других сервисов, помимо своей поисковой системы, [10] [ проверка не удалась ] , хотя было опубликовано противоположное сообщение. что попытка персонализировать Интернет для каждого пользователя была технически сложной задачей для интернет-компании, несмотря на огромные объемы доступных данных. [ нужна цитация ] Аналитик Дуг Гросс из CNN предположил, что поиск с фильтром кажется более полезным для потребителей , чем для граждан , и поможет потребителю, ищущему «пиццу», найти местные варианты доставки на основе персонализированного поиска и соответствующим образом отфильтровать отдаленные магазины пиццы. . [10] [ не удалось проверить ] Такие организации, как Washington Post , The New York Times и другие, экспериментировали с созданием новых персонализированных информационных сервисов с целью адаптации результатов поиска к тем, которые могут понравиться пользователям или с которыми они согласятся. [9]

Академические исследования и реакции

Научное исследование Wharton , в котором анализировались персонализированные рекомендации, также показало, что эти фильтры могут создавать общность, а не фрагментацию вкусов онлайн-музыки. [45] Сообщается, что потребители используют фильтры, чтобы расширить свой вкус, а не ограничить его. [45] Профессор права из Гарварда Джонатан Зиттрейн оспорил степень, в которой фильтры персонализации искажают результаты поиска Google, заявив, что «эффект персонализации поиска был незначительным». [9] Кроме того, Google предоставляет пользователям возможность отключить функции персонализации, если они захотят [46] , удалив запись Google об их истории поиска и настроив Google не запоминать их ключевые слова для поиска и посещенные ссылки в будущем. [6]

В исследовании Internet Policy Review было рассмотрено отсутствие четкого и проверяемого определения «пузырей фильтров» в разных дисциплинах; это часто приводит к тому, что исследователи определяют и изучают пузырьки фильтров по-разному. [47] Впоследствии исследование объяснило отсутствие эмпирических данных о существовании пузырей фильтров в разных дисциплинах [12] и предположило, что приписываемые им эффекты могут быть связаны больше с ранее существовавшими идеологическими предубеждениями, чем с алгоритмами. Подобные взгляды можно найти и в других академических проектах, которые также затрагивают проблемы определений «пузырей фильтров» и взаимосвязей между идеологическими и технологическими факторами, связанными с ними. [48] ​​Критический обзор пузырей фильтров показал, что «тезис о пузыре фильтров часто постулирует особый тип политического человека, мнение которого является сильным, но в то же время очень податливым» и что это «парадокс, что люди имеют активные агенты, когда они выбирают контент, но становятся пассивными получателями, когда они подвергаются воздействию рекомендуемого им контента, созданного алгоритмами». [49]

В исследовании, проведенном исследователями из Оксфорда, Стэнфорда и Microsoft, были изучены истории просмотров 1,2 миллиона пользователей панели инструментов Bing для Internet Explorer в США в период с марта по май 2013 года. Они выбрали 50 000 из тех пользователей, которые были активными потребителями новостей, а затем классифицировали, были ли они активными потребителями новостей. новостные агентства, которые они посещали, были левыми или правыми, в зависимости от того, проголосовало ли большинство избирателей в округах, связанных с IP-адресами пользователей, за Обаму или Ромни на президентских выборах 2012 года. Затем они определили, были ли новости прочитаны после прямого доступа к сайту издателя, через службу агрегирования новостей Google, веб-поиск или социальные сети. Исследователи обнаружили, что, хотя веб-поиск и социальные сети действительно способствуют идеологической сегрегации, подавляющее большинство потребления онлайн-новостей состоит из пользователей, непосредственно посещающих основные новостные сайты левого или правого толка и, следовательно, подвергающихся почти исключительно взглядам с одной стороны. политический спектр. Ограничения исследования включали такие проблемы отбора, как возраст пользователей Internet Explorer выше, чем у общего населения Интернета; Использование панели инструментов Bing и добровольный (или неосознанный) обмен выбранной историей просмотров для пользователей, которые меньше заботятся о конфиденциальности; предположение, что все статьи в публикациях левого толка являются левыми, и то же самое относится и к правым; и вероятность того, что пользователи, которые не являются активными потребителями новостей, могут получать большую часть своих новостей через социальные сети и, таким образом, испытывать более сильные последствия социальной или алгоритмической предвзятости , чем те пользователи, которые, по сути, самостоятельно выбирают свою предвзятость посредством выбора новостных публикаций (при условии, что они знают о предвзятости публикаций). [50]

Исследование, проведенное исследователями Принстонского университета и Нью-Йоркского университета, было направлено на изучение влияния пузыря фильтров и алгоритмической фильтрации на поляризацию социальных сетей. Они использовали математическую модель под названием « стохастическая блочная модель », чтобы проверить свою гипотезу в средах Reddit и Twitter. Исследователи измерили изменения в поляризации в регуляризованных и нерегуляризованных социальных сетях, в частности, измеряя процентные изменения в поляризации и разногласиях на Reddit и Twitter. Они обнаружили, что поляризация значительно увеличилась на 400% в нерегуляризованных сетях, в то время как поляризация увеличилась на 4% в регуляризованных сетях, а разногласия - на 5%. [51]

Платформенные исследования

Хотя алгоритмы действительно ограничивают политическое разнообразие, некоторые «пузыри фильтров» являются результатом выбора пользователей. [52] Исследование, проведенное учеными из Facebook, показало, что на каждые четыре друга в Facebook, разделяющих одну и ту же идеологию, у пользователей есть один друг с противоположными взглядами. [53] [54] Независимо от того, какой алгоритм Facebook использует для своей ленты новостей , люди с большей вероятностью будут дружить или подписываться на людей, которые разделяют схожие убеждения. [53] Суть алгоритма заключается в том, что он ранжирует истории на основе истории пользователя, что приводит к сокращению «политически сквозного контента на 5 процентов для консерваторов и на 8 процентов для либералов». [53] Однако даже когда людям предоставляется возможность нажать на ссылку, предлагающую противоположные мнения, они по-прежнему по умолчанию выбирают наиболее просматриваемые источники. [53] «Выбор пользователя снижает вероятность нажатия на сквозную ссылку на 17 процентов для консерваторов и на 6 процентов для либералов». [53] Сквозная ссылка — это ссылка, которая представляет точку зрения, отличную от предполагаемой точки зрения пользователя или того, что веб-сайт привязал к убеждениям пользователя. [55] Недавнее исследование Леви Бокселла, Мэтью Генцкоу и Джесси М. Шапиро показывает, что онлайн-СМИ не являются движущей силой политической поляризации. [56] В документе утверждается, что поляризация вызвана демографическими группами, которые проводят меньше всего времени в Интернете. Наибольший идеологический разрыв наблюдается среди американцев старше 75 лет, при этом только 20% сообщили об использовании социальных сетей по состоянию на 2012 год. Напротив, 80% американцев в возрасте 18–39 лет сообщили об использовании социальных сетей по состоянию на 2012 год. Данные показывают, что более молодая демографическая группа В 2012 году поляризация не стала более поляризованной, чем в 1996 году, когда онлайн-СМИ почти не существовало. Исследование подчеркивает различия между возрастными группами и то, как потребление новостей остается поляризованным, поскольку люди ищут информацию, которая апеллирует к их предубеждениям. Пожилые американцы обычно остаются неизменными в своих политических взглядах, поскольку традиционные средства массовой информации продолжают оставаться основным источником новостей, в то время как онлайн-СМИ являются ведущим источником для более молодой аудитории. Хотя алгоритмы и «пузыри фильтров» ослабляют разнообразие контента, это исследование показывает, что тенденции политической поляризации в первую очередь обусловлены уже существующими взглядами и неспособностью признать внешние источники. В исследовании 2020 года, проведенном в Германии, использовалась модель психологии «Большой пятерки» для проверки влияния индивидуальной личности, демографии и идеологии на потребление новостей пользователями. [57]Основываясь на идее о том, что количество источников новостей, которые потребляют пользователи, влияет на их вероятность попасть в пузырь фильтров (при этом более высокое разнообразие СМИ снижает шансы), их результаты показывают, что определенные демографические группы (старший возраст и мужчины) наряду с определенной личностью Черты (высокая открытость) положительно коррелируют с количеством источников новостей, потребляемых людьми. Исследование также выявило негативную идеологическую связь между разнообразием СМИ и степенью приверженности пользователей правому авторитаризму. Помимо предложения различных индивидуальных пользовательских факторов, которые могут повлиять на роль пользовательского выбора, это исследование также поднимает вопросы и устанавливает связи между вероятностью попадания пользователей в фильтры и поведением пользователей при голосовании. [57]

Исследование Facebook показало, что «неубедительно» сыграл ли алгоритм такую ​​большую роль в фильтрации новостных лент , как предполагали люди. [58] Исследование также показало, что «индивидуальный выбор», или предвзятость подтверждения, также влияет на то, что отфильтровывается из новостных лент. [58] Некоторые социологи раскритиковали этот вывод, поскольку смысл протеста против пузыря фильтров заключается в том, что алгоритмы и индивидуальный выбор работают вместе, чтобы отфильтровать новостные ленты. [59] Они также раскритиковали небольшой размер выборки Facebook, который составляет около «9% реальных пользователей Facebook», и тот факт, что результаты исследования «невоспроизводимы» из-за того, что исследование проводилось «учеными Facebook», которые имел доступ к данным, которые Facebook не предоставляет сторонним исследователям. [60]

Хотя исследование показало, что только около 15–20% друзей среднего пользователя в Facebook подписываются на противоположную сторону политического спектра, Джулия Каман из Vox предположила, что это может иметь потенциально положительные последствия для разнообразия точек зрения. Эти «друзья» часто являются знакомыми, с которыми мы вряд ли стали бы делиться нашей политикой без Интернета. Facebook может создать уникальную среду, в которой пользователь видит и, возможно, взаимодействует с контентом, опубликованным или повторно опубликованным этими друзьями «второго уровня». Исследование показало, что «24 процента новостей, которые видели либералы, были консервативными, а 38 процентов новостей, которые видели консерваторы, были либеральными». [61] «У либералов, как правило, меньше друзей, которые делятся информацией с другой стороны, по сравнению с их консервативными коллегами». [62] Это взаимодействие позволяет предоставлять разнообразную информацию и источники, которые могут модерировать мнения пользователей.

Аналогичным образом, исследование пузырей фильтров Твиттера, проведенное Нью -Йоркским университетом, пришло к выводу, что «отдельные люди теперь имеют доступ к более широкому спектру точек зрения на новостные события, и большая часть этой информации поступает не по традиционным каналам, а либо напрямую от политических деятелей». или через своих друзей и родственников. Кроме того, интерактивный характер социальных сетей создает возможности для людей обсуждать политические события со своими сверстниками, в том числе с теми, с кем у них слабые социальные связи». [63] Согласно этим исследованиям, социальные сети могут диверсифицировать информацию и мнения, с которыми сталкиваются пользователи, хотя существует много спекуляций вокруг «пузырей фильтров» и их способности создавать более глубокую политическую поляризацию .

Одним из драйверов и возможным решением проблемы является роль эмоций в онлайн-контенте. Исследование 2018 года показывает, что различные эмоции сообщений могут привести к поляризации или конвергенции: радость преобладает при эмоциональной поляризации, тогда как печаль и страх играют важную роль в эмоциональной конвергенции. [64] Поскольку эмоциональное содержание сообщений относительно легко обнаружить, эти результаты могут помочь разработать более социально ответственные алгоритмы, начав фокусироваться на эмоциональном содержании алгоритмических рекомендаций.

Визуализация процесса и роста двух ботов для социальных сетей, использованных в исследовании Weibo 2019 года . Согласно исследованию, диаграммы представляют два аспекта структуры «пузырей фильтров»: большие концентрации пользователей вокруг отдельных тем и однонаправленную звездообразную структуру, которая влияет на ключевые информационные потоки.

Социальные боты использовались различными исследователями для проверки поляризации и связанных с ней эффектов, связанных с пузырьками фильтров и эхо-камерами. [65] [66] В исследовании 2018 года социальные боты в Твиттере использовались для проверки намеренного воздействия пользователей на партийные точки зрения. [65] В исследовании утверждалось, что оно продемонстрировало партийные различия между подверженностью различным взглядам, хотя в нем предупреждалось, что результаты должны быть ограничены зарегистрированными партиями американскими пользователями Твиттера. Один из основных выводов заключался в том, что после знакомства с различными взглядами (предоставляемыми ботами) саморегистрированные республиканцы стали более консервативными, тогда как саморегистрированные либералы продемонстрировали меньшие идеологические изменения, если вообще не проявили их вообще. Другое исследование, проведенное в Китайской Народной Республике, использовало социальных ботов на Weibo — крупнейшей социальной сети в Китае — для изучения структуры «пузырей фильтров» с точки зрения их влияния на поляризацию. [66] В исследовании проводится различие между двумя концепциями поляризации. В одном случае люди со схожими взглядами формируют группы, разделяют схожие мнения и блокируют себя от различных точек зрения (поляризация мнений), а в другом случае люди не имеют доступа к разнообразному контенту и источникам информации (поляризация информации). Используя социальных ботов вместо людей-добровольцев и уделяя больше внимания поляризации информации, а не основанному на мнениях, исследователи пришли к выводу, что существует два основных элемента пузыря фильтров: большая концентрация пользователей вокруг одной темы и однонаправленная звездная система. -подобная структура, которая влияет на ключевые информационные потоки.

В июне 2018 года платформа DuckDuckGo провела исследование платформы веб-браузера Google. Для этого исследования 87 взрослых в разных местах континентальной части США одновременно ввели в Google три ключевых слова: иммиграция, контроль над огнестрельным оружием и вакцинация. Даже в режиме приватного просмотра большинство людей видели уникальные для них результаты. Google включил определенные ссылки для некоторых участников, которые не были включены для других участников, а информационные окна «Новости» и «Видео» показали значительные различия. Google публично оспорил эти результаты, заявив, что персонализация страницы результатов поисковой системы (SERP) по большей части является мифом. Представитель Google по поиску Дэнни Салливан заявил: «С годами сложился миф о том, что поиск Google настолько персонализируется, что по одному и тому же запросу разные люди могут получить существенно отличающиеся друг от друга результаты. Это не так. Результаты могут отличаться, но обычно по неперсонализированным причинам». [67]

Когда пузырьки-фильтры находятся на месте, они могут создавать особые моменты, которые ученые называют моментами «Вау». Момент «Ого» — это когда на вашем компьютере появляется статья, реклама, публикация и т. д., связанная с текущим действием или текущим использованием объекта. Ученые обнаружили этот термин после того, как молодая женщина выполняла свой распорядок дня, включающий употребление кофе, когда она открыла компьютер и заметила рекламу той же марки кофе, которую она пила. «Сегодня утром, пока я пил кофе, сел и открыл Facebook, и там было две рекламы Nespresso . Что-то вроде «ого» момента, когда продукт, который вы пьете, всплывает на экране перед вами». [68] «Ого» моменты случаются, когда людей «находят». Это означает, что рекламные алгоритмы нацелены на конкретных пользователей на основе их «поведения при кликах», чтобы увеличить их доход от продаж.

Несколько проектировщиков разработали инструменты для противодействия эффекту пузырьков фильтров (см. § Меры противодействия). [69] Швейцарская радиостанция SRF признала слово filterblase (немецкий перевод слова «пузырь фильтра») словом 2016 года. [70]

Контрмеры

Частными лицами

В книге «Пузырь фильтров: что Интернет скрывает от вас» [ 71] интернет-активист Эли Паризер подчеркивает, как растущее появление пузырей фильтров еще больше подчеркивает ценность связующего социального капитала , как это определено Робертом Путманом. Паризер утверждает, что пузыри фильтров усиливают чувство социальной однородности, что ослабляет связи между людьми с потенциально расходящимися интересами и точками зрения. [72] В этом смысле высокий промежуточный капитал может способствовать социальной интеграции, увеличивая наше воздействие на пространство, выходящее за рамки личных интересов. Наращивание связующего капитала, например, путем общения с большим количеством людей в неформальной обстановке, может быть эффективным способом уменьшить явление «пузыря фильтров».

Пользователи могут предпринять множество действий, чтобы прорваться сквозь пузырьки фильтров, например, приложив сознательные усилия, чтобы оценить, какой информации они подвергаются, и критически подумав о том, взаимодействуют ли они с широким спектром контента. [73] Пользователи могут сознательно избегать непроверяемых или слабых источников новостей. Крис Глушко, вице-президент по маркетингу IAB, выступает за использование сайтов проверки фактов для выявления фейковых новостей. [74] Технологии также могут сыграть ценную роль в борьбе с пузырьками на фильтрах. [75]

Некоторые плагины браузера призваны помочь людям выйти за рамки фильтров и рассказать им о своей личной точке зрения; таким образом, эти СМИ показывают контент, который противоречит их убеждениям и мнениям. Помимо плагинов, существуют приложения, созданные с целью побудить пользователей открыть свои эхо-камеры. Новостные приложения, такие как Read Across the Aisle, подталкивают пользователей читать разные точки зрения, если их стиль чтения смещен в сторону одной стороны/идеологии. [76] Хотя приложения и плагины — это инструменты, которые люди могут использовать, Эли Паризер заявил, что «конечно, здесь есть определенная индивидуальная ответственность за поиск новых источников и людей, которые не похожи на вас». [52]

Поскольку веб-реклама может усилить эффект пузырьков фильтров, предоставляя пользователям больше одного и того же контента, пользователи могут заблокировать большую часть рекламы, удалив свою историю поиска, отключив таргетированную рекламу и загрузив расширения для браузера. Некоторые используют анонимные или неперсонализированные поисковые системы, такие как YaCy , DuckDuckGo , Qwant , Startpage.com , Disconnect и Searx , чтобы помешать компаниям собирать свои данные веб-поиска. Швейцарская ежедневная газета Neue Zürcher Zeitung проводит бета-тестирование персонализированного приложения для создания новостей, которое использует машинное обучение, чтобы угадать, какой контент интересует пользователя, «всегда включая элемент неожиданности»; идея состоит в том, чтобы смешать истории, за которыми пользователь вряд ли следил в прошлом. [77]

Европейский Союз принимает меры, чтобы уменьшить эффект «пузыря фильтров». Европейский парламент спонсирует исследования того, как пузыри фильтров влияют на возможность людей получать доступ к разнообразным новостям. [78] Кроме того, была введена программа, направленная на информирование граждан о социальных сетях. [79] В США комиссия CSCW предлагает использовать приложения-агрегаторы новостей для расширения потребления новостей потребителями СМИ. Приложения-агрегаторы новостей сканируют все текущие новостные статьи и направляют вас к различным точкам зрения на определенную тему. Пользователи также могут использовать многофункциональный балансировщик новостей, который визуально показывает потребителю медиа, наклоняется ли он влево или вправо, когда дело доходит до чтения новостей, указывая правый наклон с помощью более крупной красной полосы или левый наклон с помощью более крупной синей полосы. Исследование, оценивающее этот балансировщик новостей, обнаружило «небольшое, но заметное изменение в поведении при чтении в сторону более сбалансированного воздействия среди пользователей, видящих обратную связь, по сравнению с контрольной группой». [80]

По материалам медиа-компаний

В свете недавних опасений по поводу фильтрации информации в социальных сетях Facebook признал наличие пузырей фильтров и предпринял шаги по их устранению. [81] В январе 2017 года Facebook удалил персонализацию из своего списка «Трендовые темы» в ответ на проблемы, связанные с тем, что некоторые пользователи не видят там широко обсуждаемые события. [82] Стратегия Facebook состоит в том, чтобы отменить функцию «Похожие статьи», реализованную в 2013 году, которая будет публиковать соответствующие новости после того, как пользователь прочитает общую статью. Теперь обновленная стратегия перевернет этот процесс и будет публиковать статьи с разных точек зрения на одну и ту же тему. Facebook также пытается пройти процедуру проверки, при которой будут показываться только статьи из авторитетных источников. Вместе с основателем Craigslist и некоторыми другими Facebook инвестировал 14 миллионов долларов в усилия «повысить доверие к журналистике во всем мире и лучше информировать общественность». [81] Идея состоит в том, что даже если люди читают только посты, которыми делятся их друзья, по крайней мере, эти посты будут вызывать доверие.

Аналогичным образом, Google по состоянию на 30 января 2018 года также признал существование проблем с «пузырем фильтров» на своей платформе. Поскольку текущие поисковые запросы Google извлекают результаты, ранжированные алгоритмически на основе «авторитетности» и «релевантности», которые показывают или скрывают определенные результаты поиска, Google пытается бороться с этим. Обучая свою поисковую систему распознавать цель поискового запроса, а не буквальный синтаксис вопроса, Google пытается ограничить размер пузырьков фильтров. На данный момент начальный этап этого обучения будет введен во втором квартале 2018 года. Вопросы, связанные с предвзятостью и/или противоречивыми мнениями, не будут рассматриваться до более позднего времени, что порождает более серьезную проблему, которая все еще существует: является ли поисковая система действует либо как арбитр истины, либо как знающий наставник, с помощью которого можно принимать решения. [83]

В апреле 2017 года появились новости о том, что Facebook, Mozilla и Craigslist внесли большую часть пожертвования в размере 14 миллионов долларов на «Инициативу целостности новостей» CUNY , направленную на устранение фейковых новостей и создание более честных новостных СМИ. [84]

Позже, в августе, Mozilla, создатели веб-браузера Firefox , объявили о создании Mozilla Information Trust Initiative (MITI). +MITI будет служить коллективным усилием по разработке продуктов, исследований и общественных решений для борьбы с эффектами пузырей фильтров и распространением фейковых новостей. Команда открытых инноваций Mozilla возглавляет эту инициативу, стремясь бороться с дезинформацией, уделяя особое внимание продукту с точки зрения грамотности, исследований и творческих вмешательств. [85]

Этические последствия

Ожидается , что по мере роста популярности облачных сервисов персонализированные алгоритмы , используемые для создания пузырьков фильтров, станут более распространенными. [86] Ученые начали рассматривать влияние пузырей фильтров на пользователей социальных сетей с этической точки зрения , особенно в отношении областей личной свободы , безопасности и предвзятости информации . [87] Пузыри фильтров в популярных социальных сетях и на сайтах персонализированного поиска могут определять конкретный контент, который видят пользователи, часто без их прямого согласия или ведома, [86] благодаря алгоритмам, используемым для курирования этого контента. Самосозданный контент, проявляющийся в моделях поведения, может привести к частичной информационной слепоте. [88] Критики использования пузырей фильтров предполагают, что люди могут потерять автономию в отношении своего опыта в социальных сетях и создать свою идентичность в обществе в результате повсеместного распространения пузырей фильтров. [86]

Технологи, инженеры социальных сетей и компьютерные специалисты также исследовали распространенность «пузырей фильтров». [89] Марк Цукерберг , основатель Facebook, и Эли Паризер, автор книги «Пузырь фильтров» , выразили обеспокоенность по поводу рисков конфиденциальности и поляризации информации. [90] [91] Информация пользователей персонализированных поисковых систем и социальных сетей не является конфиденциальной, хотя некоторые люди считают, что так и должно быть. [90] Обеспокоенность по поводу конфиденциальности привела к спорам о том, морально ли со стороны информационных технологов отслеживать онлайн-активность пользователей и манипулировать будущим доступом к соответствующей информации. [91]

Некоторые ученые выразили обеспокоенность по поводу влияния «пузырей фильтров» на индивидуальное и социальное благополучие, т.е. распространение медицинской информации среди широкой публики и потенциальное влияние поисковых систем Интернета на изменение поведения, связанного со здоровьем. [16] [17] [18] [92] В междисциплинарной книге 2019 года сообщалось об исследованиях и взглядах на роль пузырей фильтров в дезинформации о здоровье. [18] Опираясь на различные области, такие как журналистика, право, медицина и психология здоровья, книга рассматривает различные спорные представления о здоровье (например, альтернативная медицина и лженаука), а также потенциальные средства правовой защиты от негативного воздействия пузырей фильтров и эхо-камер на различные темы в дискурсе о здоровье. Исследование 2016 года о потенциальном влиянии пузырей фильтров на результаты поисковых систем, связанные с самоубийствами, показало, что алгоритмы играют важную роль в том, отображаются ли пользователям линии помощи и аналогичные результаты поиска, и обсуждалось влияние их исследований на политику здравоохранения. [17] В другом исследовании 2016 года, опубликованном в хорватском медицинском журнале, были предложены некоторые стратегии по смягчению потенциально вредного воздействия пузырьков фильтров на информацию о здоровье, такие как: информирование общественности больше о пузырьках фильтров и связанных с ними эффектах, пользователи, решившие попробовать альтернативу [Google] ] поисковые системы и дополнительные объяснения процессов, которые поисковые системы используют для определения отображаемых результатов. [16]

Поскольку на контент, который видят отдельные пользователи социальных сетей, влияют алгоритмы, которые создают пузырьки фильтров, пользователи платформ социальных сетей более подвержены предвзятости подтверждения [ 93] и могут подвергаться предвзятой, вводящей в заблуждение информации. [94] Социальная сортировка и другие непреднамеренные дискриминационные практики также ожидаются в результате персонализированной фильтрации. [95]

В свете президентских выборов в США в 2016 году ученые также выразили обеспокоенность по поводу влияния «пузырей фильтров» на демократию и демократические процессы, а также роста «идеологических СМИ». [11] Эти ученые опасаются, что пользователи не смогут «[думать] за пределами [своих] узких личных интересов», поскольку пузыри фильтров создают персонализированные социальные каналы, изолируя их от различных точек зрения и окружающих их сообществ. [96] По этой причине все чаще обсуждается возможность создания социальных сетей с большей случайностью, то есть активно рекомендовать контент, который находится за пределами пузыря фильтров, включая сложную политическую информацию, и, в конечном итоге, предоставлять пользователям расширенные фильтры и инструменты. . [97] [98] [99] Связанная с этим проблема заключается в том, как пузыри фильтров способствуют распространению « фейковых новостей » и как это может повлиять на политические взгляды, в том числе на то, как голосуют пользователи. [11] [100] [101]

Разоблачения в марте 2018 года сбора и использования Cambridge Analytica пользовательских данных по меньшей мере 87 миллионов профилей Facebook во время президентских выборов 2016 года подчеркивают этические последствия пузырей фильтров. [102] Соучредитель и осведомитель Cambridge Analytica Кристофер Уайли подробно рассказал, как у фирмы была возможность разрабатывать «психографические» профили этих пользователей и использовать эту информацию для формирования их избирательного поведения. [103] Доступ к пользовательским данным третьих лиц, таких как Cambridge Analytica, может раздражать и усиливать существующие «пузыри фильтров», созданные пользователями, искусственно усиливая существующие предубеждения и еще больше разделяя общество.

Опасности

Пузыри фильтров возникли из-за всплеска персонализации СМИ, что может заманить пользователей в ловушку. Использование ИИ для персонализации предложений может привести к тому, что пользователи будут просматривать только тот контент, который подкрепляет их собственные точки зрения, не бросая им вызов. Веб-сайты социальных сетей, такие как Facebook, также могут представлять контент таким образом, что пользователям сложно определить источник контента, что заставляет их самостоятельно решать, является ли источник надежным или поддельным. [104] Это может привести к тому, что люди привыкнут слышать то, что они хотят услышать, что может заставить их реагировать более радикально, когда они видят противоположную точку зрения. Пузырь фильтров может привести к тому, что человек будет воспринимать любые противоположные точки зрения как неправильные и, таким образом, может позволить средствам массовой информации навязывать свои взгляды потребителям. [105] [104] [106]

Исследования объясняют, что пузырь фильтров усиливает то, о чем человек уже думает. [107] Вот почему чрезвычайно важно использовать ресурсы, предлагающие различные точки зрения. [107]

Смотрите также

Примечания

  1. ^ Термин «кибербалканизация» (иногда с дефисом) представляет собой гибрид слов « кибер» , относящийся к Интернету, и «балканизации» , относящийся к тому региону Европы, который исторически был разделен по языкам, религиям и культурам; этот термин был придуман в статье исследователей Массачусетского технологического института Ван Олстайна и Бриньольфссона.

Рекомендации

  1. ^ Технопедия, Определение - Что означает фильтр-пузырь? Архивировано 10 октября 2017 г. на Wayback Machine , получено 10 октября 2017 г.: «...Пузырь фильтров — это интеллектуальная изоляция, которая может возникнуть, когда веб-сайты используют алгоритмы, выборочно принимающие информацию, которую пользователь хотел бы видеть. , а затем предоставить информацию пользователю в соответствии с этим предположением... Таким образом, пузырь фильтров может привести к тому, что пользователи будут получать значительно меньше контактов с противоречивыми точками зрения, в результате чего пользователь станет интеллектуально изолированным..."
  2. ^ Боздаг, Энгин (сентябрь 2013 г.). «Предвзятость в алгоритмической фильтрации и персонализации». Этика и информационные технологии . 15 (3): 209–227. doi : 10.1007/s10676-013-9321-6. S2CID  14970635.
  3. ^ Huffington Post, The Huffington Post «Пузыри фильтров сужают наш разум?» Архивировано 3 ноября 2016 г. в Wayback Machine.
  4. Шифровать, Поиск (26 февраля 2019 г.). «Что такое пузырьки фильтров и как их избежать». Поиск по зашифрованному блогу . Архивировано из оригинала 25 февраля 2019 года . Проверено 19 марта 2019 г.
  5. ^ Кухни, Брент; Джонсон, Стив Л.; Грей, Питер (1 декабря 2020 г.). «Понимание эхо-камер и пузырей фильтров: влияние социальных сетей на диверсификацию и партийные сдвиги в потреблении новостей». МИС Ежеквартально . 44 (4): 1619–1649. дои : 10.25300/MISQ/2020/16371. S2CID  229294134.
  6. ^ abcde Бутин, Пол (20 мая 2011 г.). «Ваши результаты могут отличаться: превратится ли информационная супермагистраль в тупик из-за автоматических фильтров?». Журнал "Уолл Стрит . Архивировано из оригинала 5 апреля 2015 года . Проверено 15 августа 2011 г. Отслеживая отдельные веб-браузеры с помощью файлов cookie, Google смог персонализировать результаты даже для пользователей, которые не создают личную учетную запись Google или не вошли в нее. ...
  7. ^ Чжан, Юань Цао; Сеагдха, Диармуид О; Керсия, Даниэле; Джамбор, Тамас (2012). «Австралист: Привнесение случайности в музыкальные рекомендации». Материалы пятой международной конференции ACM по веб-поиску и интеллектуальному анализу данных . стр. 13–22. дои : 10.1145/2124295.2124300. ISBN 9781450307475. S2CID  2956587.
  8. ↑ abc Паррамор, Линн (10 октября 2010 г.). «Пузырь фильтров». Атлантический океан . Архивировано из оригинала 22 августа 2017 года . Проверено 20 апреля 2011 г. С 4 декабря 2009 г. Google стал персонализированным для всех. Итак, когда этой весной у меня было два друга, которые загуглили «BP», один из них получил набор ссылок, посвященных инвестиционным возможностям BP. Другой получил информацию о разливе нефти....
  9. ↑ abcdefgh Вайсберг, Джейкоб (10 июня 2011 г.). «Проблема с пузырем: персонализация в Интернете превращает нас в солипсических идиотов?». Сланец . Архивировано из оригинала 12 июня 2011 года . Проверено 15 августа 2011 г.
  10. ↑ abc Gross, Дуг (19 мая 2011 г.). «Что от вас скрывает Интернет». CNN . Архивировано из оригинала 9 апреля 2016 года . Проверено 15 августа 2011 г. Когда произошел разлив нефти, у меня были друзья в Google BP. Это две женщины, которые во многом были очень похожи. Получено множество результатов об экологических последствиях произошедшего и разлива. Другой только что получил инвестиционную информацию и вообще ничего о разливе.
  11. ^ abc Баер, Дрейк. «Пузырь фильтров объясняет, почему Трамп победил, а вы этого не предвидели». Наука о нас . Архивировано из оригинала 19 апреля 2017 года . Проверено 19 апреля 2017 г.
  12. ^ аб ДиФранцо, Доминик; Глория-Гарсия, Кристина (5 апреля 2017 г.). «Фильтрация пузырей и фейковых новостей». Рентгенографический анализ . 23 (3): 32–35. дои : 10.1145/3055153. S2CID  7069187.
  13. ↑ аб Джаспер Джексон (8 января 2017 г.). «Эли Паризер: активист, чьи предупреждения о пузыре фильтров предвещали Трампа и Брексит: руководитель Upworthy предупредил об опасностях эхо-камер Интернета за пять лет до выборов 2016 года» . Хранитель . Архивировано из оригинала 7 марта 2017 года . Проверено 3 марта 2017 г. ... «Если вы видите сообщения только от таких же людей, как вы, вы будете удивлены, когда кто-то, очень непохожий на вас, выиграет президентство», - сказал Паризер The Guardian....
  14. Мостафа М. Эль-Бермави (18 ноября 2016 г.). «Ваш пузырь фильтров разрушает демократию». Проводной . Архивировано из оригинала 9 марта 2017 года . Проверено 3 марта 2017 г. ...Глобальная деревня, которая когда-то была Интернетом... цифровые острова изоляции, которые с каждым днем ​​все больше отдаляются друг от друга... ваш онлайн-опыт становится все более персонализированным...
  15. Дрейк Баер (9 ноября 2016 г.). «Пузырь фильтров объясняет, почему Трамп победил, а вы этого не предвидели». Журнал Нью-Йорк . Архивировано из оригинала 26 февраля 2017 года . Проверено 3 марта 2017 г. ...Победа Трампа ошеломляет... потому что, как это понимают исследователи средств массовой информации, мы все больше живем в «пузыре фильтров»: информация, которую мы воспринимаем, настолько персонализирована, что мы слепы к другим точкам зрения....
  16. ^ abc Holone, Харальд (июнь 2016 г.). «Пузырь фильтров и его влияние на личную медицинскую информацию в Интернете». Хорватский медицинский журнал . 57 (3): 298–301. дои : 10.3325/cmj.2016.57.298. ПМЦ 4937233 . ПМИД  27374832. 
  17. ^ abc Хаим, Марио; Арендт, Флориан; Шерр, Себастьян (февраль 2017 г.). «Бездна или убежище? О релевантности результатов поиска в поисковых системах, когда люди ищут в Google самоубийство». Общение о здоровье . 32 (2): 253–258. дои : 10.1080/10410236.2015.1113484. PMID  27196394. S2CID  3399012.
  18. ^ abc «Медицинская дезинформация и социальный вред в ненаучной практике здравоохранения: междисциплинарная перспектива». ЦРК Пресс . Архивировано из оригинала 4 августа 2020 года . Проверено 22 апреля 2020 г.
  19. ^ abc Лазар, Шира (1 июня 2011 г.). «Алгоритмы и пузырь фильтров, портящие ваш опыт работы в Интернете?». Хаффингтон Пост . Архивировано из оригинала 13 апреля 2016 года . Проверено 15 августа 2011 г. пузырь фильтра — это образная сфера, окружающая вас при поиске в Интернете.
  20. Паризер, Эли (12 мая 2011 г.). Пузырь фильтров: как новый персонализированный Интернет меняет то, что мы читаем и как мы думаем. Пингвин. ISBN 9781101515129. Архивировано из оригинала 19 января 2021 года . Проверено 11 октября 2020 г.
  21. ^ «Как пузыри фильтров искажают реальность: все, что вам нужно знать» . 31 июля 2017 года. Архивировано из оригинала 3 июля 2019 года . Проверено 23 июня 2019 г.
  22. ^ Николов, Димитар; Оливейра, Диего FM; Фламмини, Алессандро; Менцер, Филиппо (2 декабря 2015 г.). «Измерение социальных пузырей в Интернете». PeerJ Информатика . 1 : е38. arXiv : 1502.07162 . Бибкод : 2015arXiv150207162N. дои : 10.7717/peerj-cs.38 .
  23. ^ Паризер, Эли (март 2011 г.). «Остерегайтесь онлайн-пузырей фильтров» . Архивировано из оригинала 28 мая 2018 года . Проверено 30 мая 2018 г.
  24. ^ Паризер, Эли (март 2011 г.). «Остерегайтесь онлайн-пузырей фильтров» . TED.com . Архивировано из оригинала 22 сентября 2017 года . Проверено 24 сентября 2017 г.
  25. ^ «Первый понедельник: Что показывают в этом месяце по телевидению, в фильмах и книгах: Пузырь фильтров Эли Паризера» . США сегодня . 2011. Архивировано из оригинала 3 мая 2011 года . Проверено 20 апреля 2011 г. Паризер объясняет, что кормление нас только тем, что нам знакомо и удобно, закрывает нас от новых идей, предметов и важной информации.
  26. ↑ Аб Боскер, Бьянка (7 марта 2011 г.). «Facebook и Google предоставляют нам информацию о нездоровой пище, предупреждает Эли Паризер» . Хаффингтон Пост . Архивировано из оригинала 13 марта 2011 года . Проверено 20 апреля 2011 г. Когда дело доходит до контента, Google и Facebook предлагают нам слишком много сладостей и недостаточно морковки.
  27. ^ «Невидимое сито: Скрыто специально для вас». Экономист . 30 июня 2011. Архивировано из оригинала 3 июля 2011 года . Проверено 27 июня 2011 г. Книга г-на Паризера представляет собой обзор эволюции Интернета в направлении персонализации, исследует, как представление информации меняет способ ее восприятия, и завершается рецептами, как лопнуть пузырь фильтров, окружающий каждого пользователя.
  28. ^ аб Херн (22 мая 2017 г.). «Как социальные сети фильтруют пузыри и алгоритмы влияют на выборы». Хранитель . Архивировано из оригинала 31 мая 2018 года . Проверено 30 мая 2018 г.
  29. ^ Ван Алстайн, Маршалл; Бриньольфссон, Эрик (март 1997 г.) [Авторское право 1996 г.]. «Электронные сообщества: глобальная деревня или кибербалканы?» (PDF) . Архивировано (PDF) из оригинала 5 апреля 2016 г. Проверено 24 сентября 2017 г.
  30. ^ Ван Алстайн, Маршалл; Бриньольфссон, Эрик (ноябрь 1996 г.). «Может ли Интернет балканизировать науку?». Наука . 274 (5292): 1479–1480. Бибкод : 1996Sci...274.1479V. дои : 10.1126/science.274.5292.1479. S2CID  62546078.
  31. ^ Алекс Фам; Джон Хили (24 сентября 2005 г.). «Системы надеются сказать вам то, что вы хотите: «Системы предпочтений» проводят пользователей через поток контента». Чикаго Трибьюн . Архивировано из оригинала 8 декабря 2015 года . Проверено 4 декабря 2015 г. ... если бы рекомендатели были идеальными, я мог бы иметь возможность общаться только с такими же людьми, как я ... Кибербалканизация, как сформулировал сценарий Бриньольфссон, не является неизбежным эффектом рекомендательных инструментов.
  32. ↑ Аб Менкедик, Сара (14 мая 2020 г.). «Почему к американским детям относятся как к другому виду, чем к взрослым?». Эон . Архивировано из оригинала 15 мая 2020 года . Проверено 15 мая 2020 г.
  33. Обама, Барак (10 января 2017 г.). Прощальное обращение президента Обамы (Речь). Вашингтон, округ Колумбия. Архивировано из оригинала 24 января 2017 года . Проверено 24 января 2017 г.
  34. Хосанагар, Картик (25 ноября 2016 г.). «Вините эхо-камеру на Facebook. Но вините и себя». Проводной . Архивировано из оригинала 25 сентября 2017 года . Проверено 24 сентября 2017 г.
  35. ДиФонзо, Николас (21 апреля 2011 г.). «Эффект эхо-камеры». Нью-Йорк Таймс . Архивировано из оригинала 13 июня 2017 года . Проверено 24 сентября 2017 г.
  36. ^ SDF (23 июня 2004 г.). «Джон Горенфельд, Мессия Мун и эхо-камера СМИ». Ежедневный Кос . Архивировано из оригинала 2 мая 2016 года . Проверено 24 сентября 2017 г.
  37. ^ Джеймисон, Кэтлин Холл ; Капелла, Джозеф Н. (22 июля 2008 г.). Эхо-камера: Раш Лимбо и консервативный медиа-истеблишмент . Издательство Оксфордского университета . ISBN 978-0-19-536682-2. Проверено 24 сентября 2017 г.
  38. ^ ab «Что такое пузырьки-фильтры и цифровые эхо-камеры? | Фонд Генриха Бёлля | Тель-Авив - Израиль». Фонд Генриха Белля . Проверено 8 марта 2023 г.
  39. ^ Чинелли, Маттео; Де Франсиски Моралес, Джанмарко; Галеацци, Алессандро; Кваттрочокки, Уолтер; Старнини, Микеле (2 марта 2021 г.). «Эффект эхо-камеры в социальных сетях». Труды Национальной академии наук . 118 (9): e2023301118. Бибкод : 2021PNAS..11823301C. дои : 10.1073/pnas.2023301118 . ISSN  0027-8424. ПМЦ 7936330 . ПМИД  33622786. 
  40. ^ Эланор Коллеони; Алессандро Роцца; Адам Арвидссон (апрель 2014 г.). «Эхо-камера или публичная сфера? Прогнозирование политической ориентации и измерение политической гомофилии в Твиттере с использованием больших данных». Журнал связи . 64 (2): 317–332. дои : 10.1111/jcom.12084. hdl : 10281/66011 .
  41. ^ Экстрем, Аксель Г.; Нихорстер, Дидерик К.; Олссон, Эрик Дж. (1 августа 2022 г.). «Пузыри самонавязанных фильтров: избирательное внимание и воздействие при онлайн-поиске». Компьютеры в отчетах о поведении человека . 7 : 100226. doi : 10.1016/j.chbr.2022.100226 . ISSN  2451-9588. S2CID  251434172.
  42. ^ Ревильо, Урбано; Агости, Клаудио (апрель 2020 г.). «Мышление вне черного ящика: аргументы в пользу «алгоритмического суверенитета» в социальных сетях». Социальные сети + Общество . 6 (2): 205630512091561. doi :10.1177/2056305120915613. hdl : 2434/840214 . ISSN  2056-3051. S2CID  219019544.
  43. ^ «План Twitter по прекращению бесплатного доступа к данным вызывает« изрядную панику »среди ученых» . www.science.org . Проверено 8 марта 2023 г.
  44. Гранквист, Пер (8 февраля 2018 г.). Большой пузырь: как технологии затрудняют понимание мира . Издательство United Stories. п. 179. ИСБН 978-91-639-5990-5.
  45. ^ аб Хосанагар, Картик; Фледер, Дэниел; Ли, Докюн; Буя, Андреас (декабрь 2013 г.). «Расколется ли глобальная деревня на племена: рекомендательные системы и их влияние на потребителей». Наука управления, предстоящий . ССНР  1321962.
  46. ^ Людвиг, Эмбер. «Персонализация Google в результатах поиска плюс как ее отключить» . НГНГ. Архивировано из оригинала 17 августа 2011 года . Проверено 15 августа 2011 г. Настройка результатов поиска Google — это автоматическая функция, но вы можете отключить эту функцию.
  47. Брунс, Аксель (29 ноября 2019 г.). «Фильтр-пузырь». Обзор интернет-политики . 8 (4). дои : 10.14763/2019.4.1426 . hdl : 10419/214088 .
  48. ^ Дэвис, Хью С. (сентябрь 2018 г.). «Переопределение пузырей фильтров как (устранимой) социотехнической рекурсии». Социологические исследования онлайн . 23 (3): 637–654. дои : 10.1177/1360780418763824. S2CID  149367030. Архивировано из оригинала 19 января 2021 года . Проверено 29 августа 2020 г.
  49. Дальгрен, Питер М. (29 января 2021 г.). «Критический обзор пузырьков фильтров и сравнение с выборочным воздействием». Нордиком Обзор . 42 (1): 15–33. дои : 10.2478/нор-2021-0002 .
  50. ^ Флаксман, Сет; Гоэль, Шарад; Рао, Джастин М. (2016). «Пузыри фильтров, эхо-камеры и потребление онлайн-новостей». Общественное мнение Ежеквартально . 80 (С1): 298–320. doi : 10.1093/poq/nfw006. S2CID 2386849 . 
  51. ^ Читра, Утсав; Муско, Кристофер (2020). «Анализ влияния пузырей фильтров на поляризацию социальных сетей». WSDM '20: Материалы 13-й Международной конференции по веб-поиску и интеллектуальному анализу данных . стр. 115–123. дои : 10.1145/3336191.3371825.
  52. ^ ab «5 вопросов Эли Паризеру, автору книги «Пузырь фильтров»» . Время . 16 мая 2011 года. Архивировано из оригинала 14 апреля 2017 года . Проверено 24 мая 2017 г.
  53. ^ abcde Блейберг, Джошуа; Уэст, Даррелл М. (24 мая 2017 г.). «Политическая поляризация в Facebook». Брукингский институт . Архивировано из оригинала 10 октября 2017 года . Проверено 24 мая 2017 г.
  54. ^ Бакши, Э.; Мессинг, С.; Адамик, Луизиана (5 июня 2015 г.). «Ознакомление с идеологически разнообразными новостями и мнениями в Facebook». Наука . 348 (6239): 1130–1132. Бибкод : 2015Sci...348.1130B. дои : 10.1126/science.aaa1160 . PMID  25953820. S2CID  206632821.
  55. ^ Ламб (8 мая 2015 г.). «Почему ученые расстроены исследованием пузыря фильтров Facebook». Архивировано из оригинала 11 ноября 2017 года . Проверено 10 ноября 2017 г.
  56. Оремус, Уилл (5 апреля 2017 г.). «Возвращение к пузырю фильтров». Журнал «Сланец» . Архивировано из оригинала 6 февраля 2020 года . Проверено 2 марта 2020 г.
  57. ^ аб Зиндерманн, Корнелия; Эльхай, Джон Д.; Мошаген, Мортен; Монтэг, Кристиан (январь 2020 г.). «Возраст, пол, личность, идеологические установки и индивидуальные различия в спектре новостей человека: сколько и кто могут быть склонны к «пузырям фильтров» и «эхо-камерам» в Интернете?». Гелион . 6 (1): e03214. Бибкод : 2020Heliy...603214S. doi :10.1016/j.heliyon.2020.e03214. ПМЦ 7002846 . ПМИД  32051860. 
  58. ^ аб Паризер, Эли (7 мая 2015 г.). «Забавные факты из нового исследования пузыря фильтров Facebook» . Середина . Архивировано из оригинала 11 ноября 2017 года . Проверено 24 октября 2017 г.
  59. Ламб, Дэвид (8 мая 2015 г.). «Почему ученые расстроены исследованием пузыря фильтров Facebook». Компания Фаст . Архивировано из оригинала 23 октября 2017 года . Проверено 24 октября 2017 г.
  60. Паризер, Эли (7 мая 2015 г.). «Большое исследование Facebook убило мой тезис о пузыре фильтров?» Проводной . Архивировано из оригинала 11 ноября 2017 года . Проверено 24 октября 2017 г.
  61. ^ «Вопреки тому, что вы слышали, Facebook может помочь проколоть наши политические «пузыри»». Вокс . Архивировано из оригинала 13 июня 2018 года . Проверено 30 мая 2018 г.
  62. ^ Бакши, Э.; Мессинг, С.; Адамик, Луизиана (2015). «Ознакомление с идеологически разнообразными новостями и мнениями в Facebook». Наука . 348 (6239): 1130–1132. Бибкод : 2015Sci...348.1130B. дои : 10.1126/science.aaa1160 . PMID  25953820. S2CID  206632821.
  63. ^ Барбера, Пабло (август 2015 г.). «Как социальные сети уменьшают массовую политическую поляризацию. Данные из Германии, Испании и США» CiteSeerX 10.1.1.658.5476 . 
  64. ^ Хилберт М., Ахмед С., Чо Дж., Лю Б. и Луу Дж. (2018). Общение с алгоритмами: анализ энтропии переноса основанных на эмоциях побегов из онлайн-эхо-камер. Методы и меры коммуникации, 12 (4), 260–275. https://doi.org/10.1080/19312458.2018.1479843 Архивировано 19 января 2021 г. в Wayback Machine  ; https://www.martinhilbert.net/communicating-with-algorithms/. Архивировано 9 мая 2019 г. в Wayback Machine.
  65. ^ аб Бейл, Кристофер; Аргайл, Лиза; Браун, Тейлор; Чен, Хаохан; Хунзакер, MBF; Ли, Джемин (2018). «Воздействие противоположных взглядов в социальных сетях может усилить политическую поляризацию» (PDF) . Труды Национальной академии наук . 115 (37): 9216–9221. Бибкод : 2018PNAS..115.9216B. дои : 10.1073/pnas.1804840115 . ПМК 6140520 . PMID  30154168. Архивировано (PDF) из оригинала 10 апреля 2020 г. . Проверено 22 апреля 2020 г. 
  66. ^ Аб Мин, Йонг; Цзян, Тинцзюнь; Джин, Ченг; Ли, Цюй; Цзинь, Сяоган (2019). «Эндогенная структура пузыря фильтров в социальных сетях». Королевское общество открытой науки . 6 (11): 190868. arXiv : 1907.02703 . Бибкод : 2019RSOS....690868M. дои : 10.1098/rsos.190868. ПМК 6894573 . ПМИД  31827834. 
  67. ^ Статт, Ник (4 декабря 2018 г.). «Google персонализирует результаты поиска, даже если вы вышли из системы, утверждает новое исследование». Грань . Архивировано из оригинала 31 июля 2020 года . Проверено 22 апреля 2020 г.
  68. Бухер, Тайна (25 февраля 2016 г.). «Алгоритмическое воображаемое: исследование обычных эффектов алгоритмов Facebook». Информация, коммуникация и общество . 20 – через Тейлор и Фрэнсис Онлайн.
  69. ^ «Как нам разрушить пузырь фильтров и создать демократию?» 3 марта 2017 года. Архивировано из оригинала 3 марта 2017 года . Проверено 3 марта 2017 г.
  70. ^ ""Filterblase" - это Wort des Jahres 2016" . 7 декабря 2016 года. Архивировано из оригинала 20 декабря 2016 года . Проверено 27 декабря 2016 г.
  71. ^ Эли Паризер (май 2011 г.). Пузырь фильтров: что от вас скрывает Интернет . Нью-Йорк: Пингвин Пресс. п. 17. ISBN 978-1-59420-300-8.
  72. ^ Стивен Барон; Джон Филд; Том Шуллер (30 ноября 2000 г.). «Социальный капитал: обзор и критика». Социальный капитал: критические перспективы . Издательство Оксфордского университета. ISBN 9780199243679.
  73. ^ «Мы застряли в пузырях фильтров? Вот пять потенциальных путей выхода» . Ниман Лаборатория . Архивировано из оригинала 4 марта 2017 года . Проверено 3 марта 2017 г.
  74. Глушко, Крис (8 февраля 2017 г.). «Лопните пузыри фильтров персонализации и сохраните онлайн-разнообразие». Маркетинговая земля . Архивировано из оригинала 15 марта 2017 года . Проверено 22 мая 2017 г.
  75. Ритхольц, Барри (2 февраля 2017 г.). «Попробуйте разрушить пузырь медиафильтров». Блумберг . Архивировано из оригинала 21 августа 2017 года . Проверено 22 мая 2017 г.
  76. ^ «Новостное приложение стремится лопнуть пузыри фильтров, подталкивая читателей к более «сбалансированной» медиа-диете» . Ниман Лаборатория . Архивировано из оригинала 15 мая 2017 года . Проверено 24 мая 2017 г.
  77. Мэдалина Чобану (3 марта 2017 г.). «NZZ разрабатывает приложение, которое предоставляет читателям персонализированные новости без создания пузырьков фильтров: приложение использует машинное обучение, чтобы предоставить читателям поток из 25 историй, которые могут быть им интересны, исходя из их предпочтений, но «всегда включая элемент неожиданности»» . Журналистика.co.uk. Архивировано из оригинала 3 марта 2017 года . Проверено 3 марта 2017 г. ... если, исходя из истории потребления, кто-то не проявил интереса к спорту, его лента будет включать новости о больших и важных историях, связанных со спортом,...
  78. Каталина Албеану (17 ноября 2016 г.). «Разрыв пузыря фильтров после выборов в США: СМИ обречены на провал? На мероприятии в Брюсселе на этой неделе СМИ и политики обсуждали эхо-камеры в социальных сетях и борьбу с фейковыми новостями». Журналистика.co.uk. Архивировано из оригинала 10 марта 2017 года . Проверено 3 марта 2017 г. ... Референдум ЕС в Великобритании на панели на мероприятии «Политики в коммуникационном шторме»... Помимо пузыря фильтров, партийные страницы Facebook также подали диету, насыщенную фейковыми новостями....
  79. ^ «Европейская комиссия». Архивировано из оригинала 4 марта 2017 года . Проверено 3 марта 2017 г.
  80. ^ Резник, Пол; Гарретт, Р. Келли; Криплеан, Трэвис; Мансон, Шон А.; Страуд, Натали Джомини (2013). «Разрыв вашего (фильтрационного) пузыря». Материалы конференции 2013 года по компьютерной поддержке совместной работы - CSCW '13 . п. 95. дои : 10.1145/2441955.2441981. ISBN 978-1-4503-1332-2. S2CID  20865375.
  81. ↑ Аб Ваниан, Джонатан (25 апреля 2017 г.). «Функция Facebook тестирует статьи по теме для борьбы с пузырьками фильтров» . Фортуна.com . Архивировано из оригинала 25 сентября 2017 года . Проверено 24 сентября 2017 г.
  82. Рианна Сиделл, Лаура (25 января 2017 г.). «Facebook настраивает свой алгоритм« актуальных тем », чтобы лучше отражать реальные новости» . Общественные СМИ KQED. ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР. Архивировано из оригинала 26 февраля 2018 года . Проверено 5 апреля 2018 г.
  83. ^ Хао, Карен. «Google наконец-то признал, что у него есть проблема с пузырьками фильтров». Кварц . Архивировано из оригинала 4 мая 2018 года . Проверено 30 мая 2018 г.
  84. ^ «Facebook, Mozilla и Craigslist Крейг финансирует пожарного фейковых новостей» . Архивировано из оригинала 23 ноября 2018 года . Проверено 14 января 2019 г.
  85. ^ «Инициатива Mozilla Information Trust: создание движения по борьбе с дезинформацией в Интернете» . Блог Mozilla . Архивировано из оригинала 14 января 2019 года . Проверено 14 января 2019 г.
  86. ^ abc Боздаг, Энгин; Тиммерман, Иов. «Ценности в пузыре фильтров. Этика алгоритмов персонализации в облачных вычислениях». Исследовательские ворота . Архивировано из оригинала 14 декабря 2020 года . Проверено 6 марта 2017 г.
  87. ^ Аль-Родхан, Наиф. «Многие этические последствия новых технологий». Научный американец . Архивировано из оригинала 8 апреля 2017 года . Проверено 6 марта 2017 г.
  88. ^ Хаим, Марио; Грефе, Андреас; Брозиус, Ханс-Бернд (16 марта 2018 г.). «Взрыв пузыря фильтров?». Цифровая журналистика . 6 (3): 330–343. дои : 10.1080/21670811.2017.1338145 . S2CID  168906316.
  89. ^ «Пузырь фильтров поднимает важные проблемы — вам просто нужно отфильтровать их самостоятельно» . Сеть действий в отношении тропических лесов . Архивировано из оригинала 8 апреля 2017 года . Проверено 6 марта 2017 г.
  90. ↑ Аб Стерлинг, Грег (20 февраля 2017 г.). «Манифест Марка Цукерберга: как Facebook объединит мир, победит фейковые новости и лопнет пузырь фильтров». Маркетинговая земля . Архивировано из оригинала 8 марта 2017 года . Проверено 6 марта 2017 г.
  91. ^ Аб Морозов, Евгений (10 июня 2011 г.). «Ваши собственные факты». Нью-Йорк Таймс . Архивировано из оригинала 4 марта 2017 года . Проверено 6 марта 2017 г.
  92. ^ Гессен, Брэдфорд В.; Нельсон, Дэвид Э.; Крепс, Гэри Л.; Кройл, Роберт Т.; Арора, Нирадж К.; Раймер, Барбара К.; Вишванатх, Касисомаяджула (12 декабря 2005 г.). «Доверие и источники медицинской информации: влияние Интернета и его последствия для поставщиков медицинских услуг: результаты первого национального исследования тенденций в области медицинской информации». Архив внутренней медицины . 165 (22): 2618–24. дои : 10.1001/archinte.165.22.2618. ПМИД  16344419.
  93. Эль-Бермави, Мостафа (18 ноября 2016 г.). «Ваш пузырь фильтров разрушает демократию». Проводной . Архивировано из оригинала 9 марта 2017 года . Проверено 6 марта 2017 г.
  94. ^ «Как лопнуть «пузырь фильтров», который защищает нас от противоположных взглядов» . Обзор технологий Массачусетского технологического института . Архивировано из оригинала 19 января 2021 года . Проверено 6 марта 2017 г.
  95. ^ Боргезиус, Фредерик; Триллинг, Дамиан; Мёллер, Юдит; Бодо, Балаж; де Врез, Клаас; Хельбергер, Натали (31 марта 2016 г.). «Следует ли нам беспокоиться о пузырьках в фильтре?». Обзор интернет-политики . Архивировано из оригинала 20 марта 2017 года . Проверено 6 марта 2017 г.
  96. ^ Паризер, Эли (2011). Пузырь фильтров: как новый персонализированный Интернет меняет то, что мы читаем и как мы думаем . Нью-Йорк: Пингвин Пресс. ISBN 978-1-59420-300-8.
  97. ^ «Во славу счастливой случайности». Экономист . 9 марта 2017 года. Архивировано из оригинала 15 января 2019 года . Проверено 14 января 2019 г.
  98. ^ Ревильо, Урбано (июнь 2019 г.). «Интуиция как новый принцип проектирования инфосферы: проблемы и возможности». Этика и информационные технологии . 21 (2): 151–166. doi : 10.1007/s10676-018-9496-y. S2CID  57426650.
  99. ^ Харамбам, Джарон; Хельбергер, Натали; ван Хобокен, Йорис (28 ноября 2018 г.). «Демократизация алгоритмических рекомендаций новостей: как материализовать голос в технологически насыщенной медиа-экосистеме». Философские труды Королевского общества A: Математические, физические и технические науки . 376 (2133): 20180088. Бибкод : 2018RSPTA.37680088H. дои : 10.1098/rsta.2018.0088. ПМК 6191663 . ПМИД  30323002. 
  100. Херрман, Джон (24 августа 2016 г.). «Внутри (совершенно безумной, непреднамеренно гигантской, гиперпартийной) политико-медийной машины Facebook». Нью-Йорк Таймс . Архивировано из оригинала 19 октября 2017 года . Проверено 24 октября 2017 г.
  101. ^ Дель Викарио, Микела; Бесси, Алессандро; Золло, Фабиана; Петрони, Фабио; Скала, Антонио; Кальдарелли, Гвидо; Стэнли, Х. Юджин; Кваттрочокки, Уолтер (19 января 2016 г.). «Распространение дезинформации в Интернете». Труды Национальной академии наук . 113 (3): 554–559. Бибкод : 2016PNAS..113..554D. дои : 10.1073/pnas.1517441113 . ПМЦ 4725489 . ПМИД  26729863. 
  102. Гранвилл, Кевин (19 марта 2018 г.). «Facebook и Cambridge Analytica: что нужно знать по мере расширения Fallout». Нью-Йорк Таймс . Архивировано из оригинала 19 октября 2018 года . Проверено 19 октября 2018 г.
  103. Мередит, Сэм (10 апреля 2018 г.). «Facebook-Cambridge Analytica: хронология скандала с похищением данных». CNBC . Архивировано из оригинала 19 октября 2018 года . Проверено 19 октября 2018 г.
  104. ^ Аб Гросс, Майкл (январь 2017 г.). «Опасности мира постправды». Современная биология . 27 (1): R1–R4. дои : 10.1016/j.cub.2016.12.034 .
  105. ^ «Как пузыри фильтров искажают реальность: все, что вам нужно знать» . Фарнам-стрит . 31 июля 2017 года. Архивировано из оригинала 20 мая 2019 года . Проверено 21 мая 2019 г.
  106. ^ Блюдо, The Daily (10 октября 2010 г.). «Пузырь фильтров». Атлантический океан . Архивировано из оригинала 22 августа 2017 года . Проверено 21 мая 2019 г.
  107. ^ ab «Пузыри фильтров и предвзятость подтверждения - фейковые новости (и как с ними бороться) - LibGuides в учебных ресурсах колледжа Майами-Дейд» . Архивировано из оригинала 23 октября 2020 года . Проверено 22 октября 2020 г.

дальнейшее чтение

Внешние ссылки