Сообщество добровольных редакторов Википедии несет ответственность за проверку фактов контента Википедии. [1] Их цель — пресечь распространение ложной информации и дезинформации на веб-сайте.
Wikipedia считается одним из основных бесплатных сайтов с открытым исходным кодом, где миллионы людей могут читать, редактировать и публиковать свои мнения бесплатно. Поэтому Wikipedia прилагает усилия, чтобы предоставлять своим читателям проверенные источники. Тщательная проверка фактов является аспектом более широкой надежности Wikipedia .
Различные академические исследования Википедии и критика Википедии стремятся описать пределы надежности Википедии, документировать, кто и как использует Википедию для проверки фактов, и какие последствия возникают в результате этого использования. Статьи Википедии могут быть низкого качества во многих отношениях, включая внутренние противоречия. [2] Эти плохие статьи требуют улучшения.
Крупные платформы, включая YouTube [3] и Facebook [4], используют контент Википедии для подтверждения точности информации в своих собственных медиаколлекциях.
Википедия служит общественным ресурсом для доступа к подлинной информации. Например, пандемия COVID-19 была важной темой, по которой люди полагались на Википедию для получения подлинной информации. [5] Поиск общественного доверия является важной частью философии публикации Википедии. [6] Различные опросы читателей и исследования сообщили о общественном доверии к процессу Википедии по контролю качества. [6] [7] В целом, общественность использует Википедию для противодействия фейковым новостям . [8]
На конференции South by Southwest 2018 года генеральный директор YouTube Сьюзан Войчицки сделала заявление о том, что YouTube использует Википедию для проверки фактов в видео, которые размещает YouTube. [3] [9] [10] [11] Никто в YouTube не консультировался ни с кем в Википедии по поводу этого развития событий, и эта новость на тот момент стала неожиданностью. [9] В то время YouTube намеревался использовать Википедию в качестве противодействия распространению теорий заговора . [9] Это делается путем добавления новых информационных блоков под некоторыми видео YouTube, тем самым привлекая сторонников теорий заговора.
Facebook использует Википедию различными способами. После критики Facebook в контексте фейковых новостей вокруг президентских выборов в США 2016 года , Facebook признал, что в Википедии уже есть устоявшийся процесс проверки фактов. [4] Последующая стратегия Facebook по противодействию фейковым новостям включала использование контента из Википедии для проверки фактов. [4] [12] В 2020 году Facebook начал включать информацию из информационных блоков Википедии в свои собственные общие справочные панели знаний для предоставления объективной информации. [13]
Майк Колфилд и Сэм Уайнберг адаптируют подход к проверке фактов как к типу медиаграмотности , предполагая, что искатели информации делают упор на боковое чтение (или беглый просмотр нескольких надежных источников вместо тщательного изучения одного), в том числе используя Википедию в качестве отправной точки для изучения темы. [14]
Рене ДиРеста в своей книге 2024 года посоветовала жертвам слухов, дезинформации или недостоверной информации обеспечить доступность фактической информации в Интернете, в том числе в Википедии, особенно в эпоху, когда чат-боты на основе искусственного интеллекта часто полагаются на Википедию для получения информации. [15]
Проверка фактов — один из аспектов общего процесса редактирования в Википедии. Сообщество добровольцев разрабатывает процесс проверки ссылок и фактов через такие общественные группы, как WikiProject Reliability. [8] Википедия имеет репутацию страны, где среди ее редакторов культивируется культура проверки фактов. [16] Процесс проверки фактов в Википедии зависит от активности сообщества добровольцев-участников, число которых по состоянию на 2018 год составило 200 000 человек. [1]
Развитие практики проверки фактов продолжается в сообществе редактирования Википедии. [6] Одним из событий, на которое ушли годы, стало решение сообщества 2017 года объявить конкретный источник новостей, Daily Mail , в целом ненадежным в качестве ссылки для проверки утверждений. [6] [17] Благодаря строгим правилам проверяемости Википедия борется с дезинформацией. [18] [ неудавшаяся проверка ] Согласно правилам Википедии, все статьи в «основном пространстве» Википедии должны быть проверяемыми. [18]
Статья -противоречие — это статья, которая противоречит сама себе. [a]
Был проведен эксперимент по обнаружению противоречий в статьях Википедии с использованием разработанной модели под названием «Парная противоречащая нейронная сеть» (PCNN). [19]
Вклад в этот эксперимент следующий:
Когда Википедия подвергается вандализму , платформы, которые повторно используют контент Википедии, могут повторно опубликовать этот испорченный контент. [20] В 2016 году журналисты описали, как вандализм в Википедии подрывает ее использование в качестве надежного источника. [21]
Вандализм запрещен Википедией. Сайт предлагает следующие шаги для неопытных новичков по борьбе с вандализмом: доступ, откат, предупреждение, наблюдение и, наконец, сообщение. [22]
В 2018 году Facebook и YouTube были основными пользователями Википедии из-за ее функций проверки фактов, но эти коммерческие платформы никак не способствовали бесплатной некоммерческой деятельности Википедии. [20]
Ограничения, связанные с внутренним противоречием: Два основных ограничения модели PCNN с внутренним противоречием — это субъективность внутреннего противоречия и невозможность работы с объемными документами.