stringtranslate.com

Википедия и проверка фактов

Практика Википедии помечать неподтвержденную информацию предупреждениями « Требуется ссылка » стала почти синонимом необходимости проверки фактов в более общем плане.

Сообщество добровольных редакторов Википедии несет ответственность за проверку фактов контента Википедии. [1] Их цель — пресечь распространение ложной информации и дезинформации на веб-сайте.

Wikipedia считается одним из основных бесплатных сайтов с открытым исходным кодом, где миллионы людей могут читать, редактировать и публиковать свои мнения бесплатно. Поэтому Wikipedia прилагает усилия, чтобы предоставлять своим читателям проверенные источники. Тщательная проверка фактов является аспектом более широкой надежности Wikipedia .

Различные академические исследования Википедии и критика Википедии стремятся описать пределы надежности Википедии, документировать, кто и как использует Википедию для проверки фактов, и какие последствия возникают в результате этого использования. Статьи Википедии могут быть низкого качества во многих отношениях, включая внутренние противоречия. [2] Эти плохие статьи требуют улучшения.

Крупные платформы, включая YouTube [3] и Facebook [4], используют контент Википедии для подтверждения точности информации в своих собственных медиаколлекциях.

Использование Википедии для проверки фактов

Википедия служит общественным ресурсом для доступа к подлинной информации. Например, пандемия COVID-19 была важной темой, по которой люди полагались на Википедию для получения подлинной информации. [5] Поиск общественного доверия является важной частью философии публикации Википедии. [6] Различные опросы читателей и исследования сообщили о общественном доверии к процессу Википедии по контролю качества. [6] [7] В целом, общественность использует Википедию для противодействия фейковым новостям . [8]

Проверка фактов на YouTube

YouTube использует Википедию для проверки фактов

На конференции South by Southwest 2018 года генеральный директор YouTube Сьюзан Войчицки сделала заявление о том, что YouTube использует Википедию для проверки фактов в видео, которые размещает YouTube. [3] [9] [10] [11] Никто в YouTube не консультировался ни с кем в Википедии по поводу этого развития событий, и эта новость на тот момент стала неожиданностью. [9] В то время YouTube намеревался использовать Википедию в качестве противодействия распространению теорий заговора . [9] Это делается путем добавления новых информационных блоков под некоторыми видео YouTube, тем самым привлекая сторонников теорий заговора.

Проверка фактов в Facebook

Facebook использует Википедию различными способами. После критики Facebook в контексте фейковых новостей вокруг президентских выборов в США 2016 года , Facebook признал, что в Википедии уже есть устоявшийся процесс проверки фактов. [4] Последующая стратегия Facebook по противодействию фейковым новостям включала использование контента из Википедии для проверки фактов. [4] [12] В 2020 году Facebook начал включать информацию из информационных блоков Википедии в свои собственные общие справочные панели знаний для предоставления объективной информации. [13]

Профессиональные проверяющие факты

Майк Колфилд и Сэм Уайнберг адаптируют подход к проверке фактов как к типу медиаграмотности , предполагая, что искатели информации делают упор на боковое чтение (или беглый просмотр нескольких надежных источников вместо тщательного изучения одного), в том числе используя Википедию в качестве отправной точки для изучения темы. [14]

Рене ДиРеста в своей книге 2024 года посоветовала жертвам слухов, дезинформации или недостоверной информации обеспечить доступность фактической информации в Интернете, в том числе в Википедии, особенно в эпоху, когда чат-боты на основе искусственного интеллекта часто полагаются на Википедию для получения информации. [15]

Проверка фактов Википедии

Проверка фактов — один из аспектов общего процесса редактирования в Википедии. Сообщество добровольцев разрабатывает процесс проверки ссылок и фактов через такие общественные группы, как WikiProject Reliability. [8] Википедия имеет репутацию страны, где среди ее редакторов культивируется культура проверки фактов. [16] Процесс проверки фактов в Википедии зависит от активности сообщества добровольцев-участников, число которых по состоянию на 2018 год составило 200 000 человек. [1]

Развитие практики проверки фактов продолжается в сообществе редактирования Википедии. [6] Одним из событий, на которое ушли годы, стало решение сообщества 2017 года объявить конкретный источник новостей, Daily Mail , в целом ненадежным в качестве ссылки для проверки утверждений. [6] [17] Благодаря строгим правилам проверяемости Википедия борется с дезинформацией. [18] [ неудавшаяся проверка ] Согласно правилам Википедии, все статьи в «основном пространстве» Википедии должны быть проверяемыми. [18]

Статьи, противоречащие самим себе

Статья -противоречие — это статья, которая противоречит сама себе. [a]

Был проведен эксперимент по обнаружению противоречий в статьях Википедии с использованием разработанной модели под названием «Парная противоречащая нейронная сеть» (PCNN). [19]

Вклад в этот эксперимент следующий:


Ограничения

Когда Википедия подвергается вандализму , платформы, которые повторно используют контент Википедии, могут повторно опубликовать этот испорченный контент. [20] В 2016 году журналисты описали, как вандализм в Википедии подрывает ее использование в качестве надежного источника. [21]

Вандализм запрещен Википедией. Сайт предлагает следующие шаги для неопытных новичков по борьбе с вандализмом: доступ, откат, предупреждение, наблюдение и, наконец, сообщение. [22]

В 2018 году Facebook и YouTube были основными пользователями Википедии из-за ее функций проверки фактов, но эти коммерческие платформы никак не способствовали бесплатной некоммерческой деятельности Википедии. [20]

Ограничения, связанные с внутренним противоречием: Два основных ограничения модели PCNN с внутренним противоречием — это субъективность внутреннего противоречия и невозможность работы с объемными документами.

Смотрите также

Примечания

  1. ^ Статья, противоречащая самому себе, содержит как минимум одну пару из двух утверждений, которые противоречат друг другу и оба выдаются за истину.

Ссылки

  1. ^ ab Тиммонс, Хизер; Козловска, Ханна (27 апреля 2018 г.). «200 000 добровольцев стали проверяющими факты в Интернете». Quartz .
  2. ^ Сюй, Ченг; Ли, Ченг-Те; Саес-Трампер, Диего; Сюй, И-Чжань (2021). «WikiContradiction: обнаружение противоречивых статей в Википедии». Международная конференция IEEE по большим данным (Big Data) 2021 . стр. 427–436. arXiv : 2111.08543 . doi : 10.1109/BigData52589.2021.9671319. ISBN 978-1-6654-3902-2. S2CID  244130115.
  3. ^ ab Glaser, апрель (14 августа 2018 г.). «YouTube добавляет ссылки для проверки фактов в видеороликах на темы, которые вдохновляют теории заговора». Журнал Slate .
  4. ^ abc Флинн, Керри (5 октября 2017 г.). «Facebook передает решение своей проблемы с фейковыми новостями на аутсорсинг Wikipedia — и армии модераторов-людей». Mashable .
  5. ^ Беньякоб, Омер (4 августа 2020 г.). «Почему Википедия невосприимчива к коронавирусу». Haaretz .
  6. ^ abcd Iannucci, Rebecca (6 июля 2017 г.). «Чему проверяющие факты могут научиться у Википедии? Мы спросили у босса ее некоммерческого владельца». Poynter Institute .
  7. Кокс, Джозеф (11 августа 2014 г.). «Почему люди доверяют Википедии больше, чем новостям». Vice .
  8. ^ ab Zachary McDowell; Matthew A. Vetter (июль 2020 г.). «Для борьбы с армией фейковых новостей нужна целая деревня: сообщество и политика Википедии в области информационной грамотности». Социальные медиа + общество . 6 (3): 205630512093730. doi : 10.1177/2056305120937309. ISSN  2056-3051. Wikidata  Q105083357.
  9. ^ abc Монтгомери, Блейк; Мак, Райан; Варзел, Чарли (13 марта 2018 г.). «YouTube заявил, что будет ссылаться на выдержки из Википедии в видеороликах о заговорах — но не сообщил об этом Википедии». Новости BuzzFeed .
  10. Фельдман, Брайан (16 марта 2018 г.). «Почему Википедия работает». Intelligencer . Нью-Йорк .
  11. Фельдман, Брайан (14 марта 2018 г.). «Википедия не спасет YouTube от дезинформации». Intelligencer . Нью-Йорк .
  12. Локер, Мелисса (5 октября 2017 г.). «Facebook считает, что ответ на его проблемы с фейковыми новостями — это Википедия». Fast Company .
  13. ^ Перес, Сара (11 июня 2020 г.). «Facebook тестирует информационные панели на основе Wikipedia, аналогичные Google, в своих результатах поиска». TechCrunch .
  14. ^ Колфилд, Майк; Уайнберг, Сэмюэл С. (2023). Проверено: как мыслить здраво, меньше обманываться и принимать более обоснованные решения о том, чему верить в Интернете . Чикаго Лондон: Издательство Чикагского университета. ISBN 978-0-226-82984-5.
  15. ^ ДиРеста, Рене (2024). «Часть II Глава 9». Невидимые правители: люди, которые превращают ложь в реальность . Нью-Йорк: PublicAffairs. ISBN 978-1-5417-0339-1.
  16. ^ Келлер, Джаред (14 июня 2017 г.). «Как Википедия взращивает армию проверяющих факты для борьбы с фейковыми новостями». Pacific Standard .
  17. ^ Родригес, Эшли (10 февраля 2017 г.). «Впервые Википедия посчитала Daily Mail слишком «ненадежной», чтобы использовать ее в качестве источника». Quartz .
  18. ^ ab "Wikipedia:Verifiability", Wikipedia , 18 апреля 2022 г. , получено 19 апреля 2022 г.
  19. ^ Сюй, Ченг; Ли, Ченг-Те; Саез-Трампер, Диего; Сюй, И-Чжань (15 декабря 2021 г.). «WikiContradiction: Detecting Self-Contradiction Articles on Wikipedia». Международная конференция IEEE 2021 года по большим данным (Big Data) . Орландо, Флорида, США: IEEE. стр. 427–436. arXiv : 2111.08543 . doi : 10.1109/BigData52589.2021.9671319. ISBN 978-1-6654-3902-2. S2CID  244130115.
  20. ^ ab Funke, Daniel (18 июня 2018 г.). «Вандализм в Википедии может помешать разоблачению мистификаций в Google, YouTube и Facebook». Poynter . Poynter Institute .
  21. AES (15 января 2016 г.). «Википедия празднует свои первые 15 лет». The Economist .
  22. ^ "Wikipedia:Vandalism", Wikipedia , 16 апреля 2022 г. , получено 19 апреля 2022 г.

Дальнейшее рассмотрение

Внешние ссылки