stringtranslate.com

Модерация контента

Модерация комментариев в обсуждении GitHub , где пользователь по имени Мэллори удалил несколько комментариев, прежде чем закрыть обсуждение и заблокировать его

На веб-сайтах , которые позволяют пользователям создавать контент, модерация контента — это процесс обнаружения нерелевантных, непристойных, незаконных, вредных или оскорбительных материалов, в отличие от полезных или информативных материалов, часто для цензуры или подавления противоположных точек зрения. Цель модерации контента — удалить или применить предупреждающую метку к проблемному контенту или позволить пользователям блокировать и фильтровать контент самостоятельно. [1]

Различные типы интернет-сайтов допускают пользовательский контент, такой как сообщения, комментарии, видео, включая интернет-форумы , блоги и новостные сайты, работающие на скриптах, таких как phpBB , Wiki или PHP-Nuke и т. д. В зависимости от контента сайта и предполагаемой аудитории администраторы сайта решают, какие типы комментариев пользователей являются подходящими, а затем делегируют ответственность за просеивание комментариев младшим модераторам . Чаще всего они пытаются исключить троллинг , спам или флейминг , хотя это сильно различается от сайта к сайту.

Основные платформы используют комбинацию алгоритмических инструментов, сообщений пользователей и человеческого обзора. [1] Сайты социальных сетей также могут использовать модераторов контента, чтобы вручную помечать или удалять контент, помеченный как разжигающий ненависть или другой нежелательный контент. Другие проблемы с контентом включают порно мести , графический контент , материалы о жестоком обращении с детьми и пропаганду . [1] Некоторые веб-сайты также должны сделать свой контент гостеприимным для рекламы. [1]

В Соединенных Штатах модерация контента регулируется разделом 230 Закона о благопристойности в средствах массовой информации , и несколько дел по этому вопросу дошли до Верховного суда США , например, текущее дело Moody против NetChoice, LLC .

Модерация супервайзера

Также известная как односторонняя модерация, эта система модерации часто встречается на интернет-форумах . Группа людей выбирается администраторами сайта (обычно на долгосрочной основе) для выполнения функций делегатов, обеспечивая соблюдение правил сообщества от их имени. Эти модераторы получают особые привилегии для удаления или редактирования сообщений других лиц и/или исключения людей на основе их адреса электронной почты или IP-адреса , и, как правило, пытаются удалить негативные сообщения во всем сообществе. [2]

Модерация коммерческого контента

Модерация коммерческого контента — термин, придуманный Сарой Т. Робертс для описания практики «мониторинга и проверки пользовательского контента (UGC) для социальных медиа- платформ всех типов с целью обеспечения соответствия контента правовым и нормативным требованиям, правилам сайта/сообщества, пользовательским соглашениям, а также соответствия нормам вкуса и приемлемости для данного сайта и его культурного контекста» [3] .

Промышленный состав

Индустрия модерации контента оценивается в 9 миллиардов долларов США. Хотя официальные цифры не приводятся, по оценкам, по состоянию на 2022 год в TikTok насчитывается 10 000 модераторов контента , в Facebook — 15 000, а в Twitter — 1500. [4]

Глобальная цепочка создания стоимости модерации контента обычно включает платформы социальных сетей, крупные многонациональные компании и поставщиков услуг модерации контента. Платформы социальных сетей (например, Facebook, Google) в основном базируются в Соединенных Штатах, Европе и Китае. Многонациональные компании (например, Accenture , Foiwe ) обычно имеют штаб-квартиры на глобальном севере или в Индии, в то время как поставщики услуг модерации контента в основном находятся в странах глобального юга, таких как Индия и Филиппины. [5] : 79–81 

Хотя в свое время эта работа могла выполняться волонтерами в рамках интернет-сообщества, для коммерческих веб-сайтов это в значительной степени достигается путем аутсорсинга задачи специализированным компаниям, часто в регионах с низкой заработной платой, таких как Индия и Филиппины. Аутсорсинг работ по модерации контента вырос в результате бума социальных сетей . С ошеломляющим ростом пользователей и пользовательского контента компаниям требовалось гораздо больше сотрудников для модерации контента. В конце 1980-х и начале 1990-х годов технологические компании начали передавать работу на аутсорсинг в зарубежные страны, где была образованная рабочая сила, но которые были готовы работать за дешевую плату. [6]

Условия труда

Сотрудники работают, просматривая, оценивая и удаляя тревожный контент. [7] Wired сообщил в 2014 году, что они могут получить психологический ущерб [8] [9] [10] [2] [11] В 2017 году Guardian сообщила , что может возникнуть вторичная травма с симптомами, похожими на ПТСР . [12] Некоторые крупные компании, такие как Facebook, предлагают психологическую поддержку [12] и все больше полагаются на использование искусственного интеллекта для сортировки наиболее наглядного и ненадлежащего контента, но критики утверждают, что этого недостаточно. [13] В 2019 году NPR назвало это риском для работы. [14] Соглашения о неразглашении являются нормой при найме модераторов контента. Это заставляет модераторов более неохотно говорить об условиях работы или организации. [4]

Психологические риски, включая стресс и посттравматическое стрессовое расстройство , в сочетании с ненадежностью алгоритмического управления и низкой заработной платой делают модерацию контента чрезвычайно сложной. [15] : 123  Количество выполненных задач, например , маркировка контента как нарушающего авторские права, удаление поста, содержащего разжигание ненависти, или просмотр графического контента, количественно оценивается для обеспечения производительности и качества . [4]

В феврале 2019 года в отчете о расследовании The Verge были описаны плохие условия труда в офисе Cognizant в Финиксе , штат Аризона . [16] У сотрудников Cognizant, которым было поручено модерировать контент для Facebook, развились проблемы с психическим здоровьем , включая посттравматическое стрессовое расстройство , в результате воздействия сцен насилия , разжигания ненависти и теорий заговора в видеороликах, которые им было поручено оценивать. [16] [17] Модераторы в офисе в Финиксе сообщали о злоупотреблении наркотиками , злоупотреблении алкоголем и половых сношениях на рабочем месте и опасались возмездия со стороны уволенных работников, которые угрожали причинить им вред. [16] [18] В ответ представитель Cognizant заявил, что компания изучит проблемы, изложенные в отчете. [16]

The Verge опубликовал повторное расследование офиса Cognizant в Тампе, штат Флорида , в июне 2019 года. [19] [20] Сотрудники офиса в Тампе описали условия работы, которые были хуже, чем условия в офисе в Финиксе. [19] [21] [22]

Модераторы должны были подписать соглашения о неразглашении с Cognizant, чтобы получить работу, хотя трое бывших работников нарушили соглашения, чтобы предоставить информацию The Verge . [19] [23] В офисе в Тампе работники сообщили о нехватке ресурсов психического здоровья. [19] [24] В результате воздействия видеороликов, демонстрирующих откровенное насилие, жестокое обращение с животными и сексуальное насилие над детьми , у некоторых сотрудников развилась психологическая травма и посттравматическое стрессовое расстройство. [19] [25] В ответ на негативное освещение, связанное с его контрактами на модерацию контента, директор Facebook указал, что Facebook находится в процессе создания «глобальной команды по обеспечению устойчивости», которая будет помогать его подрядчикам. [19]

Фейсбук

Facebook увеличил количество модераторов контента с 4500 до 7500 в 2017 году из-за юридических требований и других противоречий . В Германии Facebook отвечал за удаление разжигающих ненависть высказываний в течение 24 часов с момента их публикации. [26] В конце 2018 года Facebook создал надзорный совет или внутренний «Верховный суд», чтобы решать, какой контент остается, а какой удаляется. [14]

По словам Фрэнсис Хауген , по состоянию на 2021 год число сотрудников Facebook, ответственных за модерацию контента, было значительно меньше. [27]

Твиттер

Социальная сеть Twitter имеет политику приостановки . В период с августа 2015 года по декабрь 2017 года она заблокировала более 1,2 миллиона аккаунтов за террористический контент, чтобы сократить количество подписчиков и объем контента, связанного с Исламским государством. [28] После приобретения Twitter Илоном Маском в октябре 2022 года правила в отношении контента были ослаблены на всей платформе в попытке отдать приоритет свободе слова. [29] Однако последствия этой кампании были поставлены под сомнение. [30] [31]

Распределенная модерация

Модерация пользователей

Модерация пользователей позволяет любому пользователю модерировать вклады любого другого пользователя. Миллиарды людей в настоящее время ежедневно принимают решения о том, чем поделиться, что переслать или что сделать видимым. [32] На большом сайте с достаточно большой активной аудиторией это обычно работает хорошо, поскольку относительно небольшое количество нарушителей спокойствия отсеивается голосами остального сообщества.

Пользовательская модерация также может быть охарактеризована как реактивная модерация. Этот тип модерации зависит от пользователей платформы или сайта, которые сообщают о контенте, который является ненадлежащим и нарушает стандарты сообщества . В этом процессе, когда пользователи сталкиваются с изображением или видео, которые они считают неподходящими, они могут нажать кнопку «пожаловаться». Жалоба подается и ставится в очередь для рассмотрения модераторами. [33]

Объединение в профсоюзы

150 модераторов контента, заключивших контракты с Meta , ByteDance и OpenAI, собрались в Найроби, Кения, чтобы 1 мая 2023 года основать первый африканский профсоюз модераторов контента. Этот профсоюз был создан через 4 года после того, как Дэниел Мотаунг был уволен и подвергся репрессиям за организацию профсоюза в Sama , которая заключила контракты с Facebook. [34]

Смотрите также

Ссылки

  1. ^ abcd Грыгель, Дженнифер; Браун, Нина (июнь 2019 г.). «Мотивированы ли компании социальных сетей быть хорошими корпоративными гражданами? Изучение связи между корпоративной социальной ответственностью и безопасностью социальных сетей». Политика в области телекоммуникаций . 43 (5): 2, 3. doi : 10.1016/j.telpol.2018.12.003. S2CID  158295433. Получено 25 мая 2022 г.
  2. ^ ab «Невидимые уборщики данных зачищают самые популярные сайты — Al Jazeera America». aljazeera.com .
  3. ^ "За экраном: модерация коммерческого контента (CCM)". Сара Т. Робертс | Иллюзия воли . 2012-06-20 . Получено 03.02.2017 .
  4. ^ abc Wamai, Jacqueline Wambui; Kalume, Maureen Chadi; Gachuki, Monicah; Mukami, Agnes (2023). «Новый общественный договор для платформ социальных сетей: приоритет прав и условий труда для создателей контента и модераторов | Международная организация труда». Международный журнал исследований труда . 12 (1–2). Международная организация труда . Получено 21 июля 2024 г.
  5. ^ Ахмад, Сана; Крживдзински, Мартин (2022), Грэм, Марк; Феррари, Фабиан (ред.), «Модерирование в безвестности: как индийские модераторы контента работают в глобальных цепочках создания стоимости модерации контента», Цифровая работа на планетарном рынке , MIT Press , стр. 77–95, ISBN 978-0-262-36982-4, получено 2024-07-22
  6. ^ Эллиотт, Виттория; Пармар, Текендра (22 июля 2020 г.). ""Тьма и отчаяние людей доберутся до тебя"". остальной мир .
  7. Стоун, Брэд (18 июля 2010 г.). «Озабоченность теми, кто проверяет Интернет на варварство». The New York Times .
  8. ^ Адриан Чен (23 октября 2014 г.). «Работники, которые не допускают в свою ленту новостей Facebook фотографии членов и обезглавливания». WIRED . Архивировано из оригинала 13 сентября 2015 г.
  9. ^ "Невидимые пожиратели грехов в Интернете". The Awl . Архивировано из оригинала 2015-09-08.
  10. ^ "Профессор раскрывает скрытую рабочую силу Интернета". Western News . 19 марта 2014 г.
  11. ^ «Следует ли Facebook блокировать оскорбительные видео до их публикации?». WIRED . 26 августа 2015 г.
  12. ^ ab Оливия Солон (2017-05-04). «Facebook нанимает модераторов. Но не слишком ли ужасна эта работа?». The Guardian . Получено 2018-09-13 .
  13. ^ Оливия Солон (25.05.2017). «Недоплачиваемая и перегруженная: жизнь модератора Facebook». The Guardian . Получено 13.09.2018 .
  14. ^ ab Gross, Terry. «Для модераторов контента Facebook травмирующий материал — это профессиональная опасность». NPR.org .
  15. ^ Джиллеспи, Тарлтон (2018). Хранители интернета: платформы, модерация контента и скрытые решения, которые формируют социальные медиа (PDF) . Yale University Press . ISBN 978-0-300-23502-9.
  16. ^ abcd Ньютон, Кейси (25 февраля 2019 г.). «Тайная жизнь модераторов Facebook в Америке». The Verge . Архивировано из оригинала 21 февраля 2021 г. Получено 20 июня 2019 г.
  17. ^ Файнер, Лорен (25 февраля 2019 г.). «Рецензенты контента Facebook справляются с симптомами ПТСР, занимаясь сексом и употребляя наркотики на работе, говорится в отчете». CNBC . Архивировано из оригинала 20 июня 2019 г. Получено 20 июня 2019 г.
  18. ^ Сильверштейн, Джейсон (25 февраля 2019 г.). «Facebook обещает улучшить проверку контента после того, как модераторы заявили, что страдали от посттравматического стрессового расстройства». CBS News . Архивировано из оригинала 20 июня 2019 г. Получено 20 июня 2019 г.
  19. ^ abcdef Ньютон, Кейси (19 июня 2019 г.). «Три модератора Facebook нарушают свои соглашения о неразглашении, чтобы разоблачить компанию, находящуюся в кризисе». The Verge . Архивировано из оригинала 12 сентября 2022 г. Получено 20 июня 2019 г.
  20. ^ Бридж, Марк (20 июня 2019 г.). «Сотрудник Facebook, умерший от сердечного приступа, находился под «неземным» давлением» . The Times . ISSN  0140-0460. Архивировано из оригинала 20 июня 2019 г. Получено 20 июня 2019 г.
  21. ^ Карбоне, Кристофер (20 июня 2019 г.). «Модератор Facebook умирает после просмотра ужасающих видео, другие делятся тревожными инцидентами: отчет». Fox News . Архивировано из оригинала 21 июня 2019 г. Получено 21 июня 2019 г.
  22. ^ Eadicicco, Lisa (19 июня 2019 г.). «Модератор контента Facebook умер после перенесенного сердечного приступа на работе». San Antonio Express-News . Архивировано из оригинала 30 ноября 2019 г. Получено 20 июня 2019 г.
  23. ^ Файнер, Лорен (19 июня 2019 г.). «Модераторы контента Facebook нарушают соглашения о неразглашении, чтобы раскрыть шокирующие условия труда, включающие ужасные видео и размазанные по стенам фекалии». CNBC . Архивировано из оригинала 19 июня 2019 г. Получено 20 июня 2019 г.
  24. ^ Джонсон, О'Райан (19 июня 2019 г.). «Cognizant получает $200 млн от Facebook для модерации агрессивного контента на фоне заявлений о «грязных» условиях работы: отчет». CRN . Архивировано из оригинала 20 июня 2019 г. Получено 20 июня 2019 г.
  25. ^ Bufkin, Ellie (19 июня 2019 г.). «Отчет раскрывает отчаянные условия работы модераторов Facebook — включая смерть». Washington Examiner . Архивировано из оригинала 20 июня 2019 г. Получено 20 июня 2019 г.
  26. ^ «Искусственный интеллект создаст новые виды работы». The Economist . Получено 2017-09-02 .
  27. ^ Бёмерманн, Ян (10.12.2021). Информатор Facebook Фрэнсис Хауген рассказывает о документах Facebook. de:ZDF Magazin Royale.
  28. ^ Гартенштейн-Росс, Дэвид; Кодуваюр, Варша (26 мая 2022 г.). «Новый закон Техаса о социальных сетях создаст убежище для глобальных экстремистов». foreignpolicy.com . Foreign Policy . Получено 27 мая 2022 г. .
  29. ^ "Илон Маск о X: "@essagar Блокировка аккаунта крупной новостной организации в Twitter за публикацию правдивой истории была, очевидно, невероятно неуместной"". Twitter . Получено 21 августа 2023 г.
  30. ^ Бурель, Грегуар; Алани, Харит; Фаррелл, Трейси (2022-05-12). «Илон Маск может отменить модерацию социальных сетей — как раз в тот момент, когда мы узнаем, как она может остановить дезинформацию». The Conversation . Получено 21-08-2023 .
  31. ^ Фанг, Брайан (2 июня 2023 г.). «Twitter теряет своего главного модератора контента в ключевой момент». CNN News .
  32. ^ Хартманн, Ивар А. (апрель 2020 г.). «Новая структура для модерации онлайн-контента». Computer Law & Security Review . 36 : 3. doi : 10.1016/j.clsr.2019.105376. S2CID  209063940. Получено 25 мая 2022 г.
  33. ^ Граймс-Виорт, Блейз (7 декабря 2010 г.). «6 типов модерации контента, о которых вам нужно знать». Social Media Today .
  34. ^ Перриго, Билли (01.05.2023). «150 работников AI проголосовали за объединение в профсоюз на собрании в Найроби». Время . Получено 21.07.2024 .

Дальнейшее чтение

Внешние ссылки