stringtranslate.com

Модерация контента

Модерация комментариев в обсуждении GitHub , где пользователь по имени Мэллори удалил несколько комментариев, прежде чем закрыть обсуждение и заблокировать его.

На интернет -сайтах , которые приглашают пользователей оставлять комментарии, модерация контента — это процесс обнаружения материалов, которые являются неуместными, непристойными, незаконными, вредными или оскорбительными, в отличие от полезных или информативных материалов, часто для цензуры или подавления противоположных точек зрения. Цель модерации контента — удалить или применить предупреждающий ярлык к проблемному контенту или позволить пользователям самостоятельно блокировать и фильтровать контент. [1]

Различные типы интернет-сайтов допускают пользовательский контент , например комментарии, включая интернет-форумы , блоги и новостные сайты, работающие на основе таких сценариев, как phpBB , Wiki или PHP-Nuke и т. д. В зависимости от содержания сайта и целевой аудитории, администраторы будут решать, какие комментарии пользователей являются уместными, а затем делегировать ответственность за анализ комментариев младшим модераторам . Чаще всего они пытаются устранить троллинг , спам или флейминг , хотя это сильно варьируется от сайта к сайту.

Основные платформы используют комбинацию алгоритмических инструментов, пользовательских отчетов и человеческого анализа. [1] Сайты социальных сетей могут также нанимать модераторов контента для ручной проверки или удаления контента, помеченного как разжигание ненависти или другого нежелательного контента. Другие проблемы содержания включают порноместь , графический контент , материалы о жестоком обращении с детьми и пропаганду . [1] Некоторые веб-сайты также должны сделать свой контент пригодным для рекламы. [1]

В Соединенных Штатах модерация контента регулируется разделом 230 Закона о порядочности в сфере коммуникаций , и несколько дел по этому вопросу дошли до Верховного суда США , например, нынешнее дело Moody v. NetChoice, LLC .

Модерация супервайзера

Эту систему модерации, также известную как односторонняя модерация, часто можно увидеть на интернет-форумах . Администраторы сайта выбирают группу людей (обычно на долгосрочной основе) в качестве делегатов, обеспечивающих соблюдение правил сообщества от их имени. Этим модераторам предоставляются особые привилегии удалять или редактировать материалы других людей и/или исключать людей на основании их адреса электронной почты или IP-адреса , и, как правило, они пытаются удалить негативные комментарии во всем сообществе. Они действуют как хорошая невидимая опора, поддерживая социальную сеть , выполняя решающую, но недооцененную роль. [2]

Фейсбук

По состоянию на 2017 год Facebook увеличил количество модераторов контента с 4500 до 7500 в 2017 году из-за юридических и других разногласий . В Германии Facebook отвечал за удаление высказываний, разжигающих ненависть, в течение 24 часов с момента их публикации. [3] По данным Фрэнсис Хауген , по состоянию на 2021 год количество сотрудников Facebook, ответственных за модерацию контента, было намного меньше. [4]

Если у вас есть новая Страница на Facebook, вы можете управлять следующими настройками модерации:

Твиттер

Сайт социальной сети Twitter имеет политику блокировки . В период с августа 2015 года по декабрь 2017 года оно заблокировало более 1,2 миллиона аккаунтов с террористическим контентом, стремясь сократить количество подписчиков и количество контента, связанного с Исламским государством. [6] После приобретения Twitter Илоном Маском в октябре 2022 года правила содержания на платформе были ослаблены в попытке сделать свободу слова приоритетом. [7] Однако последствия этой кампании были поставлены под сомнение. [8] [9]

Модерация коммерческого контента

Модерация коммерческого контента — это термин, придуманный Сарой Т. Робертс для описания практики «мониторинга и проверки пользовательского контента (UGC) для платформ социальных сетей всех типов, чтобы гарантировать, что контент соответствует правовым и нормативным требованиям». правила сайта/сообщества, пользовательские соглашения и что это соответствует нормам вкуса и приемлемости для этого сайта и его культурного контекста». [10]

Хотя когда-то эта работа могла выполняться добровольцами внутри интернет-сообщества, для коммерческих веб-сайтов это в основном достигается за счет передачи этой задачи специализированным компаниям, часто в регионах с низкой заработной платой, таких как Индия и Филиппины. Аутсорсинг работ по модерации контента вырос в результате бума социальных сетей . В условиях стремительного роста количества пользователей и пользовательского контента компаниям требовалось гораздо больше сотрудников для модерации контента. В конце 1980-х и начале 1990-х технологические компании начали передавать рабочие места в зарубежные страны, которые имели образованную рабочую силу, но были готовы работать за дешевую цену. [11]

По состоянию на 2010 год сотрудники просматривают, оценивают и удаляют тревожный контент. [12] В 2014 году Wired сообщил, что они могут получить психологический ущерб. [13] [14] [15] [2] [16] В 2017 году газета Guardian сообщила, что может возникнуть вторичная травма с симптомами, похожими на посттравматическое стрессовое расстройство . [17] Некоторые крупные компании, такие как Facebook, предлагают психологическую поддержку [17] и все чаще полагаются на использование искусственного интеллекта для сортировки наиболее графического и неприемлемого контента, однако критики утверждают, что этого недостаточно. [18] В 2019 году NPR назвало это опасным для работы. [19]

Фейсбук

Facebook решил создать наблюдательный совет, который будет решать, какой контент останется, а какой будет удален. Такая идея была предложена в конце 2018 года. «Верховный суд» в Facebook должен заменить принятие решений на разовой основе. [19]

Распределенная модерация

Пользовательская модерация

Пользовательская модерация позволяет любому пользователю модерировать вклады других пользователей. Миллиарды людей в настоящее время ежедневно принимают решения о том, чем поделиться, переслать или сделать видимым. [20] На большом сайте с достаточно большим активным населением это обычно работает хорошо, поскольку относительно небольшое количество нарушителей спокойствия отсеивается голосами остального сообщества.

Модерацию пользователей также можно охарактеризовать как реактивную модерацию. Этот тип модерации зависит от пользователей платформы или сайта, сообщающих о неуместном контенте и нарушающем стандарты сообщества . В этом процессе, когда пользователи сталкиваются с изображением или видео, которые они считают неприемлемыми, они могут нажать кнопку «Пожаловаться». Жалоба подана и поставлена ​​в очередь на рассмотрение модераторов. [21]

Использование алгоритмов модерации контента

Смотрите также

Рекомендации

  1. ^ abcd Григель, Дженнифер; Браун, Нина (июнь 2019 г.). «Мотивированы ли компании, занимающиеся социальными сетями, быть хорошими корпоративными гражданами? Исследование связи между корпоративной социальной ответственностью и безопасностью в социальных сетях». Телекоммуникационная политика . 43 (5): 2, 3. doi :10.1016/j.telpol.2018.12.003. S2CID  158295433 . Проверено 25 мая 2022 г.
  2. ^ ab «Невидимые уборщики данных зачищают лучшие веб-сайты - Аль-Джазира Америка» . aljazeera.com .
  3. ^ «Искусственный интеллект создаст новые виды труда» . Экономист . Проверено 2 сентября 2017 г.
  4. ^ Ян Бёмерманн, ZDF Magazin Royale. Информатор Facebook в Фрэнсис Хауген в Talk über die Facebook Papers.
  5. ^ «О модерации новых страниц на Facebook». Справочный центр Мета-бизнеса . Проверено 21 августа 2023 г.
  6. ^ Гартенштейн-Росс, Дэвид; Кодуваюр, Варша (26 мая 2022 г.). «Новый закон Техаса о социальных сетях создаст убежище для глобальных экстремистов». Foreignpolicy.com . Внешняя политика . Проверено 27 мая 2022 г.
  7. ^ «Илон Маск на X: «@essagar Приостановить действие аккаунта крупной новостной организации в Твиттере за публикацию правдивой истории было явно невероятно неуместно»» . Твиттер . Проверено 21 августа 2023 г.
  8. ^ Бюрель, Грегуар; Алани, Харит; Фаррелл, Трейси (12 мая 2022 г.). «Илон Маск мог бы отменить модерацию в социальных сетях – точно так же, как мы изучаем, как это может остановить дезинформацию». Разговор . Проверено 21 августа 2023 г.
  9. Фунг, Брайан (2 июня 2023 г.). «Twitter теряет своего главного специалиста по модерации контента в ключевой момент». Новости CNN .
  10. ^ «За ширмой: модерация коммерческого контента (CCM)» . Сара Т. Робертс | Иллюзия воли . 20 июня 2012 г. Проверено 3 февраля 2017 г.
  11. ^ Эллиотт, Виттория; Пармар, Текендра (22 июля 2020 г.). «"Тьма и отчаяние людей доберутся до тебя"». Остальной мир .
  12. Стоун, Брэд (18 июля 2010 г.). «Забота о тех, кто проверяет Интернет на предмет варварства». Нью-Йорк Таймс .
  13. Адриан Чен (23 октября 2014 г.). «Рабочие, которые не пускают фотографии членов и обезглавливания в вашу ленту на Facebook». ПРОВОДНОЙ . Архивировано из оригинала 13 сентября 2015 г.
  14. ^ «Невидимые пожиратели грехов Интернета». Шило . Архивировано из оригинала 8 сентября 2015 г.
  15. ^ «Западные новости - Профессор раскрывает скрытую рабочую силу Интернета» . Западные новости . 19 марта 2014 г.
  16. ^ «Должен ли Facebook блокировать оскорбительные видео перед их публикацией?» ПРОВОДНОЙ . 26 августа 2015 г.
  17. ^ аб Оливия Солон (04 мая 2017 г.). «Facebook нанимает модераторов. Но неужели эта работа слишком ужасна, чтобы с ней можно было справиться?». Хранитель . Проверено 13 сентября 2018 г.
  18. ^ Оливия Солон (25 мая 2017 г.). «Недоплачивают и перегружены работой: жизнь модератора Facebook». Хранитель . Проверено 13 сентября 2018 г.
  19. ^ аб Гросс, Терри. «Для модераторов контента Facebook травмирующий материал представляет собой опасность для работы». NPR.org .
  20. ^ Хартманн, Ивар А. (апрель 2020 г.). «Новая основа модерации онлайн-контента». Обзор компьютерного права и безопасности . 36 :3. дои :10.1016/j.clsr.2019.105376. S2CID  209063940 . Проверено 25 мая 2022 г.
  21. Граймс-Виорт, Блез (7 декабря 2010 г.). «6 типов модерации контента, о которых вам нужно знать». Социальные сети сегодня .

дальнейшее чтение

Внешние ссылки