stringtranslate.com

Википедия:Инициатива общественного здравоохранения

Инициатива в области общественного здравоохранения.
Помощь сообществу волонтеров Wikimedia в снижении уровня притеснений и деструктивного поведения в наших проектах.

Команды по работе с сообществом и взаимодействию с сообществом Фонда Викимедиа работают над многолетним проектом по исследованию, разработке продуктов и развитию политики, чтобы помочь сообществу волонтеров Викимедиа снизить уровень притеснений и деструктивного поведения в наших проектах.

Эта инициатива направлена ​​на устранение основных форм притеснений, о которых сообщалось в исследовании о притеснениях, проведенном Фондом Викимедиа в 2015 году. Оно охватывает широкий спектр различных видов поведения: вандализм контента, преследование, оскорбления, троллинг, доксинг, дискриминацию — все, что направлено на отдельных лиц с целью несправедливого и пагубного внимания.

Это приведет к улучшению как инструментов программного обеспечения MediaWiki (см. #Инструменты по борьбе с домогательствами), так и политик в отношении сообществ, которые больше всего страдают от деструктивного поведения (см. #Развитие и обеспечение соблюдения политики.) Эти улучшения должны быть сделаны при участии и поддержке волонтеров, которые будут использовать инструменты, чтобы наши усилия были успешными (см. #Вклад сообщества.)

Фон

Преследование проектов Викимедиа

В Википедии и других проектах Викимедиа притеснения обычно происходят на страницах обсуждения (статьи, проекта и пользователя), досках объявлений, страницах пользователей и в резюме правок. Война правок и вики-травля также могут быть формами притеснения. Споры о поведении обычно возникают из-за споров о содержании, таких как разногласия по поводу надежности источника, нейтральности точки зрения или форматирования статьи и иерархии контента. Эти споры могут стать притеснениями в тот момент, когда редактор перестает думать об этом как об обсуждении идей и начинает ассоциировать оппонента с идеей — превращая другого редактора во врага, которого нужно выгнать с сайта. Этот нездоровый поворот более вероятен, когда контент тесно связан с идентичностью — полом, расой, сексуальной ориентацией, национальным происхождением — потому что преследователю легко думать о цели как о живом представлении противоположной идеи. Это особенно актуально, когда объект является представителем исторически неблагополучной группы и раскрыл информацию о своей личности в ходе работы над проектами.

Сообщество англоязычной Википедии (и большинство других проектов) разработало политику поведения для своих сообществ, включая политику вежливости , преследования , личных нападок и разрешения споров . Дух этой политики справедлив, но ее реализация затруднена из-за недостатков программного обеспечения MediaWiki и соотношения участников к активным администраторам. [1] Процессы разрешения споров поощряют пользователей пытаться решать проблемы между собой, прежде чем доводить ситуацию до сведения администраторов на доске объявлений администратора, а в крайних случаях — до ArbCom. [2]

Исследование по преследованию 2015 г. — отчет о результатах

Онлайн-преследование является проблемой практически на каждом веб-ресурсе, где взаимодействуют пользователи. В 2014 году исследовательский центр Pew Research Center пришел к выводу, что 40% всех интернет-пользователей стали жертвами онлайн-преследований. [3] В 2015 году Фонд Викимедиа провел опрос о преследовании с участием 3845 пользователей Викимедиа, чтобы глубже понять преследование, происходящее в проектах Викимедиа. 38% респондентов с уверенностью признали, что подвергались преследованию, а 51% респондентов были свидетелями преследований других. Наиболее часто сообщаемые типы преследований включают:

В 2016-17 годах исследователи Jigsaw и Wikimedia использовали методы машинного обучения для оценки домогательств в Wikipedia в исследовательском проекте Detox. Важные выводы включают:

Это исследование является показательным и одним из стимулов для данной Инициативы по общественному здравоохранению, но это только начало исследований, которые нам необходимо провести для того, чтобы это начинание увенчалось успехом.

Запросы сообщества на новые инструменты

Сообщество Wikimedia долго боролось с тем, как защитить своих членов от недобросовестных или вредоносных пользователей. Административный набор инструментов, который администраторы проектов могут использовать для блокировки деструктивных пользователей в своих проектах, не претерпел существенных изменений с первых дней существования программного обеспечения MediaWiki. Волонтеры просили Фонд Wikimedia улучшить инструменты блокировки в ряде случаев, включая:

При подготовке к этой инициативе мы обсуждали проблемы с текущими инструментами и процессами с действующими администраторами и функционерами. Эти обсуждения привели к запрошенным улучшениям в нескольких ключевых областях, где администраторы и функционеры видят неотложные потребности — лучшие системы отчетности для волонтеров, более разумные способы раннего обнаружения и решения проблем, а также улучшенные инструменты и рабочие процессы, связанные с процессом блокировки. Эти обсуждения будут продолжаться на протяжении всего процесса. Вклад и участие сообщества будут иметь решающее значение для нашего успеха.

Внешнее финансирование

Предложение о предоставлении гранта 2017 года на проекты Wikimedia по средствам борьбы с домогательствами

В январе 2017 года Фонд Викимедиа получил первоначальное финансирование в размере 500 000 долларов США от Фонда Крейга Ньюмарка и Благотворительного фонда craigslist для поддержки этой инициативы. [5] Два начальных гранта, каждый по 250 000 долларов США, будут направлены на поддержку разработки инструментов для редакторов-волонтеров и сотрудников, чтобы уменьшить притеснения в Википедии и блокировать преследователей. Предложение о предоставлении гранта доступно для ознакомления на Wikimedia Commons .

Цели

Потенциальные показатели успеха

Существуют проблемы с измерением притеснений, но мы все равно хотим быть уверены, что наша работа оказывает влияние на сообщество. Текущие идеи включают:

Вклад сообщества

Сбор, включение и обсуждение вклада сообщества жизненно важны для успеха этой инициативы. Мы создаем функции для наших сообществ, чтобы использовать их — если мы будем проектировать в вакууме, наши решения наверняка потерпят неудачу.

Планы, представленные в гранте, на этой странице и в других местах, безусловно, будут меняться со временем, поскольку мы собираем информацию от нашего сообщества (включая жертв преследований, участников и администраторов), учимся на наших исследованиях и учимся на программном обеспечении, которое мы создаем. Вклад сообщества включает, но не ограничивается:

В ходе этой инициативы мы планируем общаться с сообществом посредством регулярного общения в вики (страницы обсуждений, электронная почта, IRC) в дополнение к семинарам в прямом эфире, личным семинарам на хакерских мероприятиях и Wikimanias, а также онлайн-консультациям сообщества. На данный момент лучшее место для обсуждения инициативы Community health — это Wikipedia Talk:Community health initiative .

Инструменты против домогательств

Короче говоря, мы хотим создать программное обеспечение, которое позволит участникам и администраторам принимать своевременные, обоснованные решения в случае домогательств. Были определены четыре основные области, в которых новые инструменты могут быть полезны для решения и реагирования на домогательства:

Обнаружение

Мы хотим сделать так, чтобы редакторам было проще и эффективнее выявлять и отмечать домогательства. В настоящее время мы задаемся вопросом, как можно предотвратить домогательства до их начала и как разрешать незначительные инциденты до того, как они превратятся в более крупные нецивилизованные проблемы.

Возможные особенности:

Отчетность

Согласно исследованию Detox, в английской Википедии о притеснениях сообщается недостаточно. [4] Ни одна жертва притеснений не должна отказываться от редактирования, потому что чувствует себя бессильной сообщить о злоупотреблениях. Мы хотим предоставить жертвам улучшенные способы сообщать о случаях, которые более уважительны к их частной жизни, менее хаотичны и менее стрессовы, чем текущий рабочий процесс. В настоящее время бремя доказывания лежит на жертве, которая должна доказать свою собственную невиновность и вину преследователя, в то время как мы считаем, что программное обеспечение MediaWiki должно выполнять тяжелую работу.

Возможные особенности:

Оценка

Знание различий, историй и специальных страниц MediaWiki является обязательным для администраторов, чтобы иметь возможность анализировать и оценивать истинную последовательность событий в споре о поведении. Написанные волонтерами инструменты, такие как Editor Interaction Analyzer и WikiBlame, помогают, но текущие процессы отнимают много времени. Мы хотим создать инструменты, которые помогут волонтерам понимать и оценивать случаи домогательств и сообщать о наилучшем способе реагирования.

Возможные особенности:

Блокировка

Мы хотим улучшить существующие инструменты и создать новые, если это необходимо, чтобы удалить проблемных участников из сообществ или определенных областей внутри них и затруднить возвращение заблокированных на сайте пользователей.

Некоторые из этих улучшений уже реализуются как часть списка пожеланий сообщества 2016 года. Для получения дополнительной информации см. meta:Community Tech/Blocking tools.

Возможные особенности:

Развитие политики и ее реализация

Помимо создания новых инструментов, мы хотим работать с нашими крупнейшими сообществами, чтобы гарантировать, что их политики поведения пользователей понятны и эффективны, а администраторы, ответственные за обеспечение соблюдения политик, хорошо подготовлены.

Начиная с английской Википедии, большого сообщества, из которого можно получить множество данных, мы предоставим участникам исследования и анализ того, как поведенческие проблемы в английской Википедии a) охватываются политикой и b) реализуются в сообществе, в частности, на досках объявлений, где обсуждаются и предпринимаются действия по проблемам. Мы предоставим исследования альтернативных форм решения конкретных проблем, исследования эффективности и выявления различных подходов, которые нашли успех в других проектах Викимедиа. Это поможет нашим сообществам вносить обоснованные изменения в существующие практики.

График и приоритетность работы

Прошлые обновления

Для еженедельных заметок см. Заметки и Заметки о встречах. Для публичных объявлений см. Обновления .

Текущий статус

В настоящее время команда обсуждает черный список уведомлений Echo с сообществом Wikimedia, разрабатывает инструменты доверия и безопасности для отдела SuSa, а также исследует арбитраж, фильтр злоупотреблений и доски объявлений администраторов в английской версии Wikipedia.

Приоритезация

В настоящее время наши проекты имеют приоритет на рабочей доске Anti-Harassment Phabricator в колонке «Epic backlog». Мы приглашаем всех поделиться своими мыслями о нашей приоритетности в тикетах Phabricator на странице обсуждения этой страницы или отправив нам электронное письмо .

Приоритетность проектов определяется менеджером по продукту с учетом:

Примерный график

Март 2017 г. – Июнь 2017 г.

Июль 2017 г. - июнь 2018 г.

Июль 2018 г. - июнь 2019 г.

Смотрите также

Ссылки

  1. ^ "Википедия:Список администраторов/Активные". 2017-02-13. {{cite journal}}: Цитировать журнал требует |journal=( помощь )
  2. ^ "Википедия:Преследование § Борьба с преследованием". 2017-02-12. {{cite journal}}: Цитировать журнал требует |journal=( помощь )
  3. ^ Дагган, Мейв (2014-10-22). "Онлайн-преследование". Pew Research Center: Интернет, наука и технологии . Получено 2017-02-13 .
  4. ^ ab «Алгоритмы и оскорбления: расширение нашего понимания домогательств в Википедии – блог Викимедиа» . Получено 13 февраля 2017 г.
  5. ^ "Фонд Викимедиа получает 500 000 долларов от Фонда Крейга Ньюмарка и Благотворительного фонда Craigslist для поддержки здорового и инклюзивного сообщества Викимедиа – Блог Викимедиа" . Получено 13 февраля 2017 г.
  6. ^ "Файл:Предложение о гранте Фонда Викимедиа - Инструменты борьбы с домогательствами для проектов Викимедиа - 2017.pdf - Meta" (PDF) . meta.wikimedia.org . Получено 14.02.2017 .