Инициатива в области общественного здравоохранения.
Помощь сообществу волонтеров Wikimedia в снижении уровня притеснений и деструктивного поведения в наших проектах.
Команды по работе с сообществом и взаимодействию с сообществом Фонда Викимедиа работают над многолетним проектом по исследованию, разработке продуктов и развитию политики, чтобы помочь сообществу волонтеров Викимедиа снизить уровень притеснений и деструктивного поведения в наших проектах.
Эта инициатива направлена на устранение основных форм притеснений, о которых сообщалось в исследовании о притеснениях, проведенном Фондом Викимедиа в 2015 году. Оно охватывает широкий спектр различных видов поведения: вандализм контента, преследование, оскорбления, троллинг, доксинг, дискриминацию — все, что направлено на отдельных лиц с целью несправедливого и пагубного внимания.
Это приведет к улучшению как инструментов программного обеспечения MediaWiki (см. #Инструменты по борьбе с домогательствами), так и политик в отношении сообществ, которые больше всего страдают от деструктивного поведения (см. #Развитие и обеспечение соблюдения политики.) Эти улучшения должны быть сделаны при участии и поддержке волонтеров, которые будут использовать инструменты, чтобы наши усилия были успешными (см. #Вклад сообщества.)
В Википедии и других проектах Викимедиа притеснения обычно происходят на страницах обсуждения (статьи, проекта и пользователя), досках объявлений, страницах пользователей и в резюме правок. Война правок и вики-травля также могут быть формами притеснения. Споры о поведении обычно возникают из-за споров о содержании, таких как разногласия по поводу надежности источника, нейтральности точки зрения или форматирования статьи и иерархии контента. Эти споры могут стать притеснениями в тот момент, когда редактор перестает думать об этом как об обсуждении идей и начинает ассоциировать оппонента с идеей — превращая другого редактора во врага, которого нужно выгнать с сайта. Этот нездоровый поворот более вероятен, когда контент тесно связан с идентичностью — полом, расой, сексуальной ориентацией, национальным происхождением — потому что преследователю легко думать о цели как о живом представлении противоположной идеи. Это особенно актуально, когда объект является представителем исторически неблагополучной группы и раскрыл информацию о своей личности в ходе работы над проектами.
Сообщество англоязычной Википедии (и большинство других проектов) разработало политику поведения для своих сообществ, включая политику вежливости , преследования , личных нападок и разрешения споров . Дух этой политики справедлив, но ее реализация затруднена из-за недостатков программного обеспечения MediaWiki и соотношения участников к активным администраторам. [1] Процессы разрешения споров поощряют пользователей пытаться решать проблемы между собой, прежде чем доводить ситуацию до сведения администраторов на доске объявлений администратора, а в крайних случаях — до ArbCom. [2]
Онлайн-преследование является проблемой практически на каждом веб-ресурсе, где взаимодействуют пользователи. В 2014 году исследовательский центр Pew Research Center пришел к выводу, что 40% всех интернет-пользователей стали жертвами онлайн-преследований. [3] В 2015 году Фонд Викимедиа провел опрос о преследовании с участием 3845 пользователей Викимедиа, чтобы глубже понять преследование, происходящее в проектах Викимедиа. 38% респондентов с уверенностью признали, что подвергались преследованию, а 51% респондентов были свидетелями преследований других. Наиболее часто сообщаемые типы преследований включают:
В 2016-17 годах исследователи Jigsaw и Wikimedia использовали методы машинного обучения для оценки домогательств в Wikipedia в исследовательском проекте Detox. Важные выводы включают:
Это исследование является показательным и одним из стимулов для данной Инициативы по общественному здравоохранению, но это только начало исследований, которые нам необходимо провести для того, чтобы это начинание увенчалось успехом.
Сообщество Wikimedia долго боролось с тем, как защитить своих членов от недобросовестных или вредоносных пользователей. Административный набор инструментов, который администраторы проектов могут использовать для блокировки деструктивных пользователей в своих проектах, не претерпел существенных изменений с первых дней существования программного обеспечения MediaWiki. Волонтеры просили Фонд Wikimedia улучшить инструменты блокировки в ряде случаев, включая:
При подготовке к этой инициативе мы обсуждали проблемы с текущими инструментами и процессами с действующими администраторами и функционерами. Эти обсуждения привели к запрошенным улучшениям в нескольких ключевых областях, где администраторы и функционеры видят неотложные потребности — лучшие системы отчетности для волонтеров, более разумные способы раннего обнаружения и решения проблем, а также улучшенные инструменты и рабочие процессы, связанные с процессом блокировки. Эти обсуждения будут продолжаться на протяжении всего процесса. Вклад и участие сообщества будут иметь решающее значение для нашего успеха.
В январе 2017 года Фонд Викимедиа получил первоначальное финансирование в размере 500 000 долларов США от Фонда Крейга Ньюмарка и Благотворительного фонда craigslist для поддержки этой инициативы. [5] Два начальных гранта, каждый по 250 000 долларов США, будут направлены на поддержку разработки инструментов для редакторов-волонтеров и сотрудников, чтобы уменьшить притеснения в Википедии и блокировать преследователей. Предложение о предоставлении гранта доступно для ознакомления на Wikimedia Commons .
Существуют проблемы с измерением притеснений, но мы все равно хотим быть уверены, что наша работа оказывает влияние на сообщество. Текущие идеи включают:
Сбор, включение и обсуждение вклада сообщества жизненно важны для успеха этой инициативы. Мы создаем функции для наших сообществ, чтобы использовать их — если мы будем проектировать в вакууме, наши решения наверняка потерпят неудачу.
Планы, представленные в гранте, на этой странице и в других местах, безусловно, будут меняться со временем, поскольку мы собираем информацию от нашего сообщества (включая жертв преследований, участников и администраторов), учимся на наших исследованиях и учимся на программном обеспечении, которое мы создаем. Вклад сообщества включает, но не ограничивается:
В ходе этой инициативы мы планируем общаться с сообществом посредством регулярного общения в вики (страницы обсуждений, электронная почта, IRC) в дополнение к семинарам в прямом эфире, личным семинарам на хакерских мероприятиях и Wikimanias, а также онлайн-консультациям сообщества. На данный момент лучшее место для обсуждения инициативы Community health — это Wikipedia Talk:Community health initiative .
Короче говоря, мы хотим создать программное обеспечение, которое позволит участникам и администраторам принимать своевременные, обоснованные решения в случае домогательств. Были определены четыре основные области, в которых новые инструменты могут быть полезны для решения и реагирования на домогательства:
Мы хотим сделать так, чтобы редакторам было проще и эффективнее выявлять и отмечать домогательства. В настоящее время мы задаемся вопросом, как можно предотвратить домогательства до их начала и как разрешать незначительные инциденты до того, как они превратятся в более крупные нецивилизованные проблемы.
Возможные особенности:
Согласно исследованию Detox, в английской Википедии о притеснениях сообщается недостаточно. [4] Ни одна жертва притеснений не должна отказываться от редактирования, потому что чувствует себя бессильной сообщить о злоупотреблениях. Мы хотим предоставить жертвам улучшенные способы сообщать о случаях, которые более уважительны к их частной жизни, менее хаотичны и менее стрессовы, чем текущий рабочий процесс. В настоящее время бремя доказывания лежит на жертве, которая должна доказать свою собственную невиновность и вину преследователя, в то время как мы считаем, что программное обеспечение MediaWiki должно выполнять тяжелую работу.
Возможные особенности:
Знание различий, историй и специальных страниц MediaWiki является обязательным для администраторов, чтобы иметь возможность анализировать и оценивать истинную последовательность событий в споре о поведении. Написанные волонтерами инструменты, такие как Editor Interaction Analyzer и WikiBlame, помогают, но текущие процессы отнимают много времени. Мы хотим создать инструменты, которые помогут волонтерам понимать и оценивать случаи домогательств и сообщать о наилучшем способе реагирования.
Возможные особенности:
Мы хотим улучшить существующие инструменты и создать новые, если это необходимо, чтобы удалить проблемных участников из сообществ или определенных областей внутри них и затруднить возвращение заблокированных на сайте пользователей.
Некоторые из этих улучшений уже реализуются как часть списка пожеланий сообщества 2016 года. Для получения дополнительной информации см. meta:Community Tech/Blocking tools.
Возможные особенности:
Помимо создания новых инструментов, мы хотим работать с нашими крупнейшими сообществами, чтобы гарантировать, что их политики поведения пользователей понятны и эффективны, а администраторы, ответственные за обеспечение соблюдения политик, хорошо подготовлены.
Начиная с английской Википедии, большого сообщества, из которого можно получить множество данных, мы предоставим участникам исследования и анализ того, как поведенческие проблемы в английской Википедии a) охватываются политикой и b) реализуются в сообществе, в частности, на досках объявлений, где обсуждаются и предпринимаются действия по проблемам. Мы предоставим исследования альтернативных форм решения конкретных проблем, исследования эффективности и выявления различных подходов, которые нашли успех в других проектах Викимедиа. Это поможет нашим сообществам вносить обоснованные изменения в существующие практики.
Для еженедельных заметок см. Заметки и Заметки о встречах. Для публичных объявлений см. Обновления .
В настоящее время команда обсуждает черный список уведомлений Echo с сообществом Wikimedia, разрабатывает инструменты доверия и безопасности для отдела SuSa, а также исследует арбитраж, фильтр злоупотреблений и доски объявлений администраторов в английской версии Wikipedia.
В настоящее время наши проекты имеют приоритет на рабочей доске Anti-Harassment Phabricator в колонке «Epic backlog». Мы приглашаем всех поделиться своими мыслями о нашей приоритетности в тикетах Phabricator на странице обсуждения этой страницы или отправив нам электронное письмо .
Приоритетность проектов определяется менеджером по продукту с учетом:
Март 2017 г. – Июнь 2017 г.
Июль 2017 г. - июнь 2018 г.
Июль 2018 г. - июнь 2019 г.
{{cite journal}}
: Цитировать журнал требует |journal=
( помощь ){{cite journal}}
: Цитировать журнал требует |journal=
( помощь )