stringtranslate.com

КОМПАС (программное обеспечение)

Профилирование управления исправительными правонарушителями для альтернативных санкций ( COMPAS ) [1] — это инструмент управления делами и поддержки принятия решений, разработанный и принадлежащий компании Northpointe (ныне Equivant), используемый судами США для оценки вероятности того, что обвиняемый станет рецидивистом . [2] [3]

COMPAS использовался в штатах США Нью-Йорк, Висконсин, Калифорния, округ Бровард во Флориде и в других юрисдикциях. [4]

Оценка риска

В программе КОМПАС используется алгоритм оценки потенциального риска рецидива. Нортпойнт разработал шкалы риска для общего и насильственного рецидивизма, а также для неправомерных действий на досудебном этапе. Согласно «Руководству для практиков КОМПАС», шкалы были разработаны с использованием поведенческих и психологических конструкций, «имеющих очень большое значение для рецидивизма и преступной карьеры». [5]

Шкала риска освобождения до суда
Риск досудебного разбирательства – это мера вероятности того, что лицо не явится в суд и/или совершит новые тяжкие преступления во время освобождения. Согласно исследованию, на основе которого была создана шкала, «текущие обвинения, ожидаемые обвинения, история предыдущих арестов, предыдущие неудачи на досудебном этапе, стабильность проживания, статус занятости, связи с обществом и злоупотребление психоактивными веществами» являются наиболее значимыми индикаторами, влияющими на оценку риска до суда. [5]
Общая шкала рецидивизма
Шкала общего рецидива предназначена для прогнозирования новых правонарушений после освобождения и после получения оценки COMPAS. Шкала учитывает криминальное прошлое человека и его сообщников, причастность к наркотикам и признаки преступности среди несовершеннолетних. [6]
Шкала насильственного рецидива
Оценка насильственного рецидива предназначена для прогнозирования насильственных преступлений после освобождения. В шкале используются данные или индикаторы, которые включают в себя «историю насилия, историю несоблюдения требований, профессиональные/образовательные проблемы, возраст человека при поступлении и возраст человека при первом аресте». [7]

Шкала риска насильственного рецидива рассчитывается следующим образом:

где – показатель риска насильственного рецидива, – весовой множитель, – текущий возраст, – возраст первого ареста, – история насилия, – шкала профессионального образования и – история несоблюдения требований. Вес «определяется силой связи объекта с рецидивом преступлений, которые мы наблюдали в данных нашего исследования». [8]

Критика и юридические постановления

Вмешательство ИИ и алгоритмов в суд обычно мотивировано когнитивными искажениями , такими как эффект голодного судьи . [9]

В июле 2016 года Верховный суд штата Висконсин постановил, что оценки риска COMPAS могут учитываться судьями при вынесении приговора, но к оценкам должны быть сделаны предупреждения, отражающие «ограничения и предостережения» инструмента. [4]

Общая критика использования проприетарного программного обеспечения, такого как COMPAS, заключается в том, что, поскольку используемые им алгоритмы являются коммерческой тайной , они не могут быть проверены общественностью и заинтересованными сторонами, что может быть нарушением надлежащей правовой процедуры. Кроме того, было показано, что простые, прозрачные и более интерпретируемые алгоритмы (такие как линейная регрессия ) выполняют прогнозы примерно так же хорошо, как алгоритм COMPAS. [10] [11] [12]

Еще одна общая критика алгоритмов, основанных на машинном обучении, заключается в том, что, поскольку они зависят от данных, если данные предвзяты, программное обеспечение, скорее всего, даст необъективные результаты. [13]

В частности, утверждается, что оценки риска COMPAS нарушают 14-ю поправку к правам на равную защиту по признаку расы, поскольку алгоритмы считаются расово-дискриминационными, приводят к несопоставимому обращению и не являются узкоспециализированными. [14]

Точность

В 2016 году Джулия Ангвин была соавтором исследования алгоритма, проведенного ProPublica . [15] Команда обнаружила, что «черные почти в два раза чаще, чем белые, попадают в группу повышенного риска, но на самом деле не совершают повторных правонарушений», в то время как COMPAS «делает противоположную ошибку среди белых: они гораздо чаще, чем черные, получают ярлык с меньшим риском, но продолжайте совершать другие преступления». [15] [10] [16] Они также обнаружили, что только 20 процентов людей, которым предсказывали совершение насильственных преступлений, на самом деле так и сделали. [15]

В письме Нортпойнт раскритиковал методологию ProPublica и заявил, что: «[Компания] не согласна с тем, что результаты вашего анализа или утверждения, сделанные на основе этого анализа, верны или что они точно отражают результаты применения модель." [15]

Другая группа из Community Resources for Justice , аналитического центра по уголовному правосудию , опубликовала опровержение выводов расследования. [17] Среди нескольких возражений, в опровержении CRJ сделан вывод о том, что результаты Propublica: «противоречат нескольким всесторонним существующим исследованиям, в которых делается вывод о том, что актуарный риск можно прогнозировать без расовой и/или гендерной предвзятости». [17]

Последующее исследование показало, что программное обеспечение COMPAS несколько более точно, чем люди с небольшим опытом в области уголовного правосудия или вообще без него, но менее точно, чем группы таких людей. [18] Они обнаружили, что: «В среднем они получали правильный ответ в 63 процентах случаев, а точность группы возрастала до 67 процентов, если их ответы были объединены. COMPAS, напротив, имеет точность 65 процентов». [10] Исследователи из Хьюстонского университета обнаружили, что COMPAS не соответствует критериям групповой справедливости и приводит к различным несправедливым результатам среди демографических групп по полу и расе. [19]

дальнейшее чтение

Смотрите также

Рекомендации

  1. ^ "ДОК КОМПАС" . Проверено 4 апреля 2023 г.
  2. Сэм Корбетт-Дэвис, Эмма Пирсон, Ави Феллер и Шарад Гоэл (17 октября 2016 г.). «Компьютерная программа, используемая для принятия решений об освобождении под залог и вынесении приговора, была названа предвзятой по отношению к чернокожим. На самом деле это не так уж и ясно». Вашингтон Пост . Проверено 1 января 2018 г.{{cite news}}: CS1 maint: multiple names: authors list (link)
  3. Аарон М. Борнштейн (21 декабря 2017 г.). «Строят ли алгоритмы новую инфраструктуру расизма?». Наутилус . № 55 . Проверено 2 января 2018 г.
  4. ^ аб Киркпатрик, Кейт (23 января 2017 г.). «Дело не в алгоритме, а в данных». Коммуникации АКМ . 60 (2): 21–23. дои : 10.1145/3022181. S2CID  33993859.
  5. ^ ab Northpointe 2015, с. 27.
  6. ^ Нортпойнт 2015, с. 26.
  7. ^ Нортпойнт 2015, с. 28.
  8. ^ Нортпойнт 2015, с. 29.
  9. ^ Хациатанасиу, Константин (май 2022 г.). «Остерегайтесь соблазна нарративов: «голодные судьи» не должны мотивировать использование «искусственного интеллекта» в праве». Немецкий юридический журнал . 23 (4): 452–464. дои : 10.1017/glj.2022.32 . ISSN  2071-8322. S2CID  249047713.
  10. ^ abc Йонг, Эд (17 января 2018 г.). «Популярный алгоритм предсказывает преступления не лучше, чем случайные люди» . Проверено 21 ноября 2019 г.
  11. ^ Анджелино, Элейн; Ларус-Стоун, Николас; Алаби, Дэниел; Зельцер, Марго; Рудин, Синтия (июнь 2018 г.). «Изучение достоверно оптимальных списков правил для категориальных данных». Журнал исследований машинного обучения . 18 (234): 1–78. arXiv : 1704.01701 . Проверено 20 июля 2023 г.
  12. ^ Робин А. Смит. Открываем крышку программного обеспечения для вынесения уголовных приговоров. Герцог Сегодня , 19 июля 2017 г.
  13. ^ О'Нил, Кэти (2016). Оружие математического разрушения . Корона. п. 87. ИСБН 978-0553418811.
  14. ^ Томас, К.; Нуньес, А. (2022). «Автоматизация судебного усмотрения: как алгоритмическая оценка рисков в досудебных решениях нарушает права на равную защиту по признаку расы». Закон и неравенство . 40 (2): 371–407. дои : 10.24926/25730037.649 .
  15. ^ abcd Ангвин, Джулия; Ларсон, Джефф (23 мая 2016 г.). «Машинный уклон». ПроПублика . Проверено 21 ноября 2019 г.
  16. ^ Исрани, Эллора (26 октября 2017 г.). «Когда алгоритм помогает отправить вас в тюрьму (мнение)». Нью-Йорк Таймс . Проверено 21 ноября 2019 г.
  17. ^ аб Флорес, Энтони; Ловенкамп, Кристофер; Бектель, Кристин. «Ложноположительные, ложноотрицательные и ложные анализы» (PDF) . Общественные ресурсы для правосудия . Проверено 21 ноября 2019 г.
  18. ^ Дрессел, Джулия; Фарид, Хани (17 января 2018 г.). «Точность, справедливость и пределы прогнозирования рецидивизма». Достижения науки . 4 (1): eaao5580. Бибкод : 2018SciA....4.5580D. дои : 10.1126/sciadv.aao5580 . ПМЦ 5777393 . ПМИД  29376122. 
  19. ^ Гурсой, Фуркан; Какадиарис, Иоаннис А. (28 ноября 2022 г.). «Равная путаница, справедливость: измерение групповых различий в автоматизированных системах принятия решений». Семинары Международной конференции IEEE по интеллектуальному анализу данных 2022 года (ICDMW) . IEEE. стр. 137–146. arXiv : 2307.00472 . doi : 10.1109/ICDMW58026.2022.00027. ISBN 979-8-3503-4609-1. S2CID  256669476.