stringtranslate.com

Автоматизированное принятие решений

Автоматизированное принятие решений ( ADM ) подразумевает использование данных, машин и алгоритмов для принятия решений в различных контекстах, включая государственное управление , бизнес, здравоохранение, образование, юриспруденцию, занятость, транспорт, средства массовой информации и развлечения, с различной степенью человеческого контроля или вмешательства. ADM подразумевает крупномасштабные данные из различных источников, таких как базы данных, текст, социальные сети, датчики, изображения или речь, которые обрабатываются с использованием различных технологий, включая компьютерное программное обеспечение, алгоритмы, машинное обучение , обработку естественного языка , искусственный интеллект , дополненный интеллект и робототехнику . Растущее использование автоматизированных систем принятия решений (ADMS) в различных контекстах представляет множество преимуществ и проблем для человеческого общества, требуя рассмотрения технических, правовых, этических, социальных, образовательных, экономических и медицинских последствий. [1] [2] [3]

Обзор

Существуют различные определения ADM в зависимости от уровня задействованной автоматизации. Некоторые определения предполагают, что ADM включает решения, принимаемые с помощью чисто технологических средств без участия человека, [4], например, Общий регламент ЕС о защите данных (статья 22). Однако технологии и приложения ADM могут принимать различные формы, начиная от систем поддержки принятия решений , которые дают рекомендации для лиц, принимающих решения, чтобы действовать в соответствии с ними, иногда называемые дополненным интеллектом [5] или «совместным принятием решений» [2] , до полностью автоматизированных процессов принятия решений, которые принимают решения от имени отдельных лиц или организаций без участия человека. [6] Модели, используемые в автоматизированных системах принятия решений, могут быть такими простыми, как контрольные списки и деревья решений, вплоть до искусственного интеллекта и глубоких нейронных сетей (DNN).

С 1950-х годов компьютеры прошли путь от возможности выполнять базовую обработку до способности выполнять сложные, неоднозначные и требующие высокой квалификации задачи, такие как распознавание изображений и речи, игровой процесс, научный и медицинский анализ и вывод на основе множества источников данных. В настоящее время ADM все чаще внедряется во всех секторах общества и во многих различных областях от развлечений до транспорта.

Система ADM (ADMS) может включать несколько точек принятия решений, наборов данных и технологий (ADMT) и может находиться в более крупной административной или технической системе, такой как система уголовного правосудия или бизнес-процесс.

Данные

Автоматизированное принятие решений подразумевает использование данных в качестве входных данных для анализа в рамках процесса, модели или алгоритма или для обучения и создания новых моделей. [7] Системы ADM могут использовать и подключать широкий спектр типов данных и источников в зависимости от целей и контекста системы, например, данные датчиков для беспилотных автомобилей и робототехники, идентификационные данные для систем безопасности, демографические и финансовые данные для государственного управления, медицинские записи в здравоохранении, записи о судимостях в юриспруденции. Иногда это может включать огромные объемы данных и вычислительную мощность.

Качество данных

Качество доступных данных и их способность использоваться в системах ADM имеют основополагающее значение для результатов. Это часто весьма проблематично по многим причинам. Наборы данных часто сильно различаются; корпорации или правительства могут контролировать крупномасштабные данные, ограниченные по соображениям конфиденциальности или безопасности, неполные, предвзятые, ограниченные по времени или охвату, измеряющие и описывающие термины разными способами и многие другие проблемы.

Для того чтобы машины могли обучаться на основе данных, часто требуются большие массивы данных, которые может быть сложно получить или вычислить; однако, там, где они доступны, они обеспечивают значительные прорывы, например, в диагностике рентгенограмм грудной клетки. [8]

Технологии АДМ

Технологии автоматизированного принятия решений (ADMT) — это программно-кодированные цифровые инструменты, которые автоматизируют преобразование входных данных в выходные данные, способствуя функционированию автоматизированных систем принятия решений. [7] Существует широкий спектр технологий, используемых в приложениях и системах ADM.

ADMT, включающие базовые вычислительные операции

ADMT для оценки и группировки:

ADMT, относящиеся к пространству и потокам:

ADMT для обработки сложных форматов данных

Другие АДМТ

Машинное обучение

Машинное обучение (ML) включает в себя обучение компьютерных программ посредством воздействия на большие наборы данных и примеры для обучения на опыте и решения проблем. [2] Машинное обучение может использоваться для генерации и анализа данных, а также для выполнения алгоритмических вычислений и применялось для распознавания изображений и речи, переводов, текста, данных и моделирования. Хотя машинное обучение существует уже некоторое время, оно становится все более мощным из-за недавних прорывов в обучении глубоких нейронных сетей (DNN) и резкого увеличения емкости хранения данных и вычислительной мощности с помощью сопроцессоров GPU и облачных вычислений. [2]

Системы машинного обучения, основанные на базовых моделях, работают на глубоких нейронных сетях и используют сопоставление с образцом для обучения единой огромной системы на больших объемах общих данных, таких как текст и изображения. Ранние модели, как правило, начинались с нуля для каждой новой проблемы, однако с начала 2020-х годов многие из них могут быть адаптированы к новым проблемам. [9] Примерами этих технологий являются DALL-E (программа создания изображений) от Open AI и их различные языковые модели GPT , а также программа языковой модели PaLM от Google.

Приложения

ADM используется для замены или дополнения человеческого принятия решений как в государственных, так и в частных организациях по ряду причин, в том числе для повышения согласованности, улучшения эффективности, снижения затрат и обеспечения новых решений сложных проблем. [10]

Дебаты

Ведутся исследования и разработки в области использования технологий для оценки качества аргументации, [11] [12] [13] оценки аргументативных эссе [14] [15] и оценки дебатов. [16] [17] [18] [19] Потенциальные приложения этих технологий аргументации охватывают образование и общество. Сценарии для рассмотрения в этом отношении включают те, которые включают оценку и анализ разговорной , математической , научной , интерпретационной , юридической и политической аргументации и дебатов.

Закон

В правовых системах по всему миру алгоритмические инструменты, такие как инструменты оценки риска (RAI), используются для дополнения или замены человеческого суждения судей, государственных служащих и сотрудников полиции во многих контекстах. [20] В Соединенных Штатах RAI используются для генерации оценок с целью прогнозирования риска рецидивизма в предварительном заключении и решениях о вынесении приговоров, [21] оценки условно-досрочного освобождения заключенных и прогнозирования «горячих точек» будущей преступности. [22] [23] [24] Эти оценки могут приводить к автоматическим эффектам или могут использоваться для информирования решений, принимаемых должностными лицами в системе правосудия. [20] В Канаде ADM используется с 2014 года для автоматизации определенных действий, проводимых иммиграционными чиновниками, и для поддержки оценки некоторых заявлений иммигрантов и посетителей. [25]

Экономика

Автоматизированные системы принятия решений используются в определенных компьютерных программах для создания заказов на покупку и продажу, связанных с определенными финансовыми транзакциями, и автоматической отправки заказов на международных рынках. Компьютерные программы могут автоматически генерировать заказы на основе предопределенного набора правил, используя торговые стратегии, основанные на техническом анализе, расширенных статистических и математических вычислениях или входных данных из других электронных источников.

Бизнес

Постоянный аудит

Непрерывный аудит использует передовые аналитические инструменты для автоматизации процессов аудита . Он может использоваться в частном секторе коммерческими предприятиями, а в государственном секторе — правительственными организациями и муниципалитетами. [26] По мере того, как искусственный интеллект и машинное обучение продолжают развиваться, бухгалтеры и аудиторы могут использовать все более сложные алгоритмы, которые принимают решения, например, включающие определение того, что является аномальным, следует ли уведомлять персонал и как расставлять приоритеты в задачах, порученных персоналу.

СМИ и развлечения

Цифровые медиа, развлекательные платформы и информационные сервисы все чаще предоставляют контент аудитории через автоматизированные рекомендательные системы , основанные на демографической информации, предыдущих выборках, совместной фильтрации или фильтрации на основе контента. [27] Сюда входят музыкальные и видеоплатформы, публикации, информация о здоровье, базы данных продуктов и поисковые системы. Многие рекомендательные системы также предоставляют пользователям некоторую агентность в принятии рекомендаций и включают управляемые данными алгоритмические циклы обратной связи, основанные на действиях пользователя системы. [6]

Масштабные модели языка машинного обучения и программы создания изображений, разрабатываемые такими компаниями, как OpenAI и Google в 2020-х годах, имеют ограниченный доступ, однако они, вероятно, найдут широкое применение в таких областях, как реклама, копирайтинг, стоковые изображения и графический дизайн, а также в других областях, таких как журналистика и юриспруденция. [9]

Реклама

Онлайн-реклама тесно интегрирована со многими цифровыми медиа-платформами, веб-сайтами и поисковыми системами и часто включает в себя автоматическую доставку дисплейной рекламы в различных форматах. «Программная» онлайн-реклама включает в себя автоматическую продажу и доставку цифровой рекламы на веб-сайтах и ​​платформах с помощью программного обеспечения, а не прямого принятия решений человеком. [27] Иногда это называют каскадной моделью, которая включает в себя последовательность шагов в различных системах и игроках: издатели и платформы управления данными, пользовательские данные, рекламные серверы и их данные доставки, системы управления запасами, торговцы рекламой и рекламные биржи. [27] С этой системой связаны различные проблемы, включая отсутствие прозрачности для рекламодателей, непроверяемые показатели, отсутствие контроля над рекламными площадками, отслеживание аудитории и проблемы конфиденциальности. [27] Интернет-пользователи, которым не нравится реклама, приняли контрмеры, такие как технологии блокировки рекламы , которые позволяют пользователям автоматически фильтровать нежелательную рекламу с веб-сайтов и некоторых интернет-приложений. В 2017 году у 24% австралийских интернет-пользователей были блокировщики рекламы. [28]

Здоровье

Модели изображений на основе глубокого обучения с использованием искусственного интеллекта используются для анализа рентгеновских снимков и выявления заболеваний глаз, таких как дегенерация желтого пятна.

Социальные услуги

Правительства внедряют цифровые технологии для предоставления более эффективных административных и социальных услуг с начала 2000-х годов, часто называемых электронным правительством . Многие правительства по всему миру в настоящее время используют автоматизированные алгоритмические системы для профилирования и таргетирования политик и услуг, включая алгоритмическую полицию на основе рисков, сортировку наблюдения за людьми, такую ​​как досмотр в аэропортах, предоставление услуг на основе профилей риска в области защиты детей, предоставление услуг по трудоустройству и управление безработными. [29] Значительное применение ADM в социальных услугах связано с использованием предиктивной аналитики — например, прогнозирование рисков для детей от жестокого обращения/пренебрежения в области защиты детей , прогнозирование рецидивизма или преступности в полиции и уголовном правосудии, прогнозирование мошенничества в сфере социального обеспечения/налоговых выплат в системах соответствия, прогнозирование долгосрочной безработицы в службах занятости. Исторически эти системы были основаны на стандартном статистическом анализе, однако с начала 2000-х годов все чаще разрабатывается и внедряется машинное обучение. Ключевые проблемы с использованием ADM в социальных службах включают предвзятость, справедливость, подотчетность и объяснимость, что относится к прозрачности причин принятия решения и способности объяснить основу, на которой машина приняла решение. [29] Например, федеральное агентство социального обеспечения Австралии Centrelink разработало и внедрило автоматизированные процессы для обнаружения и взыскания задолженности, что привело к многочисленным случаям неправомерного взыскания задолженности в рамках так называемой схемы RoboDebt . [30]

Транспорт и мобильность

Подключенная и автоматизированная мобильность (CAM) включает в себя автономные транспортные средства , такие как беспилотные автомобили и другие виды транспорта, которые используют автоматизированные системы принятия решений для замены различных аспектов человеческого контроля над транспортным средством. [31] Это может варьироваться от уровня 0 (полное человеческое вождение) до уровня 5 (полная автономность). [2] На уровне 5 машина способна принимать решения для управления транспортным средством на основе моделей данных и геопространственного картирования, а также датчиков в реальном времени и обработки окружающей среды. Автомобили с уровнями 1–3 уже доступны на рынке в 2021 году. В 2016 году правительство Германии создало «Комиссию по этике автоматизированного и подключенного вождения», которая рекомендовала разрабатывать подключенные и автоматизированные транспортные средства (CAV), если системы вызывают меньше аварий, чем водители-люди (положительный баланс риска). Она также предоставила 20 этических правил для адаптации автоматизированного и подключенного вождения. [32] В 2020 году стратегия Европейской комиссии по CAM рекомендовала принять их в Европе для снижения смертности на дорогах и снижения выбросов, однако беспилотные автомобили также поднимают множество политических, безопасных и правовых вопросов с точки зрения ответственности и этического принятия решений в случае аварий, а также вопросов конфиденциальности. [31] Вопросы доверия к автономным транспортным средствам и обеспокоенность общества их безопасностью являются ключевыми факторами, которые необходимо учитывать, если беспилотные автомобили должны получить широкое распространение. [33]

Наблюдение

Автоматизированный сбор цифровых данных с помощью датчиков, камер, онлайн-транзакций и социальных сетей значительно расширил сферу, масштаб и цели практики и учреждений наблюдения в государственном и коммерческом секторах. [34] В результате произошел значительный сдвиг от целевого мониторинга подозреваемых к возможности мониторинга целых групп населения. [35] Уровень наблюдения, который теперь возможен в результате автоматизированного сбора данных, был описан как капитализм наблюдения или экономика наблюдения, чтобы указать на то, как цифровые медиа включают в себя крупномасштабное отслеживание и накопление данных о каждом взаимодействии.

Этические и правовые вопросы

Существует множество социальных, этических и правовых последствий автоматизированных систем принятия решений. Высказанные опасения включают в себя отсутствие прозрачности и оспариваемости решений, вторжение в частную жизнь и наблюдение, усугубление системной предвзятости и неравенства из-за предвзятости данных и алгоритмов , права интеллектуальной собственности, распространение дезинформации через медиа-платформы, административную дискриминацию, риск и ответственность, безработицу и многое другое. [36] [37] Поскольку ADM становится все более распространенным, все больше возникает необходимость решать этические проблемы для обеспечения надлежащего управления в информационных обществах. [38]

Системы ADM часто основаны на машинном обучении и алгоритмах, которые нелегко просматривать или анализировать, что приводит к опасениям, что они представляют собой системы «черного ящика», которые непрозрачны и не подотчетны. [2]

В отчете лаборатории Citizen в Канаде утверждается необходимость критического анализа прав человека при применении ADM в различных областях, чтобы гарантировать, что использование автоматизированного принятия решений не приведет к нарушению прав, включая права на равенство и недискриминацию; свободу передвижения, выражения мнений, вероисповедания и объединений; права на неприкосновенность частной жизни и права на жизнь, свободу и безопасность личности. [25]

Законодательные меры реагирования на ADM включают:

Предвзятость

ADM может включать в себя алгоритмическую предвзятость, возникающую из-за:

Объяснимость

Вопросы предвзятых или неверных данных или алгоритмов и опасения, что некоторые ADM являются технологиями черного ящика, закрытыми для человеческого контроля или допроса, привели к тому, что называется проблемой объяснимости или права на объяснение автоматизированных решений и ИИ. Это также известно как объяснимый ИИ (XAI) или интерпретируемый ИИ, в котором результаты решения могут быть проанализированы и поняты людьми. Считается, что алгоритмы XAI следуют трем принципам: прозрачность, интерпретируемость и объяснимость.

Асимметрия информации

Автоматизированное принятие решений может увеличить информационную асимметрию между людьми, чьи данные поступают в систему, и платформами и системами принятия решений, способными выводить информацию из этих данных. С другой стороны, было замечено, что в финансовой торговле информационная асимметрия между двумя искусственными интеллектуальными агентами может быть намного меньше, чем между двумя человеческими агентами или между человеческими и машинными агентами. [45]

Направления исследований

Многие академические дисциплины и области все больше обращают внимание на разработку, применение и последствия ADM, включая бизнес, компьютерные науки, взаимодействие человека с компьютером (HCI), право, государственное управление, а также медиа и коммуникации. Автоматизация медиаконтента и алгоритмически управляемых новостей, видео и другого контента через поисковые системы и платформы является основным направлением академических исследований в области медиа. [27]

Конференция ACM по вопросам справедливости, подотчетности и прозрачности (ACM FAccT) была создана в 2018 году для изучения прозрачности и объяснимости в контексте социально-технических систем, многие из которых включают ADM и ИИ.

Основные исследовательские центры, изучающие АДМ, включают:

Смотрите также

Ссылки

  1. ^ Марабелли, Марко; Ньюэлл, Сью; Ханданге, Валери (2021). «Жизненный цикл алгоритмических систем принятия решений: организационный выбор и этические проблемы». Журнал стратегических информационных систем . 30 (1): 101683. doi :10.1016/j.jsis.2021.101683 . Получено 1 ноября 2022 г.
  2. ^ abcdef Ларус, Джеймс; Ханкин, Крис; Карсон, Сири Гранум; Кристен, Маркус; Крафа, Сильвия; Грау, Оливер; Киршнер, Клод; Ноулз, Бран; МакГеттрик, Эндрю; Тамбурри, Дамиан Эндрю; Вертнер, Ханнес (2018). Когда компьютеры принимают решения: Европейские рекомендации по автоматизированному принятию решений с использованием машинного обучения. Нью-Йорк: Ассоциация вычислительной техники. doi : 10.1145/3185595.
  3. ^ Мёкандер, Якоб; Морли, Джессика; Таддео, Мариаросария; Флориди, Лучано (2021-07-06). «Этический аудит автоматизированных систем принятия решений: природа, область применения и ограничения». Science and Engineering Ethics . 27 (4): 44. arXiv : 2110.10980 . doi :10.1007/s11948-021-00319-4. ISSN  1471-5546. PMC 8260507 . PMID  34231029. 
  4. ^ Управление комиссара по информации Великобритании (24.09.2021). Руководство по общему регламенту по защите данных Великобритании (GDPR) (отчет). Управление комиссара по информации Великобритании. Архивировано из оригинала 21.12.2018 . Получено 05.10.2021 .
  5. ^ Криггер, Э.; Хури, К. (2019-02-01). «Разработка политики в области дополненного интеллекта в здравоохранении». Журнал этики AMA . 21 (2): E188–191. doi : 10.1001/amajethics.2019.188 . ISSN  2376-6980. PMID  30794129. S2CID  73490120.
  6. ^ ab Араужо, Тео; Хельбергер, Натали; Крукемейер, Санне; де Вризе, Клас Х. (01.09.2020). «Чему мы доверяем? Представления об автоматизированном принятии решений искусственным интеллектом» (PDF) . ИИ и общество . 35 (3): 611–623. doi :10.1007/s00146-019-00931-w. hdl :11245.1/b73d4d3f-8ab9-4b63-b8a8-99fb749ab2c5. ISSN  1435-5655. S2CID  209523258.
  7. ^ ab Algorithm Watch (2020). Automating Society 2019. Algorithm Watch (Отчет) . Получено 28.02.2022 .
  8. ^ Seah, Jarrel CY; Tang, Cyril HM; Buchlak, Quinlan D; Holt, Xavier G; Wardman, Jeffrey B; Aimoldin, Anuar; Esmaili, Nazanin; Ahmad, Hassan; Pham, Hung; Lambert, John F; Hachey, Ben (август 2021 г.). «Влияние комплексной модели глубокого обучения на точность интерпретации рентгенограмм грудной клетки рентгенологами: ретроспективное многопользовательское исследование». The Lancet Digital Health . 3 (8): e496–e506. doi : 10.1016/s2589-7500(21)00106-0 . ISSN  2589-7500. PMID  34219054. S2CID  235735320.
  9. ^ ab Snoswell, Aaron J.; Hunter, Dan (13 апреля 2022 г.). «Роботы создают изображения и рассказывают шутки. 5 вещей, которые нужно знать о базовых моделях и следующем поколении ИИ». The Conversation . Получено 21 апреля 2022 г.
  10. ^ Таддео, Мариаросария; Флориди, Лучано (2018-08-24). «Как ИИ может быть силой добра». Science . 361 (6404): 751–752. Bibcode :2018Sci...361..751T. doi : 10.1126/science.aat5991 . ISSN  0036-8075. PMID  30139858. S2CID  52075037.
  11. ^ Ваксмут, Хеннинг; Надери, Нона; Хоу, Юфанг; Билу, Йонатан; Прабхакаран, Винодкумар; Тайм, Тим; Херст, Грэма; Стайн, Бенно (2017). «Оценка качества вычислительной аргументации на естественном языке» (PDF) . Труды 15-й конференции Европейского отделения Ассоциации компьютерной лингвистики . С. 176–187.
  12. ^ Ваксмут, Хеннинг; Надери, Нона; Хабернал, Иван; Хоу, Юфан; Хирст, Грэм; Гуревич, Ирина; Стайн, Бенно (2017). «Оценка качества аргументации: теория против практики» (PDF) . Труды 55-го ежегодного заседания Ассоциации компьютерной лингвистики . С. 250–255.
  13. ^ Гретц, Шай; Фридман, Рони; Коэн-Карлик, Эдо; Толедо, Ассаф; Лахав, Дан; Ахаронов, Ранит; Слоним, Ноам (2020). «Крупномасштабный набор данных для ранжирования качества аргументов: построение и анализ». Труды конференции AAAI по искусственному интеллекту . Том 34. С. 7805–7813.
  14. ^ Грин, Нэнси (2013). «К автоматизированному анализу студенческих аргументов». Международная конференция по искусственному интеллекту в образовании . Springer. стр. 591–594. doi :10.1007/978-3-642-39112-5_66.
  15. ^ Персинг, Айзек; Нг, Винсент (2015). «Моделирование силы аргумента в студенческих эссе» (PDF) . Труды 53-го ежегодного заседания Ассоциации компьютерной лингвистики и 7-й Международной совместной конференции по обработке естественного языка . стр. 543–552.
  16. ^ Брильман, Маартен; Шерер, Стефан (2015). «Мультимодальная прогностическая модель успешных дебатов или как я научился влиять на голоса». Труды 23-й международной конференции ACM по мультимедиа . С. 149–158. doi :10.1145/2733373.2806245.
  17. ^ Поташ, Питер; Румшиски, Анна (2017). «На пути к автоматизации дебатов: рекуррентная модель для прогнозирования победителей дебатов» (PDF) . Труды конференции 2017 года по эмпирическим методам обработки естественного языка . стр. 2465–2475.
  18. ^ Сантос, Педро; Гуревич, Ирина (2018). «Мультимодальное прогнозирование впечатления аудитории в политических дебатах». Труды 20-й Международной конференции по мультимодальному взаимодействию . С. 1–6. doi :10.1145/3281151.3281157.
  19. ^ Ван, Лу; Бошамп, Ник; Шугарс, Сара; Цинь, Кечен (2017). «Победа по существу: совместное влияние содержания и стиля на результаты дебатов». Труды Ассоциации компьютерной лингвистики . 5. MIT Press: 219–232. arXiv : 1705.05040 . doi : 10.1162/tacl_a_00057 . S2CID  27803846.
  20. ^ ab Chohlas-Wood, Alex (2020). Понимание инструментов оценки риска в уголовном правосудии. Brookings Institution.
  21. ^ Angwin, Julia ; Larson, Jeff; Mattu, Surya (23 мая 2016 г.). "Machine Bias". ProPublica . Архивировано из оригинала 2021-10-04 . Получено 2021-10-04 .
  22. ^ Ниссан, Эфраим (01.08.2017). «Цифровые технологии и искусственное интеллектуальное настоящее и прогнозируемое влияние на адвокатуру, судопроизводство, полицейскую деятельность и правоохранительные органы». AI & Society . 32 (3): 441–464. doi :10.1007/s00146-015-0596-5. ISSN  1435-5655. S2CID  21115049.
  23. ^ Дрессель, Джулия; Фарид, Хани (2018). «Точность, справедливость и пределы прогнозирования рецидивизма». Science Advances . 4 (1): eaao5580. Bibcode : 2018SciA....4.5580D. doi : 10.1126/sciadv.aao5580. PMC 5777393. PMID  29376122 . 
  24. ^ Фергюсон, Эндрю Гатри (2017). Рост использования больших данных в полиции: наблюдение, раса и будущее правоохранительных органов . Нью-Йорк: NYU Press. ISBN 9781479869978.
  25. ^ ab Molnar, Petra; Gill, Lex (2018). Bots at the Gate: A Human Rights Analysis of Automated Decision-Daking in the Immigration and Refugee System in Canada. Citizen Lab и Международная программа по правам человека (Юридический факультет, Университет Торонто).
  26. ^ Эззамури, Науал; Хулстийн, Йорис (2018). «Непрерывный мониторинг и аудит в муниципалитетах». Труды 19-й ежегодной международной конференции по исследованиям цифрового правительства: управление в эпоху данных . стр. 1–10. doi : 10.1145/3209281.3209301 .
  27. ^ abcde Томас, Джулиан (2018). «Программирование, фильтрация, блокировка рекламы: автоматизация рекламы и медиа». Media International Australia . 166 (1): 34–43. doi : 10.1177/1329878X17738787. ISSN  1329-878X. S2CID  149139944. Q110607881.
  28. ^ Newman, N; Fletcher, R; Kalogeropoulos, A (2017). Reuters Institute Digital News Report (Report). Reuters Institute for the Study of Journalism. Архивировано из оригинала 2013-08-17 . Получено 2022-01-19 .
  29. ^ ab Хенман, Пол (2019-01-02). «О алгоритмах, приложениях и советах: цифровая социальная политика и предоставление услуг». Журнал азиатской государственной политики . 12 (1): 71–89. doi :10.1080/17516234.2018.1495885. ISSN  1751-6234. S2CID  158229201.
  30. ^ Хенман, Пол (2017). «Компьютер говорит «долг»: на пути к критической социологии алгоритмов и алгоритмического управления». Данные для политики 2017: правительство по алгоритму? Конференция, Лондон . doi : 10.5281/ZENODO.884116. S2CID  158228131.
  31. ^ ab Генеральный директорат ЕС по исследованиям и инновациям (2020). Этика подключенных и автоматизированных транспортных средств: рекомендации по безопасности дорожного движения, конфиденциальности, справедливости, объяснимости и ответственности. LU: Бюро публикаций Европейского Союза. doi : 10.2777/035239. ISBN 978-92-76-17867-5.
  32. ^ Федеральное министерство транспорта и цифровых инфраструктур. Полный отчет Комиссии по этике об автоматизированном и подключенном вождении. www.bmvi.de (Отчет). Правительство Германии. Архивировано из оригинала 2017-09-04 . Получено 2021-11-23 .
  33. ^ Раатс, Каспар; Форс, Вайке; Пинк, Сара (01.09.2020). «Доверие автономным транспортным средствам: междисциплинарный подход». Транспортные исследования Междисциплинарные перспективы . 7 : 100201. Bibcode : 2020TrRIP...700201R. doi : 10.1016/j.trip.2020.100201 . ISSN  2590-1982. S2CID  225261480.
  34. ^ Андреевич, Марк (2021). «Автоматизированное наблюдение». Справочник Routledge по цифровым медиа и коммуникациям . Лия А. Ливроу, Брайан Лоудер. Абингдон, Оксон: Тейлор и Фрэнсис. ISBN 978-1-315-61655-1. OCLC  1198978596.
  35. ^ Паскуале, Фрэнк (2016). Общество черного ящика: секретные алгоритмы, которые контролируют деньги и информацию . Кембридж, Массачусетс: Издательство Гарвардского университета. ISBN 978-0-674-97084-7. OCLC  946975299.
  36. ^ Юбэнкс, Вирджиния (2018). Автоматизация неравенства: как высокотехнологичные инструменты профилируют, контролируют и наказывают бедных (первое издание). Нью-Йорк, штат Нью-Йорк. ISBN 978-1-250-07431-7. OCLC  1013516195.{{cite book}}: CS1 maint: отсутствует местоположение издателя ( ссылка )
  37. ^ ab Safiya Noble (2018), Алгоритмы угнетения: как поисковые системы усиливают расизм, New York University Press , OL  19734838W, Wikidata  Q48816548
  38. ^ Кэт, Коринн (2018-11-28). «Управление искусственным интеллектом: этические, правовые и технические возможности и проблемы». Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences . 376 (2133): 20180080. Bibcode : 2018RSPTA.37680080C. doi : 10.1098/rsta.2018.0080. PMC 6191666. PMID  30322996. 
  39. ^ "EUR-Lex - 32016R0679 - EN - EUR-Lex" . eur-lex.europa.eu . Проверено 13 сентября 2021 г.
  40. ^ Brkan, Maja (2017-06-12). «Принятие решений с поддержкой ИИ в соответствии с общим регламентом защиты данных». Труды 16-го издания Международной конференции по искусственному интеллекту и праву . ICAIL '17. Лондон, Соединенное Королевство: Ассоциация вычислительной техники. стр. 3–8. doi :10.1145/3086512.3086513. ISBN 978-1-4503-4891-1. S2CID  23933541.
  41. ^ Суд Европейского Союза. «Запрос на предварительное решение от Verwaltungsgericht Wien (Австрия), поданный 16 марта 2022 г. – CK (Дело C-203/22)».
  42. ^ ab Эдвардс, Лилиан; Вил, Майкл (май 2018 г.). «Порабощение алгоритма: от «права на объяснение» к «праву на лучшие решения»?». IEEE Security & Privacy . 16 (3): 46–54. arXiv : 1803.07540 . doi : 10.1109/MSP.2018.2701152. ISSN  1540-7993. S2CID  4049746.
  43. ^ Биннс, Рубен; Вил, Майкл (2021-12-20). «Это ваше окончательное решение? Многоэтапное профилирование, выборочные эффекты и статья 22 GDPR». Международный закон о конфиденциальности данных . 11 (4): 320. doi : 10.1093/idpl/ipab020 . ISSN  2044-3994.
  44. ^ ab Фридман, Батья; Ниссенбаум, Хелен (июль 1996 г.). «Предвзятость в компьютерных системах». ACM Transactions on Information Systems . 14 (3): 330–347. doi : 10.1145/230538.230561 . ISSN  1046-8188. S2CID  207195759.
  45. ^ Марвала, Цилидзи (2017). Искусственный интеллект и экономическая теория: Skynet на рынке . Эван Гурвиц. Чам. ISBN 978-3-319-66104-9. OCLC  1004620876.{{cite book}}: CS1 maint: отсутствует местоположение издателя ( ссылка )