stringtranslate.com

Автоматизированное принятие решений

Автоматизированное принятие решений ( ADM ) предполагает использование данных, машин и алгоритмов для принятия решений в различных контекстах, включая государственное управление , бизнес, здравоохранение, образование, право, занятость, транспорт, средства массовой информации и развлечения, с различной степенью человеческого участия. надзор или вмешательство. ADM включает в себя крупномасштабные данные из различных источников, таких как базы данных, текст, социальные сети, датчики, изображения или речь, которые обрабатываются с использованием различных технологий, включая компьютерное программное обеспечение, алгоритмы, машинное обучение , обработку естественного языка , искусственный интеллект , дополненную реальность . интеллект и робототехника . Растущее использование автоматизированных систем принятия решений (ADMS) в различных контекстах представляет множество преимуществ и проблем для человеческого общества, требуя рассмотрения технических, юридических, этических, социальных, образовательных, экономических и медицинских последствий. [1] [2] [3]

Обзор

Существуют разные определения ADM в зависимости от уровня автоматизации. Некоторые определения предполагают, что ADM предполагает решения, принимаемые с помощью чисто технологических средств без участия человека, [4] например , Общий регламент ЕС по защите данных (статья 22). Тем не менее, технологии и приложения ADM могут принимать разные формы: от систем поддержки принятия решений , которые дают рекомендации людям, принимающим решения, действовать, иногда называемых расширенным интеллектом [5] или «совместным принятием решений» [2] до полностью автоматизированных процессы принятия решений, которые принимают решения от имени отдельных лиц или организаций без участия человека. [6] Модели, используемые в автоматизированных системах принятия решений, могут быть как простыми, от контрольных списков и деревьев решений, так и до искусственного интеллекта и глубоких нейронных сетей (DNN).

С 1950-х годов компьютеры прошли путь от базовой обработки до способности выполнять сложные, неоднозначные и высококвалифицированные задачи, такие как распознавание изображений и речи, игровой процесс, научный и медицинский анализ и выводы из нескольких источников данных. ADM в настоящее время все чаще применяется во всех секторах общества и во многих различных областях, от развлечений до транспорта.

Система ADM (ADMS) может включать в себя несколько точек принятия решений, наборов данных и технологий (ADMT) и может находиться в более крупной административной или технической системе, такой как система уголовного правосудия или бизнес-процесс.

Данные

Автоматизированное принятие решений предполагает использование данных в качестве входных данных для анализа в рамках процесса, модели или алгоритма или для обучения и создания новых моделей. [7] Системы ADM могут использовать и подключать широкий спектр типов и источников данных в зависимости от целей и контекста системы, например, данные датчиков для беспилотных автомобилей и робототехники, идентификационные данные для систем безопасности, демографические и финансовые данные. для государственного управления, медицинские записи в области здравоохранения, судимости по закону. Иногда для этого могут потребоваться огромные объемы данных и вычислительные мощности.

Качество данных

Качество доступных данных и их возможность использования в системах ADM имеют основополагающее значение для результатов. Зачастую это весьма проблематично по многим причинам. Наборы данных часто сильно варьируются; корпорации или правительства могут контролировать крупномасштабные данные, ограниченные по соображениям конфиденциальности или безопасности, неполные, предвзятые, ограниченные по времени или охвату, измеряющие и описывающие термины по-разному, а также многие другие проблемы.

Чтобы машины могли учиться на данных, часто требуются большие корпуса, получить или вычислить которые может быть сложно; однако там, где они были доступны, они обеспечили значительные прорывы, например, в диагностике рентгенологического исследования грудной клетки. [8]

АДМ Технологии

Технологии автоматизированного принятия решений (ADMT) — это цифровые инструменты с программным кодированием, которые автоматизируют преобразование входных данных в выходные данные, способствуя функционированию автоматизированных систем принятия решений. [7] В приложениях и системах ADM используется широкий спектр технологий.

ADMT, включающие базовые вычислительные операции

ADMT для оценки и группировки:

ADMT, относящиеся к пространству и потокам:

ADMT для обработки сложных форматов данных

Другой АДМТ

Машинное обучение

Машинное обучение (МО) включает в себя обучение компьютерных программ с использованием больших наборов данных и примеров для изучения опыта и решения проблем. [2] Машинное обучение может использоваться для генерации и анализа данных, а также для выполнения алгоритмических вычислений и применяется для распознавания изображений и речи, перевода, текста, данных и моделирования. Хотя машинное обучение существует уже некоторое время, оно становится все более мощным благодаря недавним достижениям в обучении глубоких нейронных сетей (DNN), а также резкому увеличению емкости хранения данных и вычислительной мощности с помощью сопроцессоров графического процессора и облачных вычислений. [2]

Системы машинного обучения, основанные на базовых моделях, работают на глубоких нейронных сетях и используют сопоставление с образцом для обучения одной огромной системы на больших объемах общих данных, таких как текст и изображения. Ранние модели, как правило, начинались с нуля для каждой новой проблемы, однако с начала 2020-х годов многие из них можно адаптировать к новым проблемам. [9] Примерами таких технологий являются DALL-E компании Open AI (программа создания изображений) и различные языковые модели GPT , а также программа языковых моделей Google PaLM.

Приложения

ADM используется для замены или расширения человеческого процесса принятия решений как государственными, так и частными организациями по ряду причин, в том числе для повышения согласованности, повышения эффективности, сокращения затрат и предоставления новых решений сложных проблем. [10]

Дебаты

Ведутся исследования и разработки в области использования технологий для оценки качества аргументов, [11] [12] [13] оценки аргументативных эссе [14] [15] и судейства дебатов. [16] [17] [18] [19] Потенциальные применения этих технологий аргументации охватывают образование и общество. Сценарии, которые следует учитывать в этом отношении, включают в себя оценку и оценку разговорной , математической , научной , интерпретационной , юридической и политической аргументации и дебатов.

Закон

В правовых системах по всему миру алгоритмические инструменты, такие как инструменты оценки рисков (RAI), используются для дополнения или замены человеческих суждений судей, государственных служащих и полицейских во многих контекстах. [20] В Соединенных Штатах RAI используются для получения оценок для прогнозирования риска рецидива при предварительном заключении и вынесении приговоров, [21] для оценки условно-досрочного освобождения заключенных и для прогнозирования «горячих точек» для будущих преступлений. [22] [23] [24] Эти оценки могут привести к автоматическим последствиям или могут использоваться для обоснования решений, принимаемых должностными лицами в системе правосудия. [20] В Канаде ADM используется с 2014 года для автоматизации определенных действий, проводимых сотрудниками иммиграционной службы, а также для поддержки оценки некоторых заявлений иммигрантов и посетителей. [25]

Экономика

Автоматизированные системы принятия решений используются в определенных компьютерных программах для создания заказов на покупку и продажу, связанных с конкретными финансовыми операциями, и автоматического представления заказов на международных рынках. Компьютерные программы могут автоматически генерировать заказы на основе заранее определенного набора правил, используя торговые стратегии, основанные на техническом анализе, сложных статистических и математических вычислениях или входных данных из других электронных источников.

Бизнес

Непрерывный аудит

Непрерывный аудит использует передовые аналитические инструменты для автоматизации процессов аудита . Он может использоваться в частном секторе коммерческими предприятиями и в государственном секторе государственными организациями и муниципалитетами. [26] Поскольку искусственный интеллект и машинное обучение продолжают развиваться, бухгалтеры и аудиторы могут использовать все более сложные алгоритмы, которые принимают решения, например, касающиеся определения того, что является аномальным, следует ли уведомлять персонал и как расставлять приоритеты задач, возложенных на персонал.

СМИ и развлечения

Цифровые СМИ, развлекательные платформы и информационные службы все чаще предоставляют контент аудитории через автоматизированные рекомендательные системы на основе демографической информации, предыдущего выбора, совместной фильтрации или фильтрации на основе контента. [27] Сюда входят музыкальные и видеоплатформы, издательское дело, медицинская информация, базы данных продуктов и поисковые системы. Многие рекомендательные системы также предоставляют пользователям некоторую свободу действий при принятии рекомендаций и включают управляемые данными алгоритмические циклы обратной связи, основанные на действиях пользователя системы. [6]

Крупномасштабные языковые модели машинного обучения и программы создания изображений, разрабатываемые такими компаниями, как OpenAI и Google, в 2020-х годах имеют ограниченный доступ, однако они, вероятно, найдут широкое применение в таких областях, как реклама, копирайтинг, стоковые изображения и графический дизайн, а также другие области, такие как журналистика и право. [9]

Реклама

Интернет-реклама тесно интегрирована со многими цифровыми медиа-платформами, веб-сайтами и поисковыми системами и часто предполагает автоматическую доставку рекламных объявлений в различных форматах. «Программатическая» онлайн-реклама предполагает автоматизацию продажи и доставки цифровой рекламы на веб-сайтах и ​​платформах с помощью программного обеспечения, а не прямого принятия решений человеком. [27] Иногда ее называют каскадной моделью, которая включает в себя последовательность шагов в различных системах и игроках: издателях и платформах управления данными, пользовательских данных, рекламных серверах и данных об их доставке, системах управления запасами, рекламных трейдерах и рекламных биржах. [27] У этой системы есть различные проблемы, включая отсутствие прозрачности для рекламодателей, непроверяемые показатели, отсутствие контроля над рекламными площадками, отслеживание аудитории и проблемы конфиденциальности. [27] Интернет-пользователи, которым не нравится реклама, приняли контрмеры, такие как технологии блокировки рекламы , которые позволяют пользователям автоматически фильтровать нежелательную рекламу с веб-сайтов и некоторых интернет-приложений. В 2017 году у 24% австралийских интернет-пользователей были блокировщики рекламы. [28]

Здоровье

Модели изображений искусственного интеллекта с глубоким обучением используются для анализа рентгеновских снимков и выявления дегенерации желтого пятна при состоянии глаз.

Социальные службы

Правительства внедряют цифровые технологии для обеспечения более эффективного управления и социальных услуг с начала 2000-х годов, которые часто называют электронным правительством . Многие правительства во всем мире в настоящее время используют автоматизированные, алгоритмические системы для профилирования и таргетирования политики и услуг, включая алгоритмическую полицейскую деятельность, основанную на рисках, слежку за сортировкой людей, такую ​​​​как проверка в аэропортах, предоставление услуг на основе профилей риска в области защиты детей, предоставление услуг по трудоустройству и управлению. безработный. [29] Значительное применение ADM в социальных службах связано с использованием прогнозной аналитики – например, прогнозирование рисков для детей от жестокого обращения/пренебрежения в сфере защиты детей , прогнозирование рецидивизма или преступлений в полиции и уголовном правосудии, прогнозирование мошенничества с социальным обеспечением/налогами. в системах соответствия, прогнозы долгосрочной безработицы в службах занятости. Исторически эти системы основывались на стандартном статистическом анализе, однако с начала 2000-х годов машинное обучение получило все большее развитие и внедрение. Ключевые проблемы, связанные с использованием ADM в социальных службах, включают предвзятость, справедливость, подотчетность и объяснимость , что относится к прозрачности причин решения и способности объяснить основу, на которой машина приняла решение. [29] Например, федеральное агентство социального обеспечения Австралии Centrelink разработало и внедрило автоматизированные процессы обнаружения и взыскания долгов, что привело ко многим случаям неправомерного взыскания долгов по так называемой схеме RoboDebt . [30]

Транспорт и мобильность

Подключенная и автоматизированная мобильность (CAM) включает в себя автономные транспортные средства , такие как беспилотные автомобили и другие виды транспорта, которые используют автоматизированные системы принятия решений для замены различных аспектов управления транспортным средством человеком. [31] Уровень может варьироваться от уровня 0 (полное вождение человеком) до уровня 5 (полная автономия). [2] На уровне 5 машина способна принимать решения по управлению транспортным средством на основе моделей данных и геопространственных карт, а также датчиков реального времени и обработки окружающей среды. Автомобили с уровнями от 1 до 3 уже доступны на рынке в 2021 году. В 2016 году правительство Германии учредило «Комиссию по этике автоматизированного и подключенного вождения», которая рекомендовала разрабатывать подключенные и автоматизированные транспортные средства (CAV), если эти системы вызывают меньше аварий, чем люди. драйверы (положительный баланс рисков). Он также предоставил 20 этических правил для адаптации автоматизированного и подключенного вождения. [32] В 2020 году стратегия Европейской комиссии по CAM рекомендовала принять их в Европе для снижения смертности на дорогах и снижения выбросов, однако беспилотные автомобили также вызывают множество политических, безопасности и юридических вопросов с точки зрения ответственности и этического принятия решений в случай несчастных случаев, а также вопросы конфиденциальности. [31] Вопросы доверия к автономным транспортным средствам и обеспокоенность сообщества по поводу их безопасности являются ключевыми факторами, которые необходимо решить, если беспилотные автомобили получат широкое распространение. [33]

Наблюдение

Автоматизированный сбор цифровых данных с помощью датчиков, камер, онлайн-транзакций и социальных сетей значительно расширил масштабы и цели практики и учреждений наблюдения в государственном и коммерческом секторах. [34] В результате произошел серьезный переход от целевого наблюдения за подозреваемыми к возможности контролировать все население. [35] Уровень наблюдения, который теперь возможен в результате автоматизированного сбора данных, был описан как капитализм наблюдения или экономика наблюдения, чтобы указать, что цифровые медиа включают крупномасштабное отслеживание и накопление данных о каждом взаимодействии.

Этические и юридические вопросы

Автоматизированные системы принятия решений имеют множество социальных, этических и юридических последствий. Высказанные опасения включают отсутствие прозрачности и оспариваемости решений, посягательство на частную жизнь и наблюдение, усиление системной предвзятости и неравенства из-за предвзятости данных и алгоритмов , права интеллектуальной собственности, распространение дезинформации через медиа-платформы, административную дискриминацию, риск и ответственность, безработицу и многие другие. [36] [37] Поскольку ADM становится все более повсеместным, возрастает необходимость решения этических проблем для обеспечения надлежащего управления в информационных обществах. [38]

Системы ADM часто основаны на машинном обучении и алгоритмах, которые нелегко просмотреть или проанализировать, что приводит к опасениям, что они представляют собой системы «черного ящика», которые не являются прозрачными и подотчетными. [2]

В отчете лаборатории Citizen в Канаде содержится призыв к критическому анализу применения ADM в различных областях с точки зрения прав человека, чтобы гарантировать, что использование автоматизированного принятия решений не приводит к нарушениям прав, включая права на равенство и недискриминацию; свобода передвижения, выражения мнений, религии и ассоциаций; права на неприкосновенность частной жизни и права на жизнь, свободу и безопасность личности. [25]

Законодательные меры реагирования на ADM включают:

Предвзятость

ADM может включать в себя алгоритмическую предвзятость , возникающую из-за:

Объясняемость

Вопросы предвзятых или неправильных данных или алгоритмов, а также опасения, что некоторые ADM представляют собой технологии «черного ящика», закрытые для человеческого контроля или допроса, привели к тому, что называется проблемой объяснимости или права на объяснение автоматических решений и ИИ. Это также известно как объяснимый ИИ (XAI) или интерпретируемый ИИ, при котором результаты решения могут быть проанализированы и поняты людьми. Считается, что алгоритмы XAI следуют трем принципам: прозрачность, интерпретируемость и объяснимость.

Информационная асимметрия

Автоматизированное принятие решений может увеличить информационную асимметрию между людьми, чьи данные поступают в систему, и платформами и системами принятия решений, способными выводить информацию из этих данных. С другой стороны, было замечено, что в финансовой торговле асимметрия информации между двумя агентами с искусственным интеллектом может быть намного меньше, чем между двумя агентами-людьми или между агентами-человеком и машиной. [45]

Области исследований

Многие академические дисциплины и области все чаще обращают свое внимание на разработку, применение и последствия ADM, включая бизнес, информатику, взаимодействие человека с компьютером (HCI), право, государственное управление, а также средства массовой информации и коммуникации. Автоматизация медиаконтента и алгоритмически управляемых новостей, видео и другого контента через поисковые системы и платформы является основным направлением академических исследований в области медиаисследований. [27]

Конференция ACM по справедливости, подотчетности и прозрачности (ACM FAccT) была создана в 2018 году для изучения прозрачности и объяснимости в контексте социотехнических систем, многие из которых включают ADM и ИИ.

Ключевые исследовательские центры, исследующие ADM, включают:

Смотрите также

Рекомендации

  1. ^ Марабелли, Марко; Ньюэлл, Сью; Хандунге, Валери (2021). «Жизненный цикл алгоритмических систем принятия решений: организационный выбор и этические проблемы». Журнал стратегических информационных систем . 30 (1): 101683. doi :10.1016/j.jsis.2021.101683 . Проверено 1 ноября 2022 г.
  2. ^ abcdef Ларус, Джеймс; Хэнкин, Крис; Карсон, Сири Гранум; Кристен, Маркус; Крафа, Сильвия; Грау, Оливер; Киршнер, Клод; Ноулз, Бран; МакГеттрик, Эндрю; Тамбурри, Дамиан Эндрю; Вертнер, Ханнес (2018). Когда решают компьютеры: Европейские рекомендации по автоматизированному принятию решений с помощью машинного обучения. Нью-Йорк: Ассоциация вычислительной техники. дои : 10.1145/3185595.
  3. ^ Мёкандер, Якоб; Морли, Джессика; Таддео, Мариаросария; Флориди, Лучано (6 июля 2021 г.). «Этический аудит автоматизированных систем принятия решений: характер, масштаб и ограничения». Наука и инженерная этика . 27 (4): 44. arXiv : 2110.10980 . дои : 10.1007/s11948-021-00319-4. ISSN  1471-5546. ПМК 8260507 . ПМИД  34231029. 
  4. ^ Офис комиссара по информации Великобритании (24 сентября 2021 г.). Руководство по Общему регламенту защиты данных Великобритании (GDPR) (Отчет). Офис комиссара по информации Великобритании. Архивировано из оригинала 21 декабря 2018 г. Проверено 05 октября 2021 г.
  5. ^ Криггер, Э.; Хури, К. (01 февраля 2019 г.). «Разработка политики в области дополненного интеллекта в здравоохранении». Журнал этики АМА . 21 (2): E188–191. дои : 10.1001/amajethics.2019.188 . ISSN  2376-6980. PMID  30794129. S2CID  73490120.
  6. ^ аб Араужо, Тео; Хельбергер, Натали; Круикемайер, Санне; де Врез, Клаас Х. (01 сентября 2020 г.). «Мы доверяем искусственному интеллекту? Представления об автоматизированном принятии решений с помощью искусственного интеллекта» (PDF) . ИИ и общество . 35 (3): 611–623. doi : 10.1007/s00146-019-00931-w. hdl : 11245.1/b73d4d3f-8ab9-4b63-b8a8-99fb749ab2c5. ISSN  1435-5655. S2CID  209523258.
  7. ^ ab Algorithm Watch (2020). Automating Society 2019. Algorithm Watch (Отчет) . Проверено 28 февраля 2022 г.
  8. ^ Сеа, Джаррел Сай; Тан, Сирил Х.М.; Бухлак, Куинлан Д; Холт, Ксавье Дж; Уордман, Джеффри Б; Аймолдин, Ануар; Эсмаили, Назанин; Ахмад, Хасан; Фам, Хунг; Ламберт, Джон Ф; Хачи, Бен (август 2021 г.). «Влияние комплексной модели глубокого обучения на точность интерпретации рентгенограмм грудной клетки рентгенологами: ретроспективное исследование с участием нескольких читателей». Ланцет «Цифровое здоровье» . 3 (8): е496–е506. дои : 10.1016/s2589-7500(21)00106-0 . ISSN  2589-7500. PMID  34219054. S2CID  235735320.
  9. ^ аб Сносвелл, Аарон Дж.; Хантер, Дэн (13 апреля 2022 г.). «Роботы создают образы и рассказывают анекдоты. 5 вещей, которые нужно знать о фундаментальных моделях и следующем поколении ИИ». Разговор . Проверено 21 апреля 2022 г.
  10. ^ Таддео, Мариаросария; Флориди, Лучано (24 августа 2018 г.). «Как ИИ может быть силой добра». Наука . 361 (6404): 751–752. Бибкод : 2018Sci...361..751T. дои : 10.1126/science.aat5991 . ISSN  0036-8075. PMID  30139858. S2CID  52075037.
  11. ^ Ваксмут, Хеннинг; Надери, Нона; Хоу, Юфан; Билу, Йонатан; Прабхакаран, Винодкумар; Тайм, Тим; Херст, Грэма; Штейн, Бенно (2017). «Вычислительная оценка качества аргументации на естественном языке» (PDF) . Материалы 15-й конференции Европейского отделения Ассоциации компьютерной лингвистики . стр. 176–187.
  12. ^ Ваксмут, Хеннинг; Надери, Нона; Хаберналь, Иван; Хоу, Юфан; Херст, Грэм; Гуревич Ирина; Штейн, Бенно (2017). «Оценка качества аргументации: теория против практики» (PDF) . Материалы 55-го ежегодного собрания Ассоциации компьютерной лингвистики . стр. 250–255.
  13. ^ Гретц, Шай; Фридман, Рони; Коэн-Карлик, Эдо; Толедо, Асаф; Лахав, Дэн; Ааронов, Ранит; Слоним, Ноам (2020). «Крупномасштабный набор данных для ранжирования качества аргументов: построение и анализ». Материалы конференции AAAI по искусственному интеллекту . Том. 34. С. 7805–7813.
  14. ^ Грин, Нэнси (2013). «К автоматизированному анализу студенческих аргументов». Международная конференция по искусственному интеллекту в образовании . Спрингер. стр. 591–594. дои : 10.1007/978-3-642-39112-5_66.
  15. ^ Персинг, Исаак; Нг, Винсент (2015). «Моделирование силы аргументов в студенческих эссе» (PDF) . Материалы 53-го ежегодного собрания Ассоциации компьютерной лингвистики и 7-й Международной совместной конференции по обработке естественного языка . стр. 543–552.
  16. ^ Брилман, Мартен; Шерер, Стефан (2015). «Мультимодальная прогнозирующая модель успешных дебатёров, или как я научился влиять на голоса». Материалы 23-й международной конференции ACM по мультимедиа . стр. 149–158. дои : 10.1145/2733373.2806245.
  17. ^ Поташ, Питер; Румшиский, Анна (2017). «На пути к автоматизации дебатов: повторяющаяся модель прогнозирования победителей дебатов» (PDF) . Материалы конференции 2017 года по эмпирическим методам обработки естественного языка . стр. 2465–2475.
  18. ^ Сантос, Педро; Гуревич, Ирина (2018). «Мультимодальное предсказание впечатления аудитории в политических дебатах». Материалы 20-й Международной конференции по мультимодальному взаимодействию . стр. 1–6. дои : 10.1145/3281151.3281157.
  19. ^ Ван, Лу; Бошан, Ник; Шугарс, Сара; Цинь, Кечен (2017). «Победа по существу: совместное влияние содержания и стиля на результаты дебатов». Труды Ассоциации компьютерной лингвистики . МТИ Пресс. 5 : 219–232. arXiv : 1705.05040 . дои : 10.1162/tacl_a_00057 . S2CID  27803846.
  20. ^ Аб Чохлас-Вуд, Алекс (2020). Понимание инструментов оценки рисков в уголовном правосудии. Брукингский институт.
  21. ^ Ангвин, Джулия ; Ларсон, Джефф; Матту, Сурья (23 мая 2016 г.). «Машинный уклон». ПроПублика . Архивировано из оригинала 04 октября 2021 г. Проверено 4 октября 2021 г.
  22. ^ Ниссан, Ефрем (01 августа 2017 г.). «Настоящее и прогнозируемое влияние цифровых технологий и искусственного интеллекта на адвокатуру, судейство, полицейскую деятельность и правоохранительную деятельность». ИИ и общество . 32 (3): 441–464. дои : 10.1007/s00146-015-0596-5. ISSN  1435-5655. S2CID  21115049.
  23. ^ Дрессел, Джулия; Фарид, Хани (2018). «Точность, справедливость и пределы прогнозирования рецидивизма». Достижения науки . 4 (1): eaao5580. Бибкод : 2018SciA....4.5580D. doi : 10.1126/sciadv.aao5580. ПМЦ 5777393 . ПМИД  29376122. 
  24. ^ Фергюсон, Эндрю Гатри (2017). Рост полицейской деятельности с большими данными: наблюдение, гонка и будущее правоохранительных органов . Нью-Йорк: Нью-Йоркский университет Пресс. ISBN 9781479869978.
  25. ^ аб Молнар, Петра; Гилл, Лекс (2018). Боты у ворот: анализ прав человека автоматизированного принятия решений в канадской системе иммиграции и беженцев. Citizen Lab и Международная программа по правам человека (юридический факультет Университета Торонто).
  26. ^ Эззамури, Науаль; Хулстейн, Йорис (2018). «Постоянный мониторинг и аудит в муниципалитетах». Материалы 19-й ежегодной международной конференции по исследованиям цифрового правительства: управление в эпоху данных . стр. 1–10. дои : 10.1145/3209281.3209301 .
  27. ^ abcde Томас, Джулиан (2018). «Программирование, фильтрация, блокировка рекламы: автоматизация рекламы и СМИ». Медиа Интернэшнл Австралия . 166 (1): 34–43. дои : 10.1177/1329878X17738787. ISSN  1329-878X. S2CID  149139944. Q110607881.
  28. ^ Ньюман, Н.; Флетчер, Р; Калогеропулос, А (2017). Отчет о цифровых новостях Института Рейтер (Отчет). Институт исследования журналистики Reuters. Архивировано из оригинала 17 августа 2013 г. Проверено 19 января 2022 г.
  29. ^ аб Хенман, Пол (2 января 2019 г.). «Об алгоритмах, приложениях и советах: цифровая социальная политика и предоставление услуг». Журнал азиатской государственной политики . 12 (1): 71–89. дои : 10.1080/17516234.2018.1495885. ISSN  1751-6234. S2CID  158229201.
  30. ^ Хенман, Пол (2017). «Компьютер говорит «долг»: к критической социологии алгоритмов и алгоритмическому управлению». Данные для политики 2017: Правительство по алгоритму? Конференция, Лондон . дои : 10.5281/ZENODO.884116. S2CID  158228131.
  31. ^ ab Генеральный директорат ЕС по исследованиям и инновациям (2020). Этика подключенных и автоматизированных транспортных средств: рекомендации по безопасности дорожного движения, конфиденциальности, справедливости, объяснимости и ответственности. LU: Издательское бюро Европейского Союза. дои : 10.2777/035239. ISBN 978-92-76-17867-5.
  32. ^ Федеральное министерство транспорта и цифровой инфраструктуры. Полный отчет Комиссии по этике об автоматизированном и подключенном вождении. www.bmvi.de (Отчет). Правительство Германии. Архивировано из оригинала 4 сентября 2017 г. Проверено 23 ноября 2021 г.
  33. ^ Раатс, Каспар; Форс, Вайке; Пинк, Сара (01 сентября 2020 г.). «Доверие к беспилотным транспортным средствам: междисциплинарный подход». Междисциплинарные перспективы транспортных исследований . 7 : 100201. doi : 10.1016/j.trip.2020.100201 . ISSN  2590-1982. S2CID  225261480.
  34. ^ Андреевич, Марк (2021). «Автоматизированное наблюдение». Справочник Routledge по цифровым медиа и коммуникациям . Лия А. Ливроу, Брайан Лоудер. Абингдон, Оксон: Тейлор и Фрэнсис. ISBN 978-1-315-61655-1. OCLC  1198978596.
  35. ^ Паскуале, Фрэнк (2016). Общество черного ящика: секретные алгоритмы, управляющие деньгами и информацией . Кембридж, Массачусетс: Издательство Гарвардского университета. ISBN 978-0-674-97084-7. ОКЛК  946975299.
  36. ^ Юбэнкс, Вирджиния (2018). Автоматизация неравенства: как высокотехнологичные инструменты определяют, контролируют и наказывают бедных (Первое изд.). Нью-Йорк, штат Нью-Йорк. ISBN 978-1-250-07431-7. ОСЛК  1013516195.{{cite book}}: CS1 maint: отсутствует местоположение издателя ( ссылка )
  37. ^ ab Сафия Ноубл (2018), Алгоритмы угнетения: как поисковые системы усиливают расизм, New York University Press , OL  19734838W, Wikidata  Q48816548
  38. ^ Кэт, Коринн (28 ноября 2018 г.). «Управление искусственным интеллектом: этические, юридические и технические возможности и проблемы». Философские труды Королевского общества A: Математические, физические и технические науки . 376 (2133): 20180080. Бибкод : 2018RSPTA.37680080C. дои : 10.1098/rsta.2018.0080. ПМК 6191666 . ПМИД  30322996. 
  39. ^ "EUR-Lex - 32016R0679 - EN - EUR-Lex" . eur-lex.europa.eu . Проверено 13 сентября 2021 г.
  40. ^ Бркан, Майя (12 июня 2017 г.). «Принятие решений с помощью искусственного интеллекта в соответствии с общими правилами защиты данных». Материалы 16-й Международной конференции по искусственному интеллекту и праву . ИКАИЛ '17. Лондон, Великобритания: Ассоциация вычислительной техники. стр. 3–8. дои : 10.1145/3086512.3086513. ISBN 978-1-4503-4891-1. S2CID  23933541.
  41. ^ Суд Европейского Союза. «Запрос на предварительное решение Verwaltungsgericht Wien (Австрия), поданный 16 марта 2022 г. – CK (Дело C-203/22)».
  42. ^ аб Эдвардс, Лилиан; Вил, Майкл (май 2018 г.). «Порабощение алгоритма: от «права на объяснение» к «праву на лучшие решения»?». Безопасность и конфиденциальность IEEE . 16 (3): 46–54. arXiv : 1803.07540 . дои : 10.1109/MSP.2018.2701152. ISSN  1540-7993. S2CID  4049746.
  43. ^ Биннс, Рубен; Вил, Майкл (20 декабря 2021 г.). «Это ваше окончательное решение? Многоэтапное профилирование, выборочное воздействие и статья 22 GDPR». Международный закон о конфиденциальности данных . 11 (4): 320. doi : 10.1093/idpl/ipab020 . ISSN  2044-3994.
  44. ^ аб Фридман, Батя; Ниссенбаум, Хелен (июль 1996 г.). «Предвзятость в компьютерных системах». Транзакции ACM в информационных системах . 14 (3): 330–347. дои : 10.1145/230538.230561 . ISSN  1046-8188. S2CID  207195759.
  45. ^ Марвала, Чилидзи (2017). Искусственный интеллект и экономическая теория: Скайнет на рынке . Эван Гурвиц. Чам. ISBN 978-3-319-66104-9. ОСЛК  1004620876.{{cite book}}: CS1 maint: отсутствует местоположение издателя ( ссылка )