stringtranslate.com

Эрик Хорвиц

Эрик Джоэл Хорвиц ( / ˈ h ɔːr v ɪ t s / ) — американский учёный-компьютерщик и технический сотрудник Microsoft , где он является первым главным научным сотрудником компании. [1] Ранее он был директором Microsoft Research Labs, включая исследовательские центры в Редмонде, Вашингтон, Кембридже, Массачусетсе, Нью-Йорке, Монреале, Канада, Кембридже, Великобритания, и Бангалоре, Индия.

В 2013 году Хорвиц был избран членом Национальной инженерной академии за разработку вычислительных механизмов для принятия решений в условиях неопределенности и ограниченных ресурсов.

Биография

Хорвиц получил степень доктора философии и доктора медицины в Стэнфордском университете . [2] Его докторская диссертация «Вычисления и действия в условиях ограниченных ресурсов» и последующие исследования представили модели ограниченной рациональности, основанные на теории вероятности и принятия решений. Он работал над докторской работой под руководством Рональда А. Говарда , Джорджа Б. Данцига , Эдварда Х. Шортлиффа и Патрика Суппеса .

В настоящее время он является главным научным сотрудником Microsoft . Он был избран членом Ассоциации по развитию искусственного интеллекта (AAAI), Национальной инженерной академии (NAE), Американской академии искусств и наук и Американской ассоциации по развитию науки (AAAS).

В 2014 году он был избран членом ACM за «вклад в искусственный интеллект и взаимодействие человека и компьютера». [3]

В 2013 году он был избран в Академию ACM CHI за «исследования на стыке взаимодействия человека и компьютера и искусственного интеллекта». [4]

В 2018 году он был избран в Американское философское общество. [5]

В 2015 году он был удостоен премии AAAI Feigenbaum Prize [6] , которая вручается раз в два года за устойчивый и весомый вклад в область искусственного интеллекта посредством разработки вычислительных моделей восприятия, размышлений и действий, а также их применения в принятии срочных решений, а также в интеллектуальных информационных, транспортных и медицинских системах.

В 2015 году он также был награжден премией Аллена Ньюэлла от ACM - AAAI [7] за «вклад в искусственный интеллект и взаимодействие человека с компьютером , охватывающий вычислительную технику и науку принятия решений посредством разработки принципов и моделей восприятия, размышлений и рациональных действий».

Он входит в состав Президентского совета консультантов по науке и технологиям [8] (PCAST), Научно-консультативного комитета Института искусственного интеллекта Аллена (AI2) и Совета по компьютерным наукам и телекоммуникациям [9] (CSTB) Национальных академий США .

Он занимал пост президента Ассоциации по развитию ИИ (AAAI), входил в Консультативный совет NSF по компьютерным и информационным наукам и инжинирингу (CISE), в совет Консорциума вычислительного сообщества (CCC), был председателем Секции информации, вычислений и коммуникаций Американской ассоциации по развитию науки (AAAS), в Совет регентов [10] Национальной медицинской библиотеки США (NLM) и в Комиссию по национальной безопасности США по ИИ.

Работа

Научные интересы Хорвица охватывают теоретические и практические проблемы разработки систем, которые воспринимают, обучаются и рассуждают. Его вклад включает достижения в области принципов и приложений машинного обучения и вывода, поиска информации , взаимодействия человека и компьютера , биоинформатики и электронной коммерции .

Хорвиц сыграл значительную роль в использовании теории вероятностей и принятия решений в искусственном интеллекте . Его работа повысила авторитет искусственного интеллекта в других областях компьютерной науки и компьютерной инженерии , оказав влияние на области от взаимодействия человека с компьютером до операционных систем . Его исследования помогли установить связь между искусственным интеллектом и наукой принятия решений . Например, он ввел понятие ограниченной оптимальности, теоретический подход к принятию решений для ограниченной рациональности . [11] Влияние ограниченной оптимальности выходит за рамки компьютерной науки и распространяется на когнитивную науку и психологию. [12] [13]

Он изучал использование вероятности и полезности для руководства автоматизированным рассуждением для принятия решений. Методы включают рассмотрение решения потоков задач [14] в средах с течением времени. В смежной работе он применял вероятность и машинное обучение для решения комбинаторных задач и для руководства доказательством теорем. [15] Он представил парадигму алгоритма anytime в ИИ, [16] [17] , где частичные результаты, вероятности или полезности исходов уточняются с помощью вычислений при различных доступности или затратах времени, руководствуясь ожидаемым значением вычислений. [18] [19]

Он сформулировал долгосрочные сложные задачи для ИИ [20] и поддержал концепцию открытого мира ИИ [21] , в котором машинный интеллект способен понимать и хорошо работать в большом мире, сталкиваясь с ситуациями, с которыми он раньше не сталкивался.

Он исследовал синергию между человеческим и машинным интеллектом. [22] Он представил принципы использования машинного обучения и теории принятия решений для руководства машинной и человеческой инициативой, [23] методы, которые предоставляют системам ИИ понимание того, когда передавать решение проблем людям, [24] и использование методов машинного обучения и планирования для выявления и объединения дополнительных способностей людей и систем ИИ. [25] [22] [26] В работе над ориентированным на человека ИИ он представил меры и модели ожидаемой ценности отображаемой информации для руководства отображением информации для лиц, принимающих решения, в критических по времени условиях [27] и методы, позволяющие сделать статистические выводы ИИ более понятными. [28] Он представил модели человеческого внимания в вычислительных системах, [29] [30] и изучил использование машинного обучения для определения стоимости прерываний для пользователей компьютеров. [31] [32] Его использование машинного обучения для построения моделей человеческого удивления было отмечено как технологический прорыв в MIT Technology Review . [33]

Он исследовал использование методов ИИ для оказания помощи пользователям, включая помощь с программным обеспечением [34] [35] и в повседневной жизни. [36]

Он внес вклад в мультимодальное взаимодействие . [37] В 2015 году он получил премию ACM ICMI Sustained Accomplishment Award [38] [39] за вклад в мультимодальное взаимодействие. Его работа по мультимодальному взаимодействию включает исследования ситуативного взаимодействия, [40] [41] где системы учитывают физические детали открытых миров и могут вести диалог с несколькими людьми. [42]

Он был соавтором вероятностных методов повышения конфиденциальности, включая модель альтруистического обмена данными, называемую зондированием сообщества [43], и подходов, чувствительных к риску [44], включая стохастическую конфиденциальность. [45]

Он является ведущим изобретателем Microsoft. [46]

Он руководил работами по применению методов ИИ к вычислительным системам, включая машинное обучение для управления памятью в Windows, [47] предварительную загрузку веб-страниц, [48] рендеринг графики, [49] и сканирование веб-страниц. [50] Он провел раннюю работу по ИИ для отладки программного обеспечения. [51]

Хорвиц выступает на тему искусственного интеллекта , в том числе на NPR и в шоу Чарли Роуза . [52] [53] [54] Онлайн-выступления включают как технические лекции, так и презентации для широкой аудитории ( TEDx Austin: Making Friends with Artificial Intelligence ). Его исследования были представлены в The New York Times и MIT Technology Review . [55] [56] [57] [33] Он давал показания в Сенате США о прогрессе, возможностях и проблемах с ИИ. [58]

ИИ и общество

Он рассматривал технические и социальные проблемы и возможности, связанные с внедрением технологий ИИ в открытый мир, [59] включая полезное использование ИИ, [60] безопасность и надежность ИИ, [61] и где системы и возможности ИИ могут иметь непреднамеренные эффекты, представлять опасность или использоваться не по назначению. [59] [62] [63] [64] Он представил предостережения относительно применения ИИ в военных условиях. [65] Он и Томас Г. Диттерих призвали к работе над согласованием ИИ , заявив, что системы ИИ «должны рассуждать о том, что намерены люди, а не выполнять команды буквально». [62]

Он призвал к действиям в отношении потенциальных рисков для гражданских свобод, которые представляет использование правительством данных в системах искусственного интеллекта. [66] Он и специалист по вопросам конфиденциальности Дейрдре Маллиган заявили, что общество должно найти баланс между проблемами конфиденциальности и преимуществами данных для общественной пользы. [67]

Он рассказал о рисках, связанных с дипфейками, созданными с помощью искусственного интеллекта, и внес вклад в технологии определения происхождения медиаконтента [68] , которые криптографически удостоверяют источник и историю редактирования цифрового контента. [69]

Исследование искусственного интеллекта в Асиломаре

Он занимал пост президента AAAI с 2007 по 2009 год. Будучи президентом AAAI, он организовал и был сопредседателем исследования ИИ в Асиломаре, которое завершилось встречей ученых в области ИИ в Асиломаре в феврале 2009 года. Исследование рассматривало характер и сроки успехов ИИ и рассматривало опасения относительно направлений развития ИИ, включая потенциальную потерю контроля над компьютерным интеллектом, а также усилия, которые могли бы уменьшить опасения и улучшить долгосрочные общественные результаты. Исследование стало первой встречей ученых в области ИИ, на которой обсуждались опасения по поводу сверхинтеллекта и потери контроля над ИИ, и привлекло интерес общественности. [70]

В освещении исследования Асиломар он сказал, что ученые должны изучать и реагировать на идеи сверхразумных машин и опасения по поводу систем искусственного интеллекта, выходящих из-под контроля человека. [70] В более позднем интервью NPR он сказал, что инвестиции в научные исследования сверхразума были бы ценны для руководства проактивными усилиями, даже если бы люди считали, что вероятность потери контроля над ИИ низка из-за стоимости таких результатов. [71]

Столетнее исследование искусственного интеллекта

В 2014 году Хорвиц совместно со своей женой разработал и профинансировал Столетнее исследование искусственного интеллекта (AI100) в Стэнфордском университете . [72] [73] В 2016 году был запущен Индекс искусственного интеллекта как проект Столетнего исследования.

По словам Хорвица, пожертвование AI100, которое может увеличиться в будущем, достаточно для финансирования исследования в течение столетия. [73] В пресс-релизе Стэнфорда говорится, что в течение столетия комитеты будут «изучать и предвидеть, как эффекты искусственного интеллекта отразятся на каждом аспекте того, как люди работают, живут и играют». В меморандуме по исследованию перечислены 18 тем для рассмотрения, включая право, этику, экономику, войну и преступность. [73] [74] Темы включают злоупотребления ИИ, которые могут представлять угрозу демократии и свободе, а также рассмотрение возможностей появления сверхразумов и потери контроля над ИИ.

Исследование «Сто лет» курируется Постоянным комитетом. Постоянный комитет формулирует вопросы и темы и организует Исследовательскую комиссию каждые пять лет. Исследовательская комиссия выпускает отчет, в котором оценивает состояние и темпы прогресса технологий ИИ, проблемы и возможности в отношении влияния ИИ на людей и общество.

Исследовательская группа 2015 года Столетнего исследования под председательством Питера Стоуна опубликовала отчет в сентябре 2016 года под названием « Искусственный интеллект и жизнь в 2030 году», архивировано 30 мая 2019 года в Wayback Machine . [75] Группа выступила за увеличение государственных и частных расходов на отрасль, рекомендовала повысить экспертизу ИИ на всех уровнях правительства и выступила против тотального государственного регулирования. [76] [77] Председатель группы Питер Стоун утверждает, что ИИ не заменит автоматически людей, а скорее дополнит рабочую силу и создаст новые рабочие места в сфере технического обслуживания. [76] Хотя в докладе основное внимание уделялось следующим 15 годам, в нем также затрагивались опасения и ожидания, которые возросли за последнее десятилетие в отношении рисков, связанных с появлением сверхразумных роботов, и говорилось: «В отличие от фильмов, на горизонте не маячит и, вероятно, даже невозможна раса сверхчеловеческих роботов». [77] [78] Стоун заявил, что «это было осознанное решение не придавать этому значения в докладе». [73]

Отчет второго цикла исследования AI100 под председательством Майкла Литтмана был опубликован в 2021 году. [79] [80]

Основание партнерства по ИИ

Он был соучредителем и занимал пост председателя правления Partnership on AI, некоммерческой организации, объединяющей Apple, Amazon, Facebook, Google, DeepMind, IBM и Microsoft с представителями гражданского общества, академических кругов и некоммерческих НИОКР. На веб-сайте организации указаны инициативы, включая исследования оценок риска в уголовном правосудии, [81] системы распознавания лиц, [82] ИИ и экономика, [83] безопасность ИИ, [84] ИИ и целостность медиа, [85] и документация систем ИИ. [86]

Комитет Microsoft Aether

Он основал и возглавляет Комитет Aether в Microsoft, внутренний комитет Microsoft по ответственной разработке и внедрению технологий ИИ. [87] [88] Он сообщил, что Комитет Aether дал рекомендации и принял решения, которые повлияли на коммерческие усилия Microsoft в области ИИ. [89] [90] В апреле 2020 года Microsoft опубликовала контент о принципах, рекомендациях и инструментах, разработанных Комитетом Aether и его рабочими группами, включая команды, сосредоточенные на надежности и безопасности ИИ, предвзятости и справедливости, понятности и объяснении, а также сотрудничестве человека и ИИ. [91]

Публикации

Книги

Избранные статьи

Подкасты

Ссылки

  1. ^ Бонифасич, Игорь (11 марта 2020 г.). «Microsoft назначает своего первого в истории главного научного сотрудника». Engadget . Получено 27 марта 2020 г. .
  2. ^ "Эрик Хорвиц". IEEE Xplore Digital Library . Получено 3 июня 2019 г.
  3. ^ Эрик Хорвиц, стипендиаты ACM 2014 г.
  4. ^ "2013 SIGCHI Awards – ACM SIGCHI" . Получено 2022-03-22 .
  5. ^ «Выборы новых членов на весеннем собрании 2018 года | Американское философское общество».
  6. ^ "Премия AAAI Фейгенбаума". AAAI . Получено 14 апреля 2016 г. .
  7. ^ "ЭРИК ХОРВИЦ - Лауреат премии". ACM . Получено 3 июня 2019 г.
  8. ^ "Эрик Хорвиц, доктор медицины". Белый дом . Получено 2022-01-05 ., Научно-консультативный комитет Института искусственного интеллекта Аллена (AI2) и Совет по компьютерным наукам и телекоммуникациям (CSTB) "Членство в Совете по компьютерным наукам и телекоммуникациям". Национальные академии наук, инженерии и медицины . Архивировано из оригинала 3 июня 2019 года . Получено 3 июня 2019 года .
  9. ^ "О Совете по компьютерным наукам и телекоммуникациям". Национальные академии . Получено 2022-01-14 .
  10. ^ "Board of Regents". Национальная медицинская библиотека США . Получено 3 июня 2019 г.
  11. ^ Макворт, Алан (июль 2008 г.). «Введение Эрика Хорвица» (PDF) . Президентское обращение AAAI .
  12. ^ Гершман, Сэмюэл Дж.; Хорвиц, Эрик Дж.; Тененбаум, Джошуа Б. (17 июля 2015 г.). «Вычислительная рациональность: конвергентная парадигма для интеллекта в мозгах, умах и машинах». Science . 349 (6245): 273–278. Bibcode :2015Sci...349..273G. doi :10.1126/science.aac6076. PMID  26185246. S2CID  14818619.
  13. ^ Хоус, Эндрю; Дагган, Джеффри Б.; Калидинди, Киран; Ценг, Юань-Чи; Льюис, Ричард Л. (1 июля 2016 г.). «Прогнозирование краткосрочного запоминания как ограниченно оптимального выбора стратегии» (PDF) . Когнитивная наука . 40 (5): 1192–1223. doi : 10.1111/cogs.12271 . PMID  26294328.
  14. ^ Хорвиц, Эрик (февраль 2001 г.), «Принципы и применение непрерывных вычислений», Искусственный интеллект , 126 (1–2): 159–196, CiteSeerX 10.1.1.476.5653 , doi :10.1016/S0004-3702(00)00082-5 
  15. ^ Хорвиц, Эрик Дж.; Руан, И.; Гомес, К.; Каутц, Х.; Селман, Б.; Чикеринг, Д.М. (июль 2001 г.), «Байесовский подход к решению сложных вычислительных задач» (PDF) , Труды конференции по неопределенности и искусственному интеллекту : 235–244
  16. ^ Хорвиц, Эрик (июль 1987 г.). «Рассуждения о убеждениях и действиях в условиях ограничений вычислительных ресурсов» (PDF) . Труды Третьей конференции UAI'87 по неопределенности в искусственном интеллекте . Арлингтон, Вирджиния: AUAI Press: 429–447. ISBN 0-444-87417-8.
  17. ^ Хорвиц, Эрик (август 1988 г.). «Рассуждение в условиях изменяющихся и неопределенных ограничений ресурсов» (PDF) . Труды AAAI'88 Седьмой национальной конференции AAAI по искусственному интеллекту . AAAI Press: 111–116.
  18. ^ Хорвиц, Эрик Дж.; Купер, Грегори Ф.; Хеккерман, Дэвид Э. (август 1989 г.). «Размышления и действия в условиях дефицита ресурсов: теоретические принципы и эмпирическое исследование» (PDF) . Труды 11-й Международной совместной конференции по искусственному интеллекту IJCAI'89 — Том 2. Сан-Франциско, Калифорния: Morgan Kaufmann Publishers Inc.: 1121–1127.
  19. ^ Хорвиц, Эрик (декабрь 1990 г.). Вычисления и действия в условиях ограниченных ресурсов (PDF) (диссертация на степень доктора философии). Стэнфордский университет.
  20. ^ Селман, Б.; Брукс, Р.; Дин, Т.; Хорвиц, Э.; Митчелл, Т.; Нильссон, Н. (август 1996 г.), «Проблемы искусственного интеллекта», Труды AAAI-96, Тринадцатой национальной конференции по искусственному интеллекту, Портленд, Орегон : 1340–1345
  21. Хорвиц, Эрик (июль 2008 г.), «Искусственный интеллект в открытом мире», Президентская лекция AAAI
  22. ^ ab Horvitz, Eric (13 января 2020 г.). «Ежегодное пленарное заседание 2019 г.: люди, машины и интеллект». YouTube . Получено 2020-04-02 .
  23. ^ Хорвиц, Эрик (май 1999). "Принципы смешанно-инициативных пользовательских интерфейсов" (PDF) . Труды конференции SIGCHI по человеческим факторам в вычислительных системах CHI является пределом - CHI '99 . Нью-Йорк, Нью-Йорк: ACM. стр. 159–166. CiteSeerX 10.1.1.78.7280 . doi :10.1145/302979.303030. ISBN  0-201-48559-1. S2CID  8943607.
  24. ^ Хорвиц, Эрик; Пэк, Тим (2007-03-01). «Дополнительные вычисления: политики перевода звонящих из диалоговых систем к людям-секретарям». Моделирование пользователей и адаптированное для пользователей взаимодействие . 17 (1): 159–182. doi :10.1007/s11257-006-9026-1. ISSN  1573-1391. S2CID  2819237.
  25. ^ Камар, Эдже; Хакер, Северин; Хорвиц, Эрик (8 июня 2018 г.). «Объединение человеческого и машинного интеллекта в крупномасштабном краудсорсинге» (PDF) . Труды, AAMAS '12 Труды 11-й Международной конференции по автономным агентам и многоагентным системам — Том 1. 1. Ричленд , Южная Каролина: Международный фонд автономных агентов и многоагентных систем: 467–474. ISBN 978-0-9817381-1-6.
  26. ^ Уайлдер, Брайан; Хорвиц, Эрик; Камар, Эдже (2020-07-09). «Учимся дополнять людей». Труды Двадцать девятой Международной совместной конференции по искусственному интеллекту . Том 2. С. 1526–1533. doi :10.24963/ijcai.2020/212. ISBN 978-0-9992411-6-5. S2CID  218486980.
  27. ^ Хорвиц, Эрик; Барри, Мэтью (август 1995 г.). «Отображение информации для принятия решений, срочных» (PDF) . Труды, Труды одиннадцатой конференции UAI'95 по неопределенности в искусственном интеллекте . Сан-Франциско, Калифорния: Morgan Kaufmann Publishers Inc: 296–305. ISBN 1-55860-385-9.
  28. ^ Хорвиц, Эрик; Хекерман, Дэвид; Натвани, Бхарат; Фаган, Лоуренс (октябрь 1986 г.). «Использование эвристической иерархии решения проблем для облегчения объяснения рассуждений, ориентированных на гипотезы» (PDF) . Труды Medinfo : 27–31.
  29. ^ Хорвиц, Эрик; Кэди, Карл; Пик, Тим; Ховел, Дэвид (март 2003 г.). «Модели внимания в вычислениях и коммуникации: от принципов к приложениям» (PDF) . Сообщения ACM . 46. Нью-Йорк, штат Нью-Йорк: ACM: 52–59. doi :10.1145/636772.636798. S2CID  2584780.
  30. ^ Маркхофф, Джон (17 июля 2000 г.). «Microsoft видит программный «агент» как способ избежать отвлекающих факторов». The New York Times . Получено 3 июня 2019 г.
  31. ^ Хорвиц, Эрик; Апасибл, Джонсон (2003-11-05). «Изучение и рассуждения о прерывании». Труды 5-й международной конференции по многомодальным интерфейсам . ICMI '03. Нью-Йорк, штат Нью-Йорк, США: Ассоциация вычислительной техники. стр. 20–27. doi :10.1145/958432.958440. ISBN 978-1-58113-621-0. S2CID  1183716.
  32. ^ Хорвиц, Эрик; Кох, Пол; Апасибл, Джонсон (2004-11-06). "BusyBody". Труды конференции ACM 2004 года по компьютерной поддержке кооперативной работы . CSCW '04. Нью-Йорк, штат Нью-Йорк, США: Ассоциация вычислительной техники. стр. 507–510. doi :10.1145/1031607.1031690. ISBN 978-1-58113-810-8. S2CID  11517148.
  33. ^ ab Waldrop, M. Mitchell (19 февраля 2008 г.). "TR10: Modeling Surprise". MIT Technology Review . Получено 11 января 2022 г.
  34. ^ Хорвиц, Э.; Бриз, Дж.; Хеккерман, Д.; Ховел, Д.; Роммельс, К. (июль 1998 г.). «Проект Люмьер: байесовское моделирование пользователей для определения целей и потребностей пользователей программного обеспечения». Труды UAI, Конференция по неопределенности в искусственном интеллекте : 256–265.
  35. ^ "Lumiere - Интеллектуальный пользовательский интерфейс". YouTube . 2009-08-31 [1995] . Получено 2020-04-02 .
  36. ^ «Как забывчивость одного из ведущих ученых Microsoft вдохновила на создание новой убийственной функции для Windows 10». Business Insider Australia . 2017-02-09 . Получено 2022-01-11 .
  37. ^ "Информационные агенты: направления и будущее (2001)". YouTube . 2020-02-21 [2001] . Получено 2020-04-02 .
  38. ^ "ICMI Sustained Accomplishment Award". Международная конференция по мультимодальному взаимодействию . Получено 2020-04-02 .
  39. ^ Bohus, D; Horvitz, E (ноябрь 2009 г.). «Диалог в открытом мире: платформа и приложения» (PDF) . Международная конференция ACM по мультимодальному взаимодействию .
  40. ^ Bohus, D; Horvitz, E (2019). «Situated Interaction». Справочник по мультимодальным-мультисенсорным интерфейсам, том 3. Ассоциация вычислительной техники и Morgan & Claypool. стр. 105–143. ISBN 978-1-970001-75-4.
  41. ^ «Поднятие взаимодействия человека и компьютера на новый уровень сложности». YouTube . 2014-04-08 . Получено 2020-04-02 .
  42. ^ Bohus, D; Horvitz, E (сентябрь 2009 г.). "Модели многостороннего взаимодействия в диалоге открытого мира" (PDF) . Труды конференции SIGDIAL 2009, посвященной 10-му ежегодному заседанию Специальной группы по вопросам дискурса и диалога - SIGDIAL '09 . стр. 225–234. doi :10.3115/1708376.1708409. ISBN 9781932432640. S2CID  2125746.
  43. ^ Краузе, А.; Хорвиц, Э.; Кансал, А.; Чжао, Ф. (апрель 2008 г.), «На пути к общественному восприятию», Труды IPSN 2008 г.
  44. ^ Краузе, Андреас; Хорвиц, Эрик (ноябрь 2010 г.). «Подход теории полезности к конфиденциальности в онлайн-сервисах» (PDF) . Журнал исследований искусственного интеллекта . 39 : 633–662. doi :10.1613/jair.3089. S2CID  1582192.
  45. ^ Сингла, А.; Хорвиц, Э.; Камар, Э.; Уайт, RW (июль 2014 г.), «Стохастическая конфиденциальность» (PDF) , AAAI , 28 , arXiv : 1404.5454 , Bibcode : 2014arXiv1404.5454S, doi : 10.1609/aaai.v28i1.8734, S2CID  14584347
  46. ^ «Плавание в творческих водах: искусство изобретения». Microsoft Research . 2019-05-28 . Получено 2022-01-13 .
  47. ^ Кайзер, Грегг (19.01.2007). «Microsoft предсказывает будущее с помощью SuperFetch в Vista». InformationWeek . Получено 13.01.2022 .
  48. ^ Хорвиц, Эрик (1 ноября 1998 г.). «Политики непрерывного вычисления для предварительной выборки, направленной на утилиту». Труды седьмой международной конференции по управлению информацией и знаниями . CIKM '98. Нью-Йорк, штат Нью-Йорк, США: Ассоциация вычислительной техники. стр. 175–184. doi :10.1145/288627.288655. ISBN 978-1-58113-061-4. S2CID  13518550.
  49. ^ Хорвиц, Эрик Дж.; Лендьел, Джед (2013-02-06). «Восприятие, внимание и ресурсы: подход теории принятия решений к рендерингу графики». arXiv : 1302.1547 [cs.AI].
  50. ^ Колобов, Андрей; Перес, Ювал; Любецкий, Эяль; Хорвиц, Эрик (2019-07-18). «Оптимальное сканирование свежести при ограничениях вежливости». Труды 42-й Международной конференции ACM SIGIR по исследованиям и разработкам в области информационного поиска . SIGIR'19. Нью-Йорк, Нью-Йорк, США: Ассоциация вычислительной техники. стр. 495–504. doi :10.1145/3331184.3331241. ISBN 978-1-4503-6172-9. S2CID  196203203.
  51. ^ Бернелл, Лиза; Хорвиц, Эрик (1 марта 1995 г.). «Структура и случайность: объединение логики и вероятности для отладки программного обеспечения». Сообщения ACM . 38 (3): 31–ff. doi :10.1145/203330.203338. ISSN  0001-0782. S2CID  9644536.
  52. ^ Хансен, Лиан (21 марта 2009 г.). «Познакомьтесь с Лорой, вашим виртуальным персональным помощником». NPR . Получено 16 марта 2011 г.
  53. ^ Касте, Мартин (11 января 2011 г.). «Сингулярность: последнее изобретение человечества?». NPR . Получено 14 февраля 2011 г.
  54. ^ Роуз, Чарли. "Панельная дискуссия об искусственном интеллекте". Архивировано из оригинала 2011-02-13 . Получено 2011-03-12 .
  55. ^ Маркофф, Джон (10 апреля 2008 г.). «Microsoft представляет инструмент для предотвращения пробок на дорогах». The New York Times . Получено 16 марта 2011 г.
  56. ^ Маркофф, Джон (17 июля 2000 г.). «Microsoft видит в программном «агенте» способ избегать отвлекающих факторов». The New York Times . Получено 16 марта 2011 г.
  57. Лор, Стив и Маркофф, Джон (24 июня 2010 г.). «Умнее, чем вы думаете: компьютеры учатся слушать, а некоторые и отвечать». The New York Times . Получено 12 марта 2011 г.{{cite news}}: CS1 maint: несколько имен: список авторов ( ссылка )
  58. ^ Хорвиц, Эрик (30 ноября 2016 г.). «Размышления о состоянии и будущем искусственного интеллекта» (PDF) . erichorvitz.com . Получено 3 июня 2019 г. .
  59. ^ ab Хорвиц, Эрик (7 июля 2017 г.). «ИИ, люди и общество». Science . 357 (6346): 7. Bibcode :2017Sci...357....7H. doi : 10.1126/science.aao2466 . PMID  28684472.
  60. ^ «ИИ для общественного блага (2016): Основной доклад ИИ в поддержку людей и общества». YouTube . 2016-06-13 . Получено 2020-04-20 .
  61. ^ Хорвиц, Эрик (2016-06-27). «Размышления о безопасности и искусственном интеллекте» (PDF) . Эрик Хорвиц . Получено 20-04-2020 .
  62. ^ ab Дитерих, Томас Г.; Хорвиц, Эрик Дж. (октябрь 2015 г.). «Рост опасений по поводу ИИ: размышления и направления» (PDF) . Сообщения ACM . 58 (10): 38–40. doi : 10.1145/2770869 .
  63. ^ "Конференция по этике и ИИ: основная сессия". YouTube . 2018-04-09 . Получено 2020-04-20 .
  64. ^ Хорвиц, Эрик (28.03.2017). «Долгий взгляд: направления развития ИИ, проблемы и будущее». YouTube . Получено 20.04.2020 .
  65. ^ «Основной доклад, Эрик Хорвиц: достижения, стремления и опасения в области искусственного интеллекта». YouTube . 2019-11-15 . Получено 2020-04-20 .
  66. ^ Хорвиц, Эрик; Клайберн, Миньон; Фельтен, Эд; Леблан, Трэвис (17.05.2021). «Осторожно: преодоление рисков для свобод, создаваемых ИИ». TheHill . Получено 19.01.2022 .
  67. ^ Хорвиц, Эрик; Маллиган, Дейрдре (17 июля 2015 г.). «Данные, конфиденциальность и большее благо» (PDF) . Наука . Т. 349, № 6245. С. 253–254 . Получено 19 января 2022 г.
  68. ^ England, Paul; Malvar, Henrique S.; Horvitz, Eric; Stokes, Jack W.; Fournet, Cédric; Burke-Aguero, Rebecca; Chamayou, Amaury; Clebsch, Sylvan; Costa, Manuel (2021-07-15), "AMP: Аутентификация носителей через происхождение", Труды 12-й конференции ACM по мультимедийным системам , Нью-Йорк, США: Ассоциация вычислительной техники, стр. 108–121, doi : 10.1145/3458305.3459599 , ISBN 978-1-4503-8434-6, S2CID  210859168
  69. ^ Хорвиц, Эрик (22.02.2021). «Многообещающий шаг вперед в борьбе с дезинформацией». Microsoft On the Issues . Получено 19.01.2022 .
  70. ^ ab Markoff, John (26 июля 2009 г.). «Ученые беспокоятся, что машины могут перехитрить человека». York Times .
  71. Сигел, Роберт (11 января 2011 г.). «Сингулярность: последнее изобретение человечества?». NPR .
  72. You, Jia (9 января 2015 г.). «100-летнее исследование искусственного интеллекта? Объясняет Эрик Хорвиц из Microsoft Research». Наука .
  73. ^ abcd Маркофф, Джон (15 декабря 2014 г.). «Исследование по изучению эффектов искусственного интеллекта». The New York Times . Получено 1 октября 2016 г.
  74. ^ «Столетнее исследование искусственного интеллекта: размышления и обрамление». Эрик Хорвиц. 2014. Получено 1 октября 2016 .
  75. ^ «Отчет: Искусственный интеллект преобразует города». Houston Chronicle . 1 сентября 2016 г. Получено 1 октября 2016 г.
  76. ^ ab Dussault, Joseph (4 сентября 2016 г.). «ИИ в реальном мире: лидеры технологий рассматривают практические вопросы». The Christian Science Monitor . Получено 1 октября 2016 г.
  77. ^ ab Питер Стоун и др. «Искусственный интеллект и жизнь в 2030 году». Столетнее исследование искусственного интеллекта: отчет исследовательской группы 2015–2016 гг., Стэнфордский университет, Стэнфорд, Калифорния, сентябрь 2016 г. Документ: http://ai100.stanford.edu/2016-report. Доступ: 1 октября 2016 г.
  78. Найт, Уилл (1 сентября 2016 г.). «Искусственный интеллект хочет быть вашим братом, а не врагом». MIT Technology Review . Получено 1 октября 2016 г.
  79. ^ Стейси, Кевин (16 сентября 2021 г.). «Новый отчет оценивает прогресс и риски искусственного интеллекта». Новости и объявления HAI Стэнфордского университета . Получено 20 января 2022 г.
  80. ^ Маккендрик, Джо (18 сентября 2021 г.). «Успех искусственного интеллекта связан со способностью к дополнению, а не только к автоматизации». ZDNet . Получено 20 января 2022 г.
  81. ^ «Отчет об алгоритмических инструментах оценки рисков в системе уголовного правосудия США». Партнерство по ИИ . 2019-04-23 . Получено 2020-04-24 .
  82. ^ "Bringing Facial Recognition Systems To Light". Партнерство по искусственному интеллекту . 2020-02-18 . Получено 2020-04-24 .
  83. ^ "AI, Labour, and the Economy Case Study Compendium". Партнерство по ИИ . 2019-04-30 . Получено 2020-04-24 .
  84. ^ "Введение в SafeLife: критерии безопасности для обучения с подкреплением". Партнерство по искусственному интеллекту . 2019-12-04 . Получено 2020-04-24 .
  85. ^ "Комитет по вопросам ИИ и честности СМИ". Партнерство по ИИ . 2019-12-05 . Получено 2020-04-24 .
  86. ^ "О машинном обучении". Партнерство по искусственному интеллекту . Получено 24.04.2020 .
  87. ^ Наделла, Сатья (29.03.2018). «Письмо Сатьи Наделлы сотрудникам: Принятие нашего будущего: интеллектуальное облако и интеллектуальная граница». Microsoft Stories . Получено 3 июня 2019 г.
  88. ^ "Microsoft #TechTalk: AI and Ethics". YouTube . 2019-07-17 . Получено 2020-04-15 .
  89. ^ Бойл, Алан (9 апреля 2018 г.). «Microsoft отказывается от некоторых продаж из-за этики ИИ, говорит ведущий исследователь Эрик Хорвиц». GeekWire . Получено 3 июня 2019 г.
  90. ^ "Конференция по этике и ИИ: основная сессия". YouTube . Университет Карнеги-Меллона. 9 апреля 2018 г. Получено 3 июня 2019 г.
  91. ^ "Принципы ответственного ИИ от Microsoft". Искусственный интеллект Microsoft . Получено 2020-04-15 .

Внешние ссылки