stringtranslate.com

Химабинду Лаккараджу

Химабинду « Хима » Лаккараджу — индийско-американский компьютерный ученый, работающий над машинным обучением , искусственным интеллектом , алгоритмической предвзятостью и подотчетностью ИИ . В настоящее время она является доцентом Гарвардской школы бизнеса , а также связана с кафедрой компьютерных наук Гарвардского университета . Лаккараджу известна своей работой над объяснимым машинным обучением . В более широком смысле ее исследования сосредоточены на разработке моделей и алгоритмов машинного обучения, которые являются интерпретируемыми, прозрачными, справедливыми и надежными. Она также исследует практические и этические последствия развертывания моделей машинного обучения в областях, связанных с принятием решений с высокими ставками, таких как здравоохранение, уголовное правосудие , бизнес и образование . Лаккараджу была названа одним из лучших в мире новаторов в возрасте до 35 лет как Vanity Fair , так и MIT Technology Review .

Она также известна своими усилиями по повышению доступности области машинного обучения для широкой общественности. Лаккараджу стала соучредителем Trustworthy ML Initiative (TrustML) для снижения входных барьеров и содействия исследованиям в области интерпретируемости, справедливости , конфиденциальности и надежности моделей машинного обучения. [1] Она также разработала несколько учебных пособий [2] [3] [4] [5] и полноценный курс по теме объяснимого машинного обучения . [6]

Ранняя жизнь и образование

Лаккараджу получила степень магистра компьютерных наук в Индийском институте науки в Бангалоре. В рамках своей магистерской диссертации она работала над вероятностными графическими моделями и разработала полуконтролируемые тематические модели , которые можно использовать для автоматического извлечения настроений и концепций из отзывов клиентов. [7] [8] Эта работа была опубликована на Международной конференции SIAM по интеллектуальному анализу данных и получила награду за лучшую исследовательскую работу на конференции. [9]

Затем она провела два года в качестве инженера-исследователя в IBM Research, Индия в Бангалоре, прежде чем перешла в Стэнфордский университет , чтобы получить докторскую степень в области компьютерных наук. Ее докторскую диссертацию консультировал Юре Лесковец . Она также сотрудничала с Джоном Клейнбергом , Синтией Рудин и Сендхилом Муллайнатаном во время обучения в докторской. Ее докторское исследование было сосредоточено на разработке интерпретируемых и справедливых моделей машинного обучения, которые могут дополнять человеческое принятие решений в таких областях, как здравоохранение, уголовное правосудие и образование. [10] Эта работа была удостоена гранта Microsoft Research Dissertation Grant [11] и премии INFORMS Best Data Mining Paper. [12]

Во время обучения в докторантуре Лаккараджу провела лето, работая научным сотрудником в программе «Data Science for Social Good» в Чикагском университете . В рамках этой программы она сотрудничала с Райидом Гани для разработки моделей машинного обучения, которые могут выявлять учащихся из группы риска, а также назначать соответствующие вмешательства. Это исследование было использовано школами округа Монтгомери, штат Мэриленд . [13] Лаккараджу также работала стажером-исследователем и приглашенным исследователем в Microsoft Research , Редмонд во время обучения в докторантуре. Она сотрудничала с Эриком Хорвицем в Microsoft Research для разработки алгоритмов «человек-в-контуре» для выявления слепых пятен моделей машинного обучения. [14]

Исследования и карьера

Докторское исследование Лаккараджу было сосредоточено на разработке и оценке интерпретируемых, прозрачных и справедливых прогностических моделей, которые могут помочь лицам, принимающим решения (например, врачам, судьям) в таких областях, как здравоохранение, уголовное правосудие и образование. [10] В рамках своей докторской диссертации она разработала алгоритмы для автоматического построения интерпретируемых правил для классификации [15] и других сложных решений, которые включают компромиссы. [16] Лаккараджу и ее соавторы также подчеркнули проблемы, связанные с оценкой прогностических моделей в условиях отсутствия контрфактуальных данных и неизмеренных факторов , и разработали новые вычислительные структуры для решения этих проблем. [17] [18] Она была соавтором исследования, которое продемонстрировало, что когда модели машинного обучения используются для помощи в принятии решений об освобождении под залог, они могут помочь снизить уровень преступности до 24,8%, не усугубляя расовое неравенство. [18] [19]

Лаккараджу присоединилась к Гарвардскому университету в качестве постдокторанта в 2018 году, а затем стала доцентом Гарвардской школы бизнеса и кафедры компьютерных наук Гарвардского университета в 2020 году. [20] [21] За последние несколько лет она провела новаторскую работу в области объяснимого машинного обучения . Она инициировала исследование адаптивных и интерактивных постфактумных объяснений [22] [23], которые можно использовать для объяснения поведения сложных моделей машинного обучения способом, адаптированным к предпочтениям пользователя. [24] [25] Она и ее коллеги также предприняли одну из первых попыток выявления и формализации уязвимостей популярных методов постфактумного объяснения. [26] Они продемонстрировали, как злоумышленники могут обманывать популярные методы объяснения и вызывать объяснения, скрывающие нежелательные предубеждения (например, расовые или гендерные предубеждения) базовых моделей. Лаккараджу также был соавтором исследования, которое продемонстрировало, что эксперты в предметной области не всегда могут правильно интерпретировать постфактумные объяснения и что злоумышленники могут использовать постфактумные объяснения, чтобы манипулировать экспертами, заставляя их доверять и использовать предвзятые модели. [27]

Она также работала над повышением надежности методов объяснения. Она и ее коллеги разработали новую теорию [28] и методы [29] [30] для анализа и повышения надежности различных классов методов объяснения после, предложив единую теоретическую структуру и установив первые известные связи между объяснимостью и состязательным обучением . Лаккараджу также внесла важный исследовательский вклад в область алгоритмического регресса. Она и ее соавторы разработали один из первых методов, который позволяет лицам, принимающим решения, тщательно проверять прогностические модели, чтобы гарантировать, что предоставленный регресс является значимым и недискриминационным. [25] Ее исследование также выявило критические недостатки в нескольких популярных подходах в литературе по алгоритмическому регрессу. [31]

Инициатива Trustworthy ML (TrustML)

В 2020 году Лаккараджу стал соучредителем инициативы Trustworthy ML (TrustML) для демократизации и продвижения исследований в области надежного машинного обучения, которая в широком смысле охватывает интерпретируемость, справедливость, конфиденциальность и надежность моделей машинного обучения. [1] Цель этой инициативы — обеспечить легкий доступ к фундаментальным ресурсам новичкам в этой области, предоставить начинающим исследователям платформу для демонстрации своих работ и в более широком смысле сформировать сообщество исследователей и практиков, работающих над темами, связанными с надежным машинным обучением.

В рамках этой инициативы Лаккараджу разработал несколько учебных пособий [2] [3] [4] [5] и полноценный курс по объяснимому машинному обучению [6] .

Награды и почести

Внешние ссылки

Курс «Интерпретируемость и объяснимость в машинном обучении», 2019 г.

Учебное пособие для конференции NeurIPS на тему «Объяснение прогнозов машинного обучения: современное состояние, проблемы и возможности », 2020 г.

Учебное пособие для конференции AAAI «Объяснение прогнозов машинного обучения: современное состояние, проблемы и возможности», 2021 г.

Учебное пособие конференции CHIL «Объясняемое машинное обучение: понимание ограничений и расширение границ», 2021 г.

Избранные публикации

Ссылки

  1. ^ ab "Trustworthy ML". www.trustworthyml.org . Получено 26 апреля 2021 г. .
  2. ^ ab "Учебник NeurIPS 2020 по объяснимому машинному обучению".
  3. ^ ab "Учебник AAAI 2021 по объяснимому машинному обучению".
  4. ^ ab «Учебник FAccT 2021 по объяснимому машинному обучению в реальных условиях».
  5. ^ ab "Конференция CHIL 2021. Учебное пособие по ограничениям объяснимого машинного обучения".
  6. ^ ab «Курс по интерпретируемости и объяснимости в машинном обучении».
  7. ^ Лаккараджу, Химабинду; Бхаттачарья, Чиранджиб; Бхаттачарья, Индраджит; Меругу, Сруджана (2011). «Использование согласованности для одновременного открытия скрытых граней и связанных с ними чувств» (PDF) . Материалы Международной конференции SIAM 2011 по интеллектуальному анализу данных (PDF) . стр. 498–509. дои : 10.1137/1.9781611972818.43. ISBN 978-0-89871-992-5. S2CID  632401.
  8. ^ "Индийский институт науки" . Получено 26 апреля 2021 г.
  9. ^ «Премия SIAM SDM за лучшую работу».
  10. ^ ab "Человекоориентированное машинное обучение: внедрение машинного обучения для принятия решений с высокими ставками | Компьютерные науки". cse.ucsd.edu . Получено 26 апреля 2021 г. .
  11. ^ ab "Победители гранта Microsoft Research Dissertation". Microsoft . 27 июня 2017 г.
  12. ^ ab «Биографическая справка, Лаккараджу» (PDF) .
  13. ^ "Himabindu Lakkaraju". MIT Technology Review . Получено 26 апреля 2021 г.
  14. ^ Лаккараджу, Химабинду; Камар, Эдже; Каруана, Рич; Хорвиц, Эрик (2016). «Определение неизвестных неизвестных в открытом мире: представления и политика для направленного исследования». Конференция AAAI по искусственному интеллекту : 2124–2132. arXiv : 1610.09064 .
  15. ^ Lakkaraju, Himabindu; Bach, Stephen H.; Leskovec, Jure (1 августа 2016 г.). «Интерпретируемые наборы решений: совместная структура для описания и прогнозирования». Труды 22-й Международной конференции ACM SIGKDD по обнаружению знаний и интеллектуальному анализу данных . Том 2016 г. стр. 1675–1684. doi :10.1145/2939672.2939874. ISBN 9781450342322. PMC  5108651 . PMID  27853627.
  16. ^ "Изучение экономически эффективных и интерпретируемых схем лечения" (PDF) . Международная конференция по искусственному интеллекту и статистике (AISTATS) .
  17. ^ Lakkaraju, H.; Kleinberg, J.; Leskovec, J.; Ludwig, J.; Mullainathan, S. (2017). «Проблема селективных меток: оценка алгоритмических предсказаний в присутствии ненаблюдаемых». Труды 23-й Международной конференции ACM SIGKDD по обнаружению знаний и интеллектуальному анализу данных . Том 2017. С. 275–284. doi :10.1145/3097983.3098066. ISBN 9781450348874. PMC  5958915 . PMID  29780658.
  18. ^ ab Kleinberg, Jon Michael; Lakkaraju, Himabindu; Leskovec, Jure; Ludwig, Jens; Mullainathan, Sendhil (1 февраля 2017 г.). «Человеческие решения и машинные предсказания». The Quarterly Journal of Economics . Серия рабочих документов Национального бюро экономических исследований. 133 (1): 237–293. doi : 10.3386/W23180 . PMC 5947971. PMID  29755141 . 
  19. ^ «Заявление об исследовании – Лаккараджу» (PDF) .
  20. ^ "Химабинду Лаккараджу; АССИСТЕНТ ПРОФЕССОРА ДЕЛОВОГО АДМИНИСТРИРОВАНИЯ". Гарвардская школа бизнеса . Получено 26 апреля 2021 г.
  21. ^ "SEAS Гарвард - Лаккараджу" .
  22. ^ ab "Национальный научный фонд в сотрудничестве с Amazon присуждает 11 грантов Fairness in AI". Amazon Science . 10 февраля 2021 г. Получено 26 апреля 2021 г.
  23. ^ "Поиск награды NSF: награда № 2040989 – FAI: на пути к адаптивным и интерактивным постфактум объяснениям". www.nsf.gov . Получено 26 апреля 2021 г. .
  24. ^ Лаккараджу, Химабинду; Камар, Эдже; Каруана, Рич; Лесковец, Юре (2019). «Точные и настраиваемые объяснения моделей черного ящика». Труды конференции AAAI/ACM 2019 года по искусственному интеллекту, этике и обществу . Том 2020. С. 131–138. doi : 10.1145/3306618.3314229 . ISBN 9781450363242. S2CID  84839090.
  25. ^ ab Равал, Кайвалья; Лаккараджу, Химабинду (2020). «За пределами индивидуального обращения: интерпретируемые и интерактивные резюме действенных обращений» (PDF) . Достижения в области нейронных систем обработки информации . 2020 . arXiv : 2009.07165 .
  26. ^ Slack, Дилан; Hilgard, Софи; Jia, Эмили; Singh, Sameer; Lakkaraju, Himabindu (7 февраля 2020 г.). «Обманывая LIME и SHAP». Труды конференции AAAI/ACM по искусственному интеллекту, этике и обществу . Том 2019. С. 180–186. doi : 10.1145/3375627.3375830 . ISBN 9781450371100. S2CID  211041098.
  27. ^ Лаккараджу, Химабинду; Бастани, Осберт (7 февраля 2020 г.). "«Как мне тебя обмануть?»". Труды конференции AAAI/ACM по искусственному интеллекту, этике и обществу . стр. 79–85. doi : 10.1145/3375627.3375833 . ISBN 9781450371100. S2CID  208077044.
  28. ^ Агарвал, Сушант; Джаббари, Шахин; Агарвал , Чираг; Упадхай, Сохини; Живей Стивен Ву; Лаккараджу, Химабинду (2021). «На пути к унификации и надежности объяснений на основе возмущений и градиентов». Международная конференция по машинному обучению . 2021. arXiv : 2102.10618 .
  29. ^ Лаккараджу, Химабинду; Арсов, Нино; Бастани , Осберт (2020). «Надежные и стабильные объяснения черного ящика». Международная конференция по машинному обучению . 2020. arXiv : 2011.06169 .
  30. ^ Слэк, Дилан; Хилгард, Софи; Сингх, Самир; Лаккараджу, Химабинду (2020). «Насколько я должен вам доверять? Моделирование неопределенности объяснений черного ящика». arXiv : 2008.05030 [cs.LG].
  31. ^ Равал, Кайвалья; Камар, Эдже; Лаккараджу, Химабинду (2020). «Понимание влияния сдвигов распределения на алгоритмический ресурс». arXiv : 2012.11788 [cs.LG].
  32. ^ "Объявлены лауреаты премии Amazon Research Awards 2020". 27 апреля 2021 г.
  33. ^ "Встречайте инноваторов моложе 35 лет – MIT Technology Review". События MIT Technology Review . Получено 26 апреля 2021 г.
  34. ^ Fair, Vanity (3 октября 2019 г.). «Индекс будущих новаторов 2019». Vanity Fair . Получено 26 апреля 2021 г. .
  35. ^ axsdeny. "О НАС | Восходящие звезды в EECS: 2016" . Получено 26 апреля 2021 г. .