Химабинду « Хима » Лаккараджу — индийско-американский компьютерный ученый, работающий над машинным обучением , искусственным интеллектом , алгоритмической предвзятостью и подотчетностью ИИ . В настоящее время она является доцентом Гарвардской школы бизнеса , а также связана с кафедрой компьютерных наук Гарвардского университета . Лаккараджу известна своей работой над объяснимым машинным обучением . В более широком смысле ее исследования сосредоточены на разработке моделей и алгоритмов машинного обучения, которые являются интерпретируемыми, прозрачными, справедливыми и надежными. Она также исследует практические и этические последствия развертывания моделей машинного обучения в областях, связанных с принятием решений с высокими ставками, таких как здравоохранение, уголовное правосудие , бизнес и образование . Лаккараджу была названа одним из лучших в мире новаторов в возрасте до 35 лет как Vanity Fair , так и MIT Technology Review .
Она также известна своими усилиями по повышению доступности области машинного обучения для широкой общественности. Лаккараджу стала соучредителем Trustworthy ML Initiative (TrustML) для снижения входных барьеров и содействия исследованиям в области интерпретируемости, справедливости , конфиденциальности и надежности моделей машинного обучения. [1] Она также разработала несколько учебных пособий [2] [3] [4] [5] и полноценный курс по теме объяснимого машинного обучения . [6]
Лаккараджу получила степень магистра компьютерных наук в Индийском институте науки в Бангалоре. В рамках своей магистерской диссертации она работала над вероятностными графическими моделями и разработала полуконтролируемые тематические модели , которые можно использовать для автоматического извлечения настроений и концепций из отзывов клиентов. [7] [8] Эта работа была опубликована на Международной конференции SIAM по интеллектуальному анализу данных и получила награду за лучшую исследовательскую работу на конференции. [9]
Затем она провела два года в качестве инженера-исследователя в IBM Research, Индия в Бангалоре, прежде чем перешла в Стэнфордский университет , чтобы получить докторскую степень в области компьютерных наук. Ее докторскую диссертацию консультировал Юре Лесковец . Она также сотрудничала с Джоном Клейнбергом , Синтией Рудин и Сендхилом Муллайнатаном во время обучения в докторской. Ее докторское исследование было сосредоточено на разработке интерпретируемых и справедливых моделей машинного обучения, которые могут дополнять человеческое принятие решений в таких областях, как здравоохранение, уголовное правосудие и образование. [10] Эта работа была удостоена гранта Microsoft Research Dissertation Grant [11] и премии INFORMS Best Data Mining Paper. [12]
Во время обучения в докторантуре Лаккараджу провела лето, работая научным сотрудником в программе «Data Science for Social Good» в Чикагском университете . В рамках этой программы она сотрудничала с Райидом Гани для разработки моделей машинного обучения, которые могут выявлять учащихся из группы риска, а также назначать соответствующие вмешательства. Это исследование было использовано школами округа Монтгомери, штат Мэриленд . [13] Лаккараджу также работала стажером-исследователем и приглашенным исследователем в Microsoft Research , Редмонд во время обучения в докторантуре. Она сотрудничала с Эриком Хорвицем в Microsoft Research для разработки алгоритмов «человек-в-контуре» для выявления слепых пятен моделей машинного обучения. [14]
Докторское исследование Лаккараджу было сосредоточено на разработке и оценке интерпретируемых, прозрачных и справедливых прогностических моделей, которые могут помочь лицам, принимающим решения (например, врачам, судьям) в таких областях, как здравоохранение, уголовное правосудие и образование. [10] В рамках своей докторской диссертации она разработала алгоритмы для автоматического построения интерпретируемых правил для классификации [15] и других сложных решений, которые включают компромиссы. [16] Лаккараджу и ее соавторы также подчеркнули проблемы, связанные с оценкой прогностических моделей в условиях отсутствия контрфактуальных данных и неизмеренных факторов , и разработали новые вычислительные структуры для решения этих проблем. [17] [18] Она была соавтором исследования, которое продемонстрировало, что когда модели машинного обучения используются для помощи в принятии решений об освобождении под залог, они могут помочь снизить уровень преступности до 24,8%, не усугубляя расовое неравенство. [18] [19]
Лаккараджу присоединилась к Гарвардскому университету в качестве постдокторанта в 2018 году, а затем стала доцентом Гарвардской школы бизнеса и кафедры компьютерных наук Гарвардского университета в 2020 году. [20] [21] За последние несколько лет она провела новаторскую работу в области объяснимого машинного обучения . Она инициировала исследование адаптивных и интерактивных постфактумных объяснений [22] [23], которые можно использовать для объяснения поведения сложных моделей машинного обучения способом, адаптированным к предпочтениям пользователя. [24] [25] Она и ее коллеги также предприняли одну из первых попыток выявления и формализации уязвимостей популярных методов постфактумного объяснения. [26] Они продемонстрировали, как злоумышленники могут обманывать популярные методы объяснения и вызывать объяснения, скрывающие нежелательные предубеждения (например, расовые или гендерные предубеждения) базовых моделей. Лаккараджу также был соавтором исследования, которое продемонстрировало, что эксперты в предметной области не всегда могут правильно интерпретировать постфактумные объяснения и что злоумышленники могут использовать постфактумные объяснения, чтобы манипулировать экспертами, заставляя их доверять и использовать предвзятые модели. [27]
Она также работала над повышением надежности методов объяснения. Она и ее коллеги разработали новую теорию [28] и методы [29] [30] для анализа и повышения надежности различных классов методов объяснения после, предложив единую теоретическую структуру и установив первые известные связи между объяснимостью и состязательным обучением . Лаккараджу также внесла важный исследовательский вклад в область алгоритмического регресса. Она и ее соавторы разработали один из первых методов, который позволяет лицам, принимающим решения, тщательно проверять прогностические модели, чтобы гарантировать, что предоставленный регресс является значимым и недискриминационным. [25] Ее исследование также выявило критические недостатки в нескольких популярных подходах в литературе по алгоритмическому регрессу. [31]
В 2020 году Лаккараджу стал соучредителем инициативы Trustworthy ML (TrustML) для демократизации и продвижения исследований в области надежного машинного обучения, которая в широком смысле охватывает интерпретируемость, справедливость, конфиденциальность и надежность моделей машинного обучения. [1] Цель этой инициативы — обеспечить легкий доступ к фундаментальным ресурсам новичкам в этой области, предоставить начинающим исследователям платформу для демонстрации своих работ и в более широком смысле сформировать сообщество исследователей и практиков, работающих над темами, связанными с надежным машинным обучением.
В рамках этой инициативы Лаккараджу разработал несколько учебных пособий [2] [3] [4] [5] и полноценный курс по объяснимому машинному обучению [6] .
Курс «Интерпретируемость и объяснимость в машинном обучении», 2019 г.
Учебное пособие для конференции NeurIPS на тему «Объяснение прогнозов машинного обучения: современное состояние, проблемы и возможности », 2020 г.
Учебное пособие для конференции AAAI «Объяснение прогнозов машинного обучения: современное состояние, проблемы и возможности», 2021 г.
Учебное пособие конференции CHIL «Объясняемое машинное обучение: понимание ограничений и расширение границ», 2021 г.