stringtranslate.com

Распознавание эмоций

Распознавание эмоций – это процесс идентификации человеческих эмоций . Люди сильно различаются по точности распознавания эмоций других. Использование технологий, помогающих людям распознавать эмоции, является относительно молодой областью исследований. Как правило, технология работает лучше всего, если она использует несколько модальностей в контексте. На сегодняшний день большая часть работы была проведена по автоматизации распознавания выражений лица по видео, устных выражений по аудио, письменных выражений по тексту и физиологии по данным носимых устройств.

Человек

Люди демонстрируют большую вариативность в своих способностях распознавать эмоции. Ключевой момент, который следует учитывать при изучении автоматического распознавания эмоций, заключается в том, что существует несколько источников «основной истины» или правды о том, что такое настоящая эмоция. Предположим, мы пытаемся распознать эмоции Алекса. Один из источников: «Что, по мнению большинства людей, чувствует Алекс?» В этом случае «истина» может не соответствовать тому, что чувствует Алекс, но может соответствовать тому, что, по мнению большинства людей, похоже на чувства Алекса. Например, Алексу может быть грустно, но он широко улыбается, и тогда большинство людей говорят, что он выглядит счастливым. Если автоматизированный метод дает те же результаты, что и группа наблюдателей, его можно считать точным, даже если он на самом деле не измеряет то, что на самом деле чувствует Алекс. Еще один источник «правды» — спросить Алекса, что он на самом деле чувствует. Это сработает, если Алекс хорошо понимает свое внутреннее состояние и хочет рассказать вам, что оно собой представляет, и способен точно выразить это словами или числами. Однако некоторые люди алекситимичны и плохо понимают свои внутренние чувства или не способны точно передать их с помощью слов и цифр. В общем, чтобы выяснить, какие эмоции на самом деле присутствуют, может потребоваться определенная работа, которая может варьироваться в зависимости от выбранных критериев и обычно предполагает поддержание определенного уровня неопределенности.

Автоматический

Были проведены десятилетия научных исследований по разработке и оценке методов автоматического распознавания эмоций. В настоящее время существует обширная литература, предлагающая и оценивающая сотни различных методов, использующих методы из разных областей, таких как обработка сигналов , машинное обучение , компьютерное зрение и обработка речи . Для интерпретации эмоций могут использоваться различные методологии и методы, такие как байесовские сети . [1] , модели гауссовой смеси [2] и скрытые марковские модели [3] и глубокие нейронные сети . [4]

Подходы

Точность распознавания эмоций обычно повышается, когда анализ человеческих выражений сочетается с мультимодальными формами, такими как тексты, физиологические данные, аудио или видео. [5] Различные типы эмоций обнаруживаются посредством интеграции информации, полученной от выражений лица , движений тела, жестов и речи. [6] Говорят, что эта технология способствует появлению так называемого эмоционального или эмоционального Интернета . [7]

Существующие подходы к распознаванию эмоций для классификации определенных типов эмоций можно в целом разделить на три основные категории: методы, основанные на знаниях, статистические методы и гибридные подходы. [8]

Техники, основанные на знаниях

Методы, основанные на знаниях (иногда называемые методами, основанными на лексике ), используют знания предметной области, а также семантические и синтаксические характеристики текста и потенциально разговорного языка для обнаружения определенных типов эмоций . [9] При таком подходе в процессе классификации эмоций обычно используются ресурсы, основанные на знаниях, такие как WordNet , SenticNet, [10] ConceptNet и EmotiNet, [11] и это лишь некоторые из них. [12] Одним из преимуществ этого подхода является доступность и экономичность, обеспечиваемая большой доступностью таких ресурсов, основанных на знаниях. [8] С другой стороны, ограничением этого метода является его неспособность обрабатывать концептуальные нюансы и сложные лингвистические правила. [8]

Методы, основанные на знаниях, можно в основном разделить на две категории: подходы, основанные на словарях и подходы, основанные на корпусе. [ нужна цитация ] Подходы, основанные на словарях, находят в словаре исходные слова, относящиеся к мнениям или эмоциям , и ищут их синонимы и антонимы , чтобы расширить первоначальный список мнений или эмоций . [13] С другой стороны, подходы, основанные на корпусе, начинаются с исходного списка слов, выражающих мнения или эмоции , и расширяют базу данных за счет поиска других слов с контекстно-зависимыми характеристиками в большом корпусе . [13] Хотя корпусные подходы учитывают контекст, их эффективность по-прежнему различается в разных областях, поскольку слово в одном домене может иметь разную ориентацию в другом домене. [14]

Статистические методы

Статистические методы обычно включают использование различных алгоритмов контролируемого машинного обучения , в которых большой набор аннотированных данных вводится в алгоритмы, позволяющие системе изучать и прогнозировать соответствующие типы эмоций . [8] Алгоритмы машинного обучения обычно обеспечивают более разумную точность классификации по сравнению с другими подходами, но одной из проблем в достижении хороших результатов в процессе классификации является необходимость иметь достаточно большой обучающий набор. [8]

Некоторые из наиболее часто используемых алгоритмов машинного обучения включают в себя машины опорных векторов (SVM) , наивный Байес и максимальную энтропию . [15] Глубокое обучение , которое относится к неконтролируемому семейству машинного обучения , также широко применяется для распознавания эмоций. [16] [17] [18] Хорошо известные алгоритмы глубокого обучения включают в себя различные архитектуры искусственных нейронных сетей (ИНС), такие как сверточная нейронная сеть (CNN) , длинная краткосрочная память (LSTM) и машина экстремального обучения (ELM). . [15] Популярность подходов глубокого обучения в области распознавания эмоций можно главным образом объяснить их успехом в смежных приложениях, таких как компьютерное зрение , распознавание речи и обработка естественного языка (НЛП) . [15]

Гибридные подходы

Гибридные подходы к распознаванию эмоций по сути представляют собой комбинацию методов, основанных на знаниях, и статистических методов, в которых используются взаимодополняющие характеристики обоих методов. [8] Некоторые из работ, в которых применялся ансамбль лингвистических элементов, основанных на знаниях, и статистических методов, включают в себя сентические вычисления и iFeel, обе из которых использовали ресурс SenticNet, основанный на знаниях концептуального уровня. [19] [20] Роль таких основанных на знаниях ресурсов в реализации гибридных подходов очень важна в процессе классификации эмоций . [12] Поскольку гибридные методы извлекают выгоду из преимуществ, предлагаемых как подходами, основанными на знаниях, так и статистическими, они, как правило, имеют более высокую производительность классификации, в отличие от независимого использования основанных на знаниях или статистических методов. [ Требуется цитирование ] Однако недостатком использования гибридных методов является сложность вычислений в процессе классификации. [12]

Наборы данных

Данные являются неотъемлемой частью существующих подходов к распознаванию эмоций, и в большинстве случаев получение аннотированных данных, необходимых для обучения алгоритмов машинного обучения , представляет собой проблему. [13] Для задачи классификации различных типов эмоций из мультимодальных источников в виде текстов, аудио, видео или физиологических сигналов доступны следующие наборы данных:

  1. HUMAINE: предоставляет естественные клипы со словами, выражающими эмоции, и контекстными метками в различных модальностях [21].
  2. База данных Белфаста: содержит клипы с широким спектром эмоций из телепрограмм и записей интервью [22].
  3. SEMAINE: обеспечивает аудиовизуальные записи между человеком и виртуальным агентом и содержит аннотации эмоций, такие как гнев, счастье, страх, отвращение, печаль, презрение и веселье [23].
  4. IEMOCAP: обеспечивает записи диадических сессий между актерами и содержит аннотации эмоций, таких как счастье, гнев, печаль, разочарование и нейтральное состояние [24].
  5. eNTERFACE: предоставляет аудиовизуальные записи лиц семи национальностей и содержит аннотации к эмоциям, таким как счастье, гнев, печаль, удивление, отвращение и страх [25].
  6. DEAP: обеспечивает электроэнцефалографию (ЭЭГ), электрокардиографию (ЭКГ) и видеозаписи лиц, а также аннотации эмоций с точки зрения валентности , возбуждения и доминирования людей, просматривающих видеоклипы [26]
  7. МЕЧТАТЕЛЬ: обеспечивает записи электроэнцефалографии (ЭЭГ) и электрокардиографии (ЭКГ), а также аннотации эмоций с точки зрения валентности и доминирования людей, смотрящих видеоклипы [27].
  8. MELD: представляет собой многосторонний диалоговый набор данных, в котором каждое высказывание помечено эмоциями и настроениями. MELD [28] обеспечивает общение в видеоформате и, следовательно, подходит для мультимодального распознавания эмоций и анализа настроений . MELD полезен для мультимодального анализа настроений и распознавания эмоций, диалоговых систем и распознавания эмоций в разговорах . [29]
  9. MuSe: обеспечивает аудиовизуальные записи естественных взаимодействий между человеком и объектом. [30] Он содержит дискретные и непрерывные аннотации эмоций с точки зрения валентности, возбуждения и надежности, а также речевые темы, полезные для мультимодального анализа настроений и распознавания эмоций.
  10. UIT-VSMEC: стандартный вьетнамский корпус эмоций в социальных сетях (UIT-VSMEC), содержащий около 6927 предложений, аннотированных людьми, с шестью метками эмоций, что способствует исследованиям распознавания эмоций на вьетнамском языке, который является языком с низкими ресурсами в области обработки естественного языка (НЛП). . [31]
  11. BED: обеспечивает валентность и возбуждение людей, смотрящих изображения. Он также включает записи электроэнцефалографии (ЭЭГ) людей, подвергшихся воздействию различных раздражителей ( ССВЭП , отдых с закрытыми глазами, отдых с открытыми глазами, когнитивные задачи) для задачи биометрии на основе ЭЭГ . [32]

Приложения

Распознавание эмоций используется в обществе по разным причинам. Affectiva , созданная на базе Массачусетского технологического института , предоставляет программное обеспечение для искусственного интеллекта , которое позволяет более эффективно выполнять задачи, которые раньше выполнялись людьми вручную, в основном для сбора информации о выражении лица и голосовых выражениях, связанной с конкретными контекстами, в которых зрители согласились поделиться этой информацией. Например, вместо того, чтобы заполнять длинный опрос о том, как вы себя чувствуете в каждый момент просмотра образовательного видео или рекламы, вы можете дать согласие на то, чтобы камера наблюдала за вашим лицом и слушала, что вы говорите, и отмечала, во время каких частей опыта вы покажите такие выражения, как скука, интерес, замешательство или улыбка. (Обратите внимание, что это не означает, что он считывает ваши самые сокровенные чувства — он считывает только то, что вы выражаете внешне.) Другие варианты использования Affectiva включают помощь детям с аутизмом, помощь слепым людям читать выражения лица, помощь роботам более разумно взаимодействовать с людьми. и отслеживание знаков внимания во время вождения с целью повышения безопасности водителя. [33]

Академические исследования все чаще используют распознавание эмоций как метод изучения вопросов социальных наук, связанных с выборами, протестами и демократией. Несколько исследований сосредоточены на выражениях лиц политических кандидатов в социальных сетях и показывают, что политики склонны выражать счастье. [34] [35] [36] Однако это исследование показывает, что инструменты компьютерного зрения, такие как Amazon Rekognition, точны только для определения счастья и в основном надежны в качестве «детекторов счастья». [37] Исследователи, изучающие протесты, в которых ожидается негативное воздействие , такое как гнев, поэтому разработали свои собственные модели для более точного изучения проявлений негатива и насилия в демократических процессах. [38]

Патент, заархивированный 7 октября 2019 года в Wayback Machine , поданный Snapchat в 2015 году, описывает метод извлечения данных о толпе на публичных мероприятиях путем алгоритмического распознавания эмоций на селфи пользователей с геотегами . [39]

Emotient была стартап-компанией , которая применяла распознавание эмоций для чтения хмурых взглядов, улыбок и других выражений лица, а именно искусственный интеллект для прогнозирования «отношений и действий на основе выражений лица». [40] Apple купила Emotient в 2016 году и использует технологию распознавания эмоций для повышения эмоционального интеллекта своих продуктов. [40]

nViso обеспечивает распознавание эмоций в реальном времени для веб- и мобильных приложений через API реального времени . [41] Visage Technologies AB предлагает оценку эмоций как часть своего Visage SDK для маркетинговых , научных исследований и аналогичных целей. [42]

Eyeris — компания по распознаванию эмоций, которая работает с производителями встраиваемых систем, включая производителей автомобилей и компаний, занимающихся социальными роботами, над интеграцией своего программного обеспечения для анализа лиц и распознавания эмоций; а также с создателями видеоконтента, чтобы помочь им оценить воспринимаемую эффективность их коротких и длинных видеокреативов. [43] [44]

Также существует множество продуктов для агрегирования информации об эмоциях, передаваемых в Интернете, в том числе посредством нажатия кнопки «Нравится» и подсчета положительных и отрицательных фраз в тексте, а распознавание эффектов все чаще используется в некоторых видах игр и виртуальной реальности, как в образовательных целях, так и для дать игрокам более естественный контроль над своими аватарами в социальных сетях. [ нужна цитата ]

Подполя

Распознавание эмоций, вероятно, даст наилучший результат, если применять несколько модальностей путем объединения различных объектов, включая текст (разговор), аудио, видео и физиологию для обнаружения эмоций.

Распознавание эмоций в тексте

Текстовые данные являются благоприятным объектом исследования для распознавания эмоций, поскольку они бесплатны и доступны повсюду в жизни человека. По сравнению с другими типами данных, текстовые данные легче хранятся и их легко сжимать для достижения наилучшей производительности благодаря частому повторению слов и символов на языках. Эмоции можно извлечь из двух основных текстовых форм: письменных текстов и разговоров (диалогов). [45] В письменных текстах многие ученые сосредотачиваются на работе с уровнем предложений, чтобы извлечь «слова/фразы», ​​представляющие эмоции. [46] [47]

Распознавание эмоций в аудио

В отличие от распознавания эмоций в тексте, голосовые сигналы используются для распознавания эмоций из аудио . [48]

Распознавание эмоций в видео

Видеоданные представляют собой комбинацию аудиоданных, данных изображения и иногда текста (в случае субтитров [49] ).

Распознавание эмоций в разговоре

Распознавание эмоций в разговоре (ERC) извлекает мнения участников из массивных данных разговоров в социальных платформах , таких как Facebook , Twitter , YouTube и других. [29] ERC может принимать входные данные, такие как текст, аудио, видео или их комбинацию, для обнаружения нескольких эмоций, таких как страх, похоть, боль и удовольствие.

Смотрите также

Рекомендации

  1. ^ Миякоси, Ёсихиро и Шохей Като. «Обнаружение эмоций на лице с учетом частичного закрытия лица с использованием байсовской сети». Компьютеры и информатика (2011): 96–101.
  2. ^ Хари Кришна Видана, П. Фани Кумар, К. Шри Рама Кришна и Анил Кумар Вуппала. «Улучшенное распознавание эмоций с помощью GMM-UBM». 2015 Международная конференция по инженерным системам обработки сигналов и связи
  3. ^ Б. Шуллер, Г. Ригол М. Ланг. «Распознавание речевых эмоций на основе скрытой марковской модели». ICME '03. Слушания. 2003 г. Международная конференция по мультимедиа и выставкам, 2003 г.
  4. ^ Сингх, Премджит; Саха, Гутам; Сахидулла, Мэриленд (2021). «Нелинейное искажение частоты с использованием преобразования с постоянной добротностью для распознавания речевых эмоций». Международная конференция по компьютерной связи и информатике (ICCCI) 2021 . стр. 1–4. arXiv : 2102.04029 . дои : 10.1109/ICCCI50826.2021.9402569. ISBN 978-1-7281-5875-4. S2CID  231846518.
  5. ^ Пория, Суджанья; Камбрия, Эрик; Баджпай, Раджив; Хусейн, Амир (сентябрь 2017 г.). «Обзор аффективных вычислений: от унимодального анализа к мультимодальному слиянию». Информационный синтез . 37 : 98–125. doi :10.1016/j.inffus.2017.02.003. hdl : 1893/25490 . S2CID  205433041.
  6. ^ Каридакис, Джордж; Кастеллано, Джиневра; Кессоус, Лоик; Раузайу, Амариллис; Малатеста, Лори; Астериадис, Стелиос; Карпузис, Костас (19 сентября 2007 г.). «Мультимодальное распознавание эмоций по выразительным лицам, жестам и речи». Искусственный интеллект и инновации 2007: от теории к приложениям . ИФИП — Международная федерация обработки информации. Том. 247. С. 375–388. дои : 10.1007/978-0-387-74161-1_41. ISBN 978-0-387-74160-4.
  7. ^ Цена (23 августа 2015 г.). «Подключение к эмоциональному Интернету». ТехКранч . Проверено 12 декабря 2018 г.
  8. ^ abcdef Камбрия, Эрик (март 2016 г.). «Аффективные вычисления и анализ настроений». Интеллектуальные системы IEEE . 31 (2): 102–107. дои :10.1109/MIS.2016.31. S2CID  18580557.
  9. ^ Табоада, Майте; Брук, Джулиан; Тофилоски, Милан; Волл, Кимберли; Стеде, Манфред (июнь 2011 г.). «Лексиконные методы анализа настроений». Компьютерная лингвистика . 37 (2): 267–307. дои : 10.1162/coli_a_00049 . ISSN  0891-2017.
  10. ^ Камбрия, Эрик; Лю, Цянь; Декерки, Серджио; Син, Фрэнк; Квок, Кеннет (2022). «SenticNet 7: основанная на здравом смысле система нейросимволического искусственного интеллекта для объяснимого анализа настроений» (PDF) . Труды ЛРЭК . стр. 3829–3839.
  11. ^ Балахур, Александра; Эрмида, Хесус М; Монтойо, АндреС (1 ноября 2012 г.). «Обнаружение неявных выражений эмоций в тексте: сравнительный анализ». Системы поддержки принятия решений . 53 (4): 742–753. дои : 10.1016/j.dss.2012.05.024. ISSN  0167-9236.
  12. ^ abc Медхат, Валаа; Хасан, Ахмед; Кораши, Хода (декабрь 2014 г.). «Алгоритмы и приложения анализа настроений: опрос». Инженерный журнал Айн-Шамс . 5 (4): 1093–1113. дои : 10.1016/j.asej.2014.04.011 .
  13. ^ abc Мадхуши, Зохре; Хамдан, Абдул Разак; Заинудин, Сухайла (2015). «Методы анализа настроений в последних работах». 2015 Научно-информационная конференция (SAI) . стр. 288–291. дои : 10.1109/SAI.2015.7237157. ISBN 978-1-4799-8547-0. S2CID  14821209.
  14. ^ Хемматиан, Фатима; Сохраби, Мохаммад Карим (18 декабря 2017 г.). «Обзор методов классификации для анализа мнений и настроений». Обзор искусственного интеллекта . 52 (3): 1495–1545. дои : 10.1007/s10462-017-9599-6. S2CID  11741285.
  15. ^ abc Sun, Шилян; Ло, Чен; Чен, Джунюй (июль 2017 г.). «Обзор методов обработки естественного языка для систем интеллектуального анализа мнений». Информационный синтез . 36 : 10–25. doi :10.1016/j.inffus.2016.10.004.
  16. ^ Маджумдер, Навонил; Пория, Суджанья; Гельбух, Александр; Камбрия, Эрик (март 2017 г.). «Моделирование документов на основе глубокого обучения для распознавания личности по тексту». Интеллектуальные системы IEEE . 32 (2): 74–79. дои :10.1109/MIS.2017.23. S2CID  206468984.
  17. ^ Махендхиран, PD; Каннимуту, С. (май 2018 г.). «Методы глубокого обучения для классификации полярностей в мультимодальном анализе настроений». Международный журнал информационных технологий и принятия решений . 17 (3): 883–910. дои : 10.1142/S0219622018500128.
  18. ^ Ю, Хунлян; Гуй, Лянке; Мадайо, Майкл; Оган, Эми; Касселл, Жюстин; Моранси, Луи-Филипп (23 октября 2017 г.). «Модель временного избирательного внимания для социального и аффективного распознавания состояний в мультимедийном контенте». Материалы 25-й международной конференции ACM по мультимедиа . ММ '17. АКМ. стр. 1743–1751. дои : 10.1145/3123266.3123413. ISBN 9781450349062. S2CID  3148578.
  19. ^ Камбрия, Эрик; Хусейн, Амир (2015). Сентические вычисления: основанная на здравом смысле концепция анализа настроений на концептуальном уровне. Издательская компания Springer, Incorporated. ISBN 978-3319236537.
  20. ^ Араужо, Матеус; Гонсалвес, Поллианна; Ча, Миёнг ; Беневенуто, Фабрисио (7 апреля 2014 г.). «IFeel: система, которая сравнивает и комбинирует методы анализа настроений». Материалы 23-й Международной конференции по Всемирной паутине . WWW '14 Компаньон. АКМ. стр. 75–78. дои : 10.1145/2567948.2577013. ISBN 9781450327459. S2CID  11018367.
  21. ^ Паоло Петта; Катрин Пелашо ; Родди Коуи, ред. (2011). Эмоционально-ориентированные системы. Человеческий справочник . Берлин: Шпрингер. ISBN 978-3-642-15184-2.
  22. ^ Дуглас-Коуи, Эллен; Кэмпбелл, Ник; Коуи, Родди; Роуч, Питер (1 апреля 2003 г.). «Эмоциональная речь: к новому поколению баз данных». Речевое общение . 40 (1–2): 33–60. CiteSeerX 10.1.1.128.3991 . дои : 10.1016/S0167-6393(02)00070-5. ISSN  0167-6393. S2CID  6421586. 
  23. ^ Маккеун, Г.; Валстар, М.; Коуи, Р.; Пантич, М.; Шредер, М. (январь 2012 г.). «База данных SEMAINE: аннотированные мультимодальные записи эмоционально окрашенных разговоров между человеком и ограниченным агентом». Транзакции IEEE для аффективных вычислений . 3 (1): 5–17. дои : 10.1109/T-AFFC.2011.20. S2CID  2995377.
  24. ^ Буссо, Карлос; Булут, Муртаза; Ли, Чи-Чун; Каземзаде, Абэ; Мауэр, Эмили ; Ким, Сэмюэл; Чанг, Жаннетт Н.; Ли, Сунгбок; Нарайанан, Шрикант С. (5 ноября 2008 г.). «IEMOCAP: интерактивная база данных эмоционального диадного захвата движений». Языковые ресурсы и оценка . 42 (4): 335–359. дои : 10.1007/s10579-008-9076-6. ISSN  1574-020X. S2CID  11820063.
  25. ^ Мартин, О.; Коция, И.; Макк, Б.; Питас, И. (3 апреля 2006 г.). «База данных аудиовизуальных эмоций eNTERFACE'05». 22-я Международная конференция по инженерии данных (ICDEW'06). Айдью '06. Компьютерное общество IEEE. стр. 8–. doi :10.1109/ICDEW.2006.145. ISBN 9780769525716. S2CID  16185196.
  26. ^ Коелстра, Сандер; Мюль, Кристиан; Сулеймани, Мохаммед; Ли, Чон Сок; Яздани, Ашкан; Эбрахими, Турадж; Каламбур, Тьерри; Нейхолт, Антон; Патры, Иоаннис (январь 2012 г.). «DEAP: база данных для анализа эмоций с использованием физиологических сигналов». Транзакции IEEE для аффективных вычислений . 3 (1): 18–31. CiteSeerX 10.1.1.593.8470 . дои : 10.1109/T-AFFC.2011.15. ISSN  1949-3045. S2CID  206597685. 
  27. ^ Кацигианнис, Стамос; Рамзан, Наим (январь 2018 г.). «DREAMER: база данных для распознавания эмоций с помощью сигналов ЭЭГ и ЭКГ от недорогих беспроводных готовых устройств» (PDF) . Журнал IEEE по биомедицинской и медицинской информатике . 22 (1): 98–107. дои : 10.1109/JBHI.2017.2688239. ISSN  2168-2194. PMID  28368836. S2CID  23477696. Архивировано из оригинала (PDF) 1 ноября 2022 года . Проверено 1 октября 2019 г.
  28. ^ Пория, Суджанья; Хазарика, Деваманью; Маджумдер, Навонил; Наик, Гаутама; Камбрия, Эрик; Михалча, Рада (2019). «MELD: мультимодальный многосторонний набор данных для распознавания эмоций в разговорах». Материалы 57-го ежегодного собрания Ассоциации компьютерной лингвистики . Страудсбург, Пенсильвания, США: Ассоциация компьютерной лингвистики: 527–536. arXiv : 1810.02508 . дои : 10.18653/v1/p19-1050. S2CID  52932143.
  29. ^ аб Пориа С., Маджумдер Н., Михалча Р. и Хови Э. (2019). Распознавание эмоций в разговоре: проблемы исследования, наборы данных и последние достижения. Доступ IEEE, 7, 100943-100953.
  30. ^ Стаппен, Лукас; Шуллер, Бьёрн; Лефтер, Юлия; Камбрия, Эрик; Компациарис, Иоаннис (2020). «Краткий обзор MuSe 2020: мультимодальный анализ настроений, взаимодействие с эмоциями и обнаружение надежности в реальных СМИ». Материалы 28-й Международной конференции ACM по мультимедиа . Сиэтл, Пенсильвания, США: Ассоциация вычислительной техники. стр. 4769–4770. arXiv : 2004.14858 . дои : 10.1145/3394171.3421901. ISBN 9781450379885. S2CID  222278714.
  31. ^ Хо, Вонг (2020). «Распознавание эмоций в текстах вьетнамских социальных сетей». Компьютерная лингвистика . Коммуникации в компьютерной и информатике. Том. 1215. стр. 319–333. arXiv : 1911.09339 . дои : 10.1007/978-981-15-6168-9_27. ISBN 978-981-15-6167-2. S2CID  208202333.
  32. ^ Арнау-Гонсалес, Пабло; Кацигианнис, Стамос; Аревалило-Эррас, Мигель; Рамзан, Наим (февраль 2021 г.). «BED: новый набор данных для биометрии на основе ЭЭГ». Журнал IEEE Интернета вещей . (Ранний доступ) (15): 1. doi :10.1109/JIOT.2021.3061727. ISSN  2327-4662. S2CID  233916681.
  33. ^ "Аффектива".
  34. ^ Боссетта, Майкл; Шмёкель, Расмус (2 января 2023 г.). «Межплатформенные эмоции и вовлечение аудитории в политическую кампанию в социальных сетях: сравнение изображений кандидатов в Facebook и Instagram на выборах в США в 2020 году». Политическая коммуникация . 40 (1): 48–68. дои : 10.1080/10584609.2022.2128949 . ISSN  1058-4609.
  35. Пэн, Илан (январь 2021 г.). «Что делает публикации политиков в Instagram популярными? Анализ стратегий кандидатов и должностных лиц в социальных сетях с помощью компьютерного зрения». Международный журнал прессы/политики . 26 (1): 143–166. дои : 10.1177/1940161220964769. ISSN  1940-1612. S2CID  225108765.
  36. ^ Хаим, Марио; Юнгблут, Марк (15 марта 2021 г.). «Самоописание политиков и их изображение в новостях: данные из 28 стран с использованием визуального компьютерного анализа». Политическая коммуникация . 38 (1–2): 55–74. дои : 10.1080/10584609.2020.1753869. ISSN  1058-4609. S2CID  219481457.
  37. ^ Боссетта, Майкл; Шмёкель, Расмус (2 января 2023 г.). «Межплатформенные эмоции и вовлечение аудитории в политическую кампанию в социальных сетях: сравнение изображений кандидатов в Facebook и Instagram на выборах в США в 2020 году». Политическая коммуникация . 40 (1): 48–68. дои : 10.1080/10584609.2022.2128949 . ISSN  1058-4609.
  38. ^ Вон, Донхён; Штайнерт-Трелкельд, Закари К.; Джу, Чонсок (19 октября 2017 г.). «Обнаружение протестной активности и оценка предполагаемого насилия по изображениям в социальных сетях». Материалы 25-й международной конференции ACM по мультимедиа . ММ '17. Нью-Йорк, штат Нью-Йорк, США: Ассоциация вычислительной техники. стр. 786–794. arXiv : 1709.06204 . дои : 10.1145/3123266.3123282. ISBN 978-1-4503-4906-2.
  39. ^ Бушвик, Софи. «Это видео наблюдает за тобой». Научный американец . Проверено 27 января 2020 г.
  40. ^ аб ДеМут-младший, Крис (8 января 2016 г.). «Apple читает ваши мысли». Ежедневник слияний и поглощений . В поисках Альфа . Проверено 9 января 2016 г.
  41. ^ "НВисо". nViso.ch .
  42. ^ "Визажные технологии".
  43. ^ «Чувствуешь грусть, злость? Ваша будущая машина узнает» .
  44. Варагур, Критика (22 марта 2016 г.). «Автомобили скоро могут предупреждать водителей, прежде чем они уснут». Хаффингтон Пост .
  45. ^ Шивхаре, С.Н., и Кетават, С. (2012). Обнаружение эмоций по тексту. Препринт arXiv arXiv : 1205.4944
  46. ^ Эжилараси Р. и Мину Р.И. (2012). Автоматическое распознавание и классификация эмоций. Проседиа Инжиниринг, 38, 21-26.
  47. ^ Кркадинац У., Паскье П., Йованович Дж. и Деведжич В. (2013). Synesketch: библиотека с открытым исходным кодом для распознавания эмоций на основе предложений. Транзакции IEEE по аффективным вычислениям, 4 (3), 312–325.
  48. ^ Шмитт М., Рингеваль Ф. и Шуллер Б.В. (сентябрь 2016 г.). На границе акустики и лингвистики: мешок аудиослов для распознавания эмоций в речи. В Interspeech (стр. 495–499).
  49. ^ Дхалл А., Гёке Р., Люси С. и Гедеон Т. (2012). Сбор больших, богато аннотированных баз данных выражений лиц из фильмов. Мультимедиа IEEE, (3), 34–41.