stringtranslate.com

Распознавание жестов

Алгоритм распознавания жестов определяет местоположение и движение руки ребенка.

Распознавание жестов — это область исследований и разработок в области компьютерных наук и языковых технологий , связанных с распознаванием и интерпретацией человеческих жестов . Поддисциплина компьютерного зрения , [ нужна ссылка ] использует математические алгоритмы для интерпретации жестов. [1]

Распознавание жестов дает возможность компьютерам лучше понимать и интерпретировать язык человеческого тела , что ранее было невозможно с помощью текстовых или нерасширенных графических (GUI) пользовательских интерфейсов.

Жесты могут возникать в результате любого движения или состояния тела, но обычно они исходят от лица или руки . Одной из областей этой области является распознавание эмоций по выражению лица и жестам рук. Пользователи могут использовать простые жесты для управления устройствами или взаимодействия с ними, не прикасаясь к ним физически.

Было реализовано множество подходов с использованием камер и алгоритмов компьютерного зрения для интерпретации языка жестов , однако идентификация и распознавание позы, походки, проксемики и поведения человека также являются предметом методов распознавания жестов. [2]

Обзор

Промежуточное ПО обычно обрабатывает распознавание жестов , а затем отправляет результаты пользователю.

Распознавание жестов применяется в таких областях, как: [ когда? ]

Распознавание жестов может осуществляться с помощью методов компьютерного зрения и обработки изображений . [5]

Литература включает текущие работы в области компьютерного зрения по захвату жестов или более общих поз и движений человека с помощью камер, подключенных к компьютеру. [6] [7] [8] [9]

Термин «распознавание жестов» использовался для более узкого обозначения символов рукописного ввода, не связанных с вводом текста, таких как рукописный ввод на графическом планшете , мультитач-жесты и распознавание жестов мыши . Это взаимодействие с компьютером посредством рисования символов курсором манипулятора. [10] [11] [12] Перьевые вычисления расширяют возможности распознавания цифровых жестов за пределы традиционных устройств ввода, таких как клавиатуры и мыши, и уменьшают влияние аппаратного обеспечения системы. [ как? ]

Типы жестов

В компьютерных интерфейсах выделяют два типа жестов: [13] Мы рассматриваем онлайн-жесты, которые также можно рассматривать как прямые манипуляции типа масштабирования и вращения, и, напротив, офлайн-жесты обычно обрабатываются после завершения взаимодействия; например, рисуется круг для активации контекстного меню .

Бесконтактный интерфейс

Бесконтактный пользовательский интерфейс (TUI) — это новый тип технологии, в котором устройством управляют с помощью движений тела и жестов, не прикасаясь к клавиатуре, мыши или экрану. [14]

Виды бесконтактной технологии

Существует несколько устройств, использующих этот тип интерфейса, например смартфоны, ноутбуки, игры, телевизоры и музыкальное оборудование.

Один тип бесконтактного интерфейса использует Bluetooth-соединение смартфона для активации системы управления посетителями компании. Это избавляет от необходимости прикасаться к интерфейсу для удобства или во избежание потенциального источника заражения, как во время пандемии COVID-19 . [15]

Устройства ввода

Возможность отслеживать движения человека и определять, какие жесты он может выполнять, может быть достигнута с помощью различных инструментов. Кинетические пользовательские интерфейсы (KUI) — это новый тип пользовательских интерфейсов , которые позволяют пользователям взаимодействовать с вычислительными устройствами посредством движения объектов и тел. [ нужна цитация ] Примеры KUI включают материальные пользовательские интерфейсы и игры с поддержкой движения, такие как Wii и Microsoft Kinect , а также другие интерактивные проекты. [16]

Несмотря на то, что в области распознавания жестов на основе изображений и видео проведено большое количество исследований, существуют некоторые различия в инструментах и ​​средах, используемых в разных реализациях.

Алгоритмы

Некоторые альтернативные методы отслеживания и анализа жестов и их соответствующих взаимосвязей.

В зависимости от типа входных данных подход к интерпретации жеста может осуществляться по-разному. Однако большинство методов основаны на ключевых указателях, представленных в трехмерной системе координат. Основываясь на их относительном движении, жест можно обнаружить с высокой точностью, в зависимости от качества входных данных и подхода алгоритма. [30]

Чтобы интерпретировать движения тела, необходимо классифицировать их по общим свойствам и сообщению, которое эти движения могут выражать. Например, на языке жестов каждый жест представляет слово или фразу.

В некоторой литературе различают два разных подхода к распознаванию жестов: на основе 3D-модели и на основе внешнего вида. [31] Самый передовой метод использует трехмерную информацию о ключевых элементах частей тела для получения нескольких важных параметров, таких как положение ладоней или углы суставов. Подходы, основанные на нем, такие как объемные модели, оказались очень интенсивными с точки зрения вычислительной мощности и требуют дальнейших технологических разработок для реализации анализа в реальном времени. С другой стороны, системы, основанные на внешнем виде, используют изображения или видео для прямой интерпретации. Такие модели легче обрабатывать, но им обычно не хватает общности, необходимой для взаимодействия человека и компьютера.

Алгоритмы на основе 3D-моделей

Реальная рука (слева) интерпретируется как набор вершин и линий в версии 3D-сетки (справа), и программное обеспечение использует их относительное положение и взаимодействие, чтобы определить жест.

В подходе 3D-модели можно использовать объемные или скелетные модели или даже их комбинацию. Объемные подходы широко используются в индустрии компьютерной анимации и в целях компьютерного зрения. Модели обычно создаются на основе сложных 3D-поверхностей, таких как NURBS или полигональные сетки.

Недостатком этого метода является то, что он требует очень больших вычислительных ресурсов, а системы анализа в реальном времени еще предстоит разработать. На данный момент более интересным подходом было бы сопоставить простые примитивные объекты с наиболее важными частями тела человека (например, цилиндры для рук и шеи, сферу для головы) и проанализировать, как они взаимодействуют друг с другом. Более того, некоторые абстрактные структуры, такие как суперквадрики и обобщенные цилиндры, могут быть даже более подходящими для аппроксимации частей тела.

Скелетные алгоритмы

Скелетная версия (справа) эффективно моделирует руку (слева). У него меньше параметров, чем у объемной версии, и его легче вычислить, что делает его пригодным для систем анализа жестов в реальном времени.

Вместо интенсивной обработки 3D-моделей и работы с множеством параметров можно просто использовать упрощенную версию параметров угла соединения вместе с длинами сегментов. Это известно как скелетное представление тела, при котором вычисляется виртуальный скелет человека и части тела сопоставляются с определенными сегментами. Анализ здесь выполняется с использованием положения и ориентации этих сегментов, а также связи между каждым из них (например, угла между суставами и относительного положения или ориентации).

Преимущества использования скелетных моделей:

Модели на основе внешнего вида

Эти двоичные изображения силуэта (слева) или контура (справа) представляют собой типичные входные данные для алгоритмов, основанных на внешнем виде. Они сравниваются с разными шаблонами рук, и если они совпадают, выводится соответствующий жест.

Модели, основанные на внешности, больше не используют пространственное представление тела, а получают свои параметры непосредственно из изображений или видео с использованием базы данных шаблонов. Некоторые из них основаны на деформируемых 2D-шаблонах частей человеческого тела, особенно рук. Деформируемые шаблоны — это наборы точек на контуре объекта, используемые в качестве узлов интерполяции для аппроксимации контура объекта. Одной из простейших интерполяционных функций является линейная, которая определяет усредненную форму по наборам точек, параметрам изменчивости точек и внешней деформации. Эти модели на основе шаблонов в основном используются для отслеживания рук, но также могут использоваться для простой классификации жестов.

Второй подход к обнаружению жестов с использованием моделей на основе внешнего вида использует последовательности изображений в качестве шаблонов жестов. Параметрами этого метода являются либо сами изображения, либо определенные функции, полученные на их основе. В большинстве случаев используются только один (моноскопический) или два (стереоскопический) вид.

Модели на основе электромиографии

Электромиография (ЭМГ) занимается изучением электрических сигналов, вырабатываемых мышцами тела. Благодаря классификации данных, полученных от мышц рук, можно классифицировать действие и, таким образом, ввести жест во внешнее программное обеспечение. [1] Бытовые устройства ЭМГ позволяют использовать неинвазивные методы, такие как использование повязки на руку или ногу, и подключаться через Bluetooth. Благодаря этому ЭМГ имеет преимущество перед визуальными методами, поскольку пользователю не нужно смотреть в камеру, чтобы вводить данные, что обеспечивает большую свободу движений.

Проблемы

Существует множество проблем, связанных с точностью и полезностью распознавания жестов и программного обеспечения, предназначенного для его реализации. Для распознавания жестов на основе изображений существуют ограничения на используемое оборудование и шум изображения . Изображения или видео могут находиться в разном освещении или в одном и том же месте. Предметы на заднем плане или отличительные особенности пользователей могут затруднить распознавание.

Разнообразие реализаций распознавания жестов на основе изображений также может вызвать проблемы с жизнеспособностью технологии для общего использования. Например, алгоритм, откалиброванный для одной камеры, может не работать для другой камеры. Уровень фонового шума также вызывает трудности с отслеживанием и распознаванием, особенно при возникновении окклюзии (частичной или полной). Кроме того, расстояние от камеры, а также разрешение и качество камеры также влияют на точность распознавания.

Для захвата человеческих жестов визуальными датчиками также необходимы надежные методы компьютерного зрения, например, для отслеживания рук и распознавания положения рук [32] [33] [34] [35] [36] [37 ] [38 ] [39] [40] или для фиксации движений головы, выражения лица или направления взгляда.

Социальная приемлемость

Одна из серьезных проблем внедрения жестовых интерфейсов на потребительских мобильных устройствах, таких как смартфоны и умные часы, связана с социальной приемлемостью жестового ввода. Хотя жесты могут облегчить быстрый и точный ввод данных на многих компьютерах нового форм-фактора, их внедрение и полезность часто ограничиваются социальными факторами, а не техническими. С этой целью разработчики методов ввода с помощью жестов могут стремиться сбалансировать как технические соображения, так и готовность пользователя выполнять жесты в различных социальных контекстах. [41] Кроме того, различное аппаратное обеспечение устройств и сенсорные механизмы поддерживают разные виды распознаваемых жестов.

Мобильное устройство

Интерфейсы жестов на мобильных устройствах и устройствах малого форм-фактора часто поддерживаются наличием датчиков движения, таких как инерциальные измерительные блоки (IMU). На этих устройствах распознавание жестов основано на том, что пользователи выполняют жесты, основанные на движении, которые могут быть распознаны этими датчиками движения. Это потенциально может затруднить захват сигналов от едва заметных или малоподвижных жестов, поскольку их будет трудно отличить от естественных движений или шума. В ходе опроса и изучения удобства использования жестов исследователи обнаружили, что жесты, включающие тонкие движения, которые кажутся похожими на существующие технологии, выглядят или ощущаются аналогично каждому действию и доставляют удовольствие, с большей вероятностью будут приняты пользователями, в то время как жесты, которые выглядят странно. , неудобны в использовании, мешают общению или вызывают необычные движения, из-за которых пользователи с большей вероятностью отказываются от их использования. [41] Социальная приемлемость жестов мобильных устройств во многом зависит от естественности жеста и социального контекста.

Нательные и носимые компьютеры

Носимые компьютеры обычно отличаются от традиционных мобильных устройств тем, что их использование и взаимодействие происходят на теле пользователя. В этих контекстах интерфейсы жестов могут оказаться предпочтительнее традиционных методов ввода, поскольку их небольшой размер делает сенсорные экраны или клавиатуры менее привлекательными. Тем не менее, когда дело доходит до взаимодействия с помощью жестов, они сталкиваются со многими из тех же препятствий социальной приемлемости, что и мобильные устройства. Однако возможность того, что носимые компьютеры будут скрыты от глаз или интегрированы в другие предметы повседневного обихода, такие как одежда, позволяет жестами имитировать обычные взаимодействия с одеждой, такие как поправка воротника рубашки или потирание переднего кармана брюк. [42] [43] Основным фактором взаимодействия носимого компьютера является место размещения устройства и взаимодействия с ним. Исследование, посвященное отношению третьих сторон к взаимодействию с носимыми устройствами, проведенное в США и Южной Корее, выявило различия в восприятии использования носимых компьютеров мужчинами и женщинами, отчасти из-за того, что разные области тела считаются социально чувствительными. [43] Другое исследование, изучавшее социальную приемлемость проецируемых на тело интерфейсов, показало аналогичные результаты: в обоих исследованиях области вокруг талии, паха и верхней части тела (для женщин) были обозначены как наименее приемлемые, а области вокруг предплечья и запястья - как наименее приемлемые. наиболее приемлемо. [44]

Общественные объекты

Общественные установки , такие как интерактивные публичные дисплеи, обеспечивают доступ к информации и отображают интерактивные медиа в общественных местах, таких как музеи, галереи и театры. [45] Хотя сенсорные экраны являются частой формой ввода данных для общественных дисплеев, интерфейсы с помощью жестов обеспечивают дополнительные преимущества, такие как улучшенная гигиена, взаимодействие на расстоянии и улучшенная видимость, а также могут способствовать перформативному взаимодействию. [42] Важным фактором при жестовом взаимодействии с публичными представлениями является высокая вероятность или ожидание зрительской аудитории. [45]

Усталость

Усталость рук была побочным эффектом использования вертикально ориентированного сенсорного экрана или светового пера. В периоды длительного использования руки пользователей начинали чувствовать усталость и/или дискомфорт. Этот эффект способствовал упадку использования сенсорного ввода, несмотря на его первоначальную популярность в 1980-х годах. [46] [47]

Чтобы измерить побочный эффект усталости рук, исследователи разработали метод под названием «Потребляемая выносливость». [48] ​​[49]

Смотрите также

Рекомендации

  1. ^ аб Кобыларз, Джонатан; Бёрд, Джордан Дж.; Фариа, Диего Р.; Рибейро, Эдуардо Паренте; Экарт, Анико (07.03.2020). «Большой палец вверх, большой палец вниз: невербальное взаимодействие человека и робота посредством классификации ЭМГ в реальном времени с помощью индуктивного и контролируемого трансдуктивного трансферного обучения». Журнал окружающего интеллекта и гуманизированных вычислений . ООО «Спрингер Сайенс энд Бизнес Медиа». 11 (12): 6021–6031. дои : 10.1007/s12652-020-01852-z . ISSN  1868-5137.
  2. ^ Маттиас Рем, Николаус Би, Элизабет Андре, Волна как египтянин - распознавание жестов на основе акселерометра для взаимодействия, специфичного для культуры, Британское компьютерное общество, 2007 г.
  3. ^ «Отчет о патентном ландшафте. Распознавание жестов рук PatSeer Pro» . ПэтСир . Архивировано из оригинала 20 октября 2019 г. Проверено 2 ноября 2017 г.
  4. ^ Чай, Сюцзюань и др. «Распознавание и перевод языка жестов с помощью kinect. Архивировано 10 января 2021 г. в Wayback Machine ». Конференция IEEE. по АФГР. Том. 655. 2013.
  5. ^ Султана А., Раджапусфа Т. (2012), «Распознавание жестов на основе зрения для алфавитных жестов рук с использованием классификатора SVM» [ постоянная мертвая ссылка ] , Международный журнал компьютерных наук и инженерных технологий (IJCSET)., 2012 г.
  6. ^ Павлович В., Шарма Р. и Хуанг Т. (1997), «Визуальная интерпретация жестов рук для взаимодействия человека с компьютером: обзор», Транзакции IEEE по анализу шаблонов и машинному интеллекту, июль 1997 г. Vol. 19(7), стр. 677–695.
  7. ^ Р. Чиполла и А. Пентланд, Компьютерное зрение для взаимодействия человека и машины, Cambridge University Press, 1998, ISBN 978-0-521-62253-0 
  8. ^ Ин Ву и Томас С. Хуанг, «Распознавание жестов на основе зрения: обзор». Архивировано 25 августа 2011 г. в Wayback Machine , В: Коммуникация на основе жестов во взаимодействии человека с компьютером, том 1739, конспекты лекций Springer на компьютере. Наука, страницы 103–115, 1999 г., ISBN 978-3-540-66935-7 , номер документа : 10.1007/3-540-46616-9. 
  9. ^ Алехандро Хаймес и Нику Себе, Мультимодальное взаимодействие человека и компьютера: опрос. Архивировано 6 июня 2011 г. в Wayback Machine , Компьютерное зрение и понимание изображений, том 108, выпуски 1–2, октябрь – ноябрь 2007 г., страницы 116–134, специальный выпуск. «Видение взаимодействия человека и компьютера», doi :10.1016/j.cviu.2006.10.019
  10. ^ Доперчук, Олег; «Распознавание рукописных жестов», gamedev.net , 9 января 2004 г.
  11. ^ Чен, Шицзе; «Методы распознавания жестов в приложениях для распознавания рукописного текста», «Границы в распознавании рукописного текста», стр. 142–147, ноябрь 2010 г.
  12. ^ Баладжи, Р; Дипу, В.; Мадхванатх, Шриганеш; Прабхакаран, Джаясри «Распознавание рукописных жестов для клавиатуры с жестами». Архивировано 6 сентября 2008 г. в Wayback Machine , Hewlett-Packard Laboratories.
  13. ^ Дитрих Каммер, Мэнди Кек, Георг Фрайтаг, Маркус Вакер, Таксономия и обзор мультитач-фреймворков: архитектура, область применения и функции. Архивировано 25 января 2011 г. на Wayback Machine.
  14. ^ «Определение бесконтактного пользовательского интерфейса из энциклопедии журнала PC Magazine» . pcmag.com . Проверено 28 июля 2017 г.
  15. ^ «Новая потребность в технологиях бесконтактного взаимодействия». Исследовательские ворота . Проверено 30 июня 2021 г.
  16. ^ С. Бенфорд; Х. Шнадельбах; Б. Колева; Б. Гавер; А. Шмидт; А. Буше; А. Стид; Р. Анастази; К. Гринхал; Т. Родден; Х. Геллерсен (2003). «Разумно, разумно и желательно: основа проектирования физических интерфейсов» (PDF) . CiteSeerX 10.1.1.190.2504 . Архивировано из оригинала (PDF) 26 января 2006 г.  {{cite journal}}: Требуется цитировать журнал |journal=( помощь )
  17. ^ Томас Г. Циммерман, Джарон Ланье, Чак Бланшар, Стив Брайсон и Янг Харвилл. http://портал.acm.org. «УСТРОЙСТВО ИНТЕРФЕЙСА С ЖЕСТАМИ РУК». http://портал.acm.org.
  18. ^ Ян Лю, Юнде Цзя, Надежный метод отслеживания рук и распознавания жестов для носимых визуальных интерфейсов и его приложений, Материалы Третьей Международной конференции по изображениям и графике (ICIG'04), 2004 г.
  19. ^ Куэ-Бум Ли, Юнг-Хюн Ким, Кван-Сок Хон, Реализация многомодального игрового интерфейса на основе КПК, Пятая международная конференция по исследованиям, управлению и приложениям в области разработки программного обеспечения, 2007 г.
  20. ^ «Отслеживание жестов Gestigon — нарушение TechCrunch» . ТехКранч . Проверено 11 октября 2016 г.
  21. Мэтни, Лукас (29 августа 2016 г.). «uSens демонстрирует новые датчики слежения, которые призваны расширить возможности мобильной виртуальной реальности». ТехКранч . Проверено 29 августа 2016 г.
  22. ^ Халили, Абдулла; Солиман, Абдель-Хамид; Асадуззаман, Мэриленд; Гриффитс, Элисон (март 2020 г.). «Обнаружение Wi-Fi: приложения и проблемы». Журнал инженерии . 2020 (3): 87–97. arXiv : 1901.00715 . дои : 10.1049/joe.2019.0790 . ISSN  2051-3305.
  23. ^ Пер Мальместиг, Софи Сундберг, SignWiiver - реализация технологии языка жестов. Архивировано 25 декабря 2008 г. в Wayback Machine.
  24. ^ Томас Шломер, Бенджамин Поппинга, Нильс Хенце, Сюзанна Болл, Распознавание жестов с помощью контроллера Wii. Архивировано 27 июля 2013 г. в Wayback Machine , Материалы 2-й международной конференции по материальному и встроенному взаимодействию, 2008 г.
  25. ^ AiLive Inc., Технический документ LiveMove, заархивированный 13 июля 2007 г. в Wayback Machine , 2006 г.
  26. ^ Электронный дизайн , 8 сентября 2011 г. Уильям Вонг. Естественный пользовательский интерфейс использует интеграцию датчиков.
  27. ^ Cable & Satellite International , сентябрь/октябрь 2011 г. Стивен Казинс. Вид на острые ощущения. Архивировано 19 января 2012 г. в Wayback Machine.
  28. TechJournal South , 7 января 2008 г. Hillcrest Labs получила раунд на 25 миллионов долларов.
  29. Блог Percussa AudioCubes , 4 октября 2012 г. Управление жестами в синтезе звука. Архивировано 10 сентября 2015 г. в Wayback Machine.
  30. ^ Мамтаз Алам; Дилип Кумар Тивари (2016). «Распознавание жестов и его приложения». дои : 10.13140/RG.2.2.28139.54563. {{cite journal}}: Требуется цитировать журнал |journal=( помощь )
  31. ^ Владимир И. Павлович, Раджив Шарма, Томас С. Хуанг, Визуальная интерпретация жестов рук для взаимодействия человека с компьютером; Обзор, Транзакции IEEE по анализу шаблонов и машинному интеллекту, 1997 г.
  32. ^ Иван Лаптев и Тони Линдеберг «Отслеживание моделей рук с несколькими состояниями с использованием фильтрации частиц и иерархии многомасштабных функций изображения», Труды «Масштабное пространство и морфология в компьютерном зрении», том 2106 конспектов лекций Springer по информатике, страницы 63 -74, Ванкувер, Британская Колумбия, 1999. ISBN 978-3-540-42317-1 , номер домена : 10.1007/3-540-47778-0. 
  33. ^ фон Харденберг, Кристиан; Берар, Франсуа (2001). «Взаимодействие человека и компьютера голыми руками». Материалы семинара 2001 года по перцептивным пользовательским интерфейсам . Серия сборников статей Международной конференции ACM. Том. 15 архив. Орландо, Флорида. стр. 1–8. CiteSeerX 10.1.1.23.4541 . 
  34. ^ Ларс Бретцнер, Иван Лаптев, Тони Линдеберг «Распознавание жестов рук с использованием многомасштабных цветовых характеристик, иерархических моделей и фильтрации частиц», Материалы пятой Международной конференции IEEE по автоматическому распознаванию лиц и жестов, Вашингтон, округ Колумбия, США, 21–21 Май 2002 г., страницы 423–428. ISBN 0-7695-1602-5 , номер домена : 10.1109/AFGR.2002.1004190. 
  35. ^ Домитилла Дель Веккио , Ричард М. Мюррей Пьетро Перона, «Разложение человеческого движения на примитивы, основанные на динамике, с применением к задачам рисования». Архивировано 2 февраля 2010 г. в Wayback Machine , Автоматика, том 39, выпуск 12, декабрь 2003 г., страницы. 2085–2098, номер документа : 10.1016/S0005-1098(03)00250-4.
  36. ^ Томас Б. Мослунд и Лау Норгаард, «Краткий обзор жестов рук, используемых в носимых человеко-компьютерных интерфейсах». Архивировано 19 июля 2011 г. в Wayback Machine , Технический отчет: CVMT 03-02, ISSN  1601-3646, Лаборатория компьютеров. Видение и медиатехнологии, Ольборгский университет, Дания.
  37. ^ М. Кольш и М. Терк «Быстрое 2D-отслеживание рук с множеством функций и интеграцией нескольких сигналов». Архивировано 21 августа 2008 г. на Wayback Machine , CVPRW '04. Материалы семинара по компьютерному зрению и распознаванию образов, 27 мая – 2 июня 2004 г., номер документа : 10.1109/CVPR.2004.71
  38. ^ Ся Лю Фудзимура, К., «Распознавание жестов рук с использованием данных о глубине», Материалы шестой Международной конференции IEEE по автоматическому распознаванию лиц и жестов, 17–19 мая 2004 г., страницы 529–534, ISBN 0-7695-2122-3 , doi :10.1109/AFGR.2004.1301587. 
  39. ^ Стенгер Б., Таянантан А., Торр П.Х., Чиполла Р.: «Отслеживание рук на основе модели с использованием иерархического байесовского фильтра», Транзакции IEEE по транзакциям IEEE по анализу шаблонов и машинному интеллекту, 28 (9): 1372-84, сентябрь 2006 г.
  40. ^ А. Эрол, Дж. Бебис, М. Николеску, Р. Д. Бойл, X Твомбли, «Оценка позы рук на основе зрения: обзор», Компьютерное зрение и понимание изображений, том 108, выпуски 1–2, октябрь – ноябрь 2007 г., страницы 52–73 Специальный выпуск «Видение взаимодействия человека и компьютера», номер документа : 10.1016/j.cviu.2006.10.012.
  41. ^ Аб Рико, Джули; Брюстер, Стивен (2010). «Полезные жесты для мобильных интерфейсов». Материалы конференции SIGCHI по человеческому фактору в вычислительных системах . ЧИ '10. Нью-Йорк, штат Нью-Йорк, США: ACM. стр. 887–896. дои : 10.1145/1753326.1753458. ISBN 9781605589299. S2CID  16118067.
  42. ^ аб Уолтер, Роберт; Байи, Жиль; Мюллер, Йорг (2013). «СтрайкАПос». Материалы конференции SIGCHI по человеческому фактору в вычислительных системах . Нью-Йорк, Нью-Йорк, США: ACM Press. стр. 841–850. дои : 10.1145/2470654.2470774. ISBN 9781450318990. S2CID  2041073.
  43. ^ аб Профита, Хэлли П.; Клоусон, Джеймс; Гиллиланд, Скотт; Зиглер, Клинт; Старнер, Тэд; Бадд, Джим; До, Эллен Йи-Луэн (2013). «Не обращай внимания, что я трогаю свое запястье». Материалы Международного симпозиума по портативным компьютерам 2013 г. МСВК '13. Нью-Йорк, штат Нью-Йорк, США: ACM. стр. 89–96. дои : 10.1145/2493988.2494331. ISBN 9781450321273. S2CID  3236927.
  44. ^ Харрисон, Крис; Фасте, Хокон (2014). «Влияние местоположения и прикосновения на проецируемые на тело интерфейсы». Материалы конференции 2014 года «Проектирование интерактивных систем ». ДИС '14. Нью-Йорк, штат Нью-Йорк, США: ACM. стр. 543–552. дои : 10.1145/2598510.2598587. ISBN 9781450329026. S2CID  1121501.
  45. ^ аб Ривз, Стюарт; Бенфорд, Стив; О'Мэлли, Клэр; Фрейзер, Майк (2005). «Проектирование зрительского опыта» (PDF) . Материалы конференции SIGCHI по человеческому фактору в вычислительных системах (PDF) . Нью-Йорк, Нью-Йорк, США: ACM Press. стр. 741–750. дои : 10.1145/1054972.1055074. ISBN 978-1581139983. S2CID  5739231.
  46. ^ Руперт Гудвинс. «Windows 7? Никаких рук». ЗДНет .
  47. ^ "Рука гориллы". catb.org .
  48. ^ Хинкапие-Рамос, Дж. Д., Го, X., Могадасян, П. и Ирани. П. 2014. «Потребляемая выносливость: показатель для количественной оценки усталости рук при взаимодействиях в воздухе». В материалах 32-й ежегодной конференции ACM «Человеческий фактор в вычислительных системах» (CHI '14). ACM, Нью-Йорк, штат Нью-Йорк, США, 1063–1072. DOI=10.1145/2556288.2557130
  49. ^ Хинкапие-Рамос, Дж. Д., Го, Х. и Ирани, П. 2014. «Станок потребляемой выносливости: инструмент для оценки усталости рук во время взаимодействия в воздухе». В материалах сопутствующей публикации 2014 г. по проектированию интерактивных систем (DIS Companion '14). ACM, Нью-Йорк, Нью-Йорк, США, 109–112. DOI=10.1145/2598784.2602795

Внешние ссылки