stringtranslate.com

Мультитач

Мультисенсорный экран
Прикосновение пальца к мультисенсорному экрану

В вычислительной технике мультитач это технология, которая позволяет поверхности ( тачпаду или сенсорному экрану ) распознавать наличие более чем одной точки контакта с поверхностью одновременно. Истоки мультитач начались в ЦЕРНе , [1] Массачусетском технологическом институте , Университете Торонто , Университете Карнеги-Меллон и лабораториях Белла в 1970-х годах. [2] ЦЕРН начал использовать мультисенсорные экраны еще в 1976 году для управления суперпротонным синхротроном . [3] [4] Емкостные мультитач-дисплеи были популяризированы благодаря iPhone от Apple в 2007 году. [5] [6] Мультитач можно использовать для реализации дополнительных функций, таких как масштабирование или активация определенных подпрограмм , прикрепленных к предопределенные жесты с использованием распознавания жестов .

Несколько вариантов использования термина «мультитач» возникли в результате быстрого развития в этой области, и многие компании использовали этот термин для продвижения на рынок более старой технологии, которая называется « одиночное касание с улучшенными жестами» или некоторых других терминов другими компаниями и исследователями. Несколько других подобных или родственных терминов пытаются определить, может ли устройство точно определить или только приблизительно определить местоположение различных точек контакта, чтобы еще больше разграничить различные технологические возможности, но они часто используются в маркетинге как синонимы.

Мультитач обычно реализуется с использованием технологии емкостных датчиков в мобильных устройствах и интеллектуальных устройствах . Емкостный сенсорный экран обычно состоит из емкостного сенсорного датчика , контроллера специализированной интегральной схемы (ASIC) и цифрового сигнального процессора (DSP), изготовленного по технологии CMOS (комплементарный металл-оксид-полупроводник ). Более поздний альтернативный подход — это оптическая сенсорная технология, основанная на технологии датчиков изображения .

Определение

В вычислительной технике мультитач — это технология, которая позволяет сенсорной панели или сенсорному экрану распознавать более одной [7] [8] или более двух [9] точек контакта с поверхностью. Apple популяризировала термин «мультитач» в 2007 году, с помощью которого она реализовала дополнительные функции, такие как масштабирование пальцами или активация определенных подпрограмм , прикрепленных к предопределенным жестам .

Два различных использования этого термина возникли в результате быстрого развития в этой области, и многие компании использовали этот термин для продвижения на рынок более старой технологии, которую другие компании и исследователи называют «одним касанием с улучшенными жестами» или некоторыми другими терминами. [10] [11] Несколько других похожих или родственных терминов пытаются определить, может ли устройство точно определить или только приблизительно определить местоположение различных точек контакта, чтобы дополнительно различать различные технологические возможности, [11] но они часто используются как синонимы в маркетинге.

История

1960–2000 гг.

Использование технологии сенсорного экрана предшествовало как технологии мультитач, так и персональному компьютеру. Первые производители синтезаторов и электронных инструментов, такие как Хью Ле Кейн и Роберт Муг, экспериментировали с использованием сенсорных емкостных датчиков для управления звуками, издаваемыми их инструментами. [12] IBM начала создавать первые сенсорные экраны в конце 1960-х годов. В 1972 году компания Control Data выпустила компьютер PLATO IV, инфракрасный терминал, используемый в образовательных целях, в котором использовались точки одного касания в пользовательском интерфейсе с массивом 16 × 16. Эти ранние сенсорные экраны регистрировали только одну точку касания за раз. Таким образом, экранными клавиатурами (хорошо известная сегодня функция) было неудобно пользоваться, поскольку одновременное нажатие клавиши и удержание клавиши Shift во время набора другой было невозможно. [13]

Исключениями из них были «перекрестная» мультисенсорная реконфигурируемая сенсорная клавиатура/дисплей, разработанная в Массачусетском технологическом институте в начале 1970-х годов [14] и емкостный мультисенсорный экран с 16 кнопками, разработанный в ЦЕРН в 1972 году для управления строящийся суперпротонный синхротрон . [15]

Прототипы [16] мультисенсорных экранов с взаимной ёмкостью xy (слева), разработанные в ЦЕРН.

В 1976 году в ЦЕРНе был разработан новый емкостный экран xy , основанный на емкостных сенсорных экранах, разработанных в 1972 году датским инженером-электронщиком Бентом Штумпе . [1] [17] Эта технология, позволяющая точно определять местоположение различных точек соприкосновения, была использована для разработки нового типа человеко-машинного интерфейса (HMI) для диспетчерской суперпротонного синхротронного ускорителя частиц. [18] [19] [20] В рукописной заметке от 11 марта 1972 года [21] Стампе представил предложенное им решение – емкостный сенсорный экран с фиксированным количеством программируемых кнопок, представленных на дисплее. Экран должен был состоять из набора конденсаторов, выгравированных на медной пленке на листе стекла, причем каждый конденсатор был сконструирован таким образом, чтобы близлежащий плоский проводник, например поверхность пальца, значительно увеличивал емкость. Конденсаторы должны были состоять из тонких линий, выгравированных медью на листе стекла – достаточно тонких (80 мкм) и достаточно удаленных друг от друга (80 мкм), чтобы их нельзя было увидеть. [22] В конечном устройстве простое лаковое покрытие не позволяло пальцам касаться конденсаторов. В том же году MIT описал клавиатуру с изменяемой графикой, способную обнаруживать мультитач. [14]

В начале 1980-х годов группа исследования ввода Университета Торонто была одной из первых, кто исследовал программную часть систем мультисенсорного ввода. [23] В системе 1982 года в Университете Торонто использовалась панель из матового стекла, за стеклом которой располагалась камера. Когда палец или несколько пальцев нажимали на стекло, камера распознавала действие как одно или несколько черных пятен на белом фоне, что позволяло зарегистрировать его как входные данные. Поскольку размер точки зависел от давления (насколько сильно человек нажимал на стекло), система также была в некоторой степени чувствительна к давлению. [12] Следует отметить, что эта система была только системой ввода и не могла отображать графику.

В 1983 году лаборатория Bell Labs в Мюррей-Хилл опубликовала подробное описание интерфейсов на основе сенсорного экрана, хотя в нем не упоминается несколько пальцев. [24] В том же году основанная на видео система Video Place/Video Desk Майрона Крюгера оказала влияние на разработку мультитач-жестов, таких как масштабирование, хотя сама эта система не имела сенсорного взаимодействия. [25] [26]

К 1984 году и в лабораториях Белла, и в Университете Карнеги-Меллон уже были рабочие прототипы мультисенсорных экранов (как ввода, так и графики), которые могли интерактивно реагировать на нажатие нескольких пальцев. [27] [28] Система Bell Labs была основана на емкостной связи пальцев, тогда как система CMU была оптической. В 1985 году в системе CMU был продемонстрирован канонический мультитач-жест масштабирования с скоординированной графикой. [29] [30] В октябре 1985 года Стив Джобс подписал соглашение о неразглашении информации и совершил поездку по лаборатории мультитач Sensor Frame компании CMU. [31] В 1990 году Sears et al. опубликовал обзор академических исследований взаимодействия человека и компьютера с одним и несколькими сенсорными экранами того времени, описывая жесты одним касанием, такие как вращение ручек, проведение по экрану для активации переключателя (или U-образный жест для тумблера), и клавиатуры с сенсорным экраном (включая исследование, которое показало, что пользователи могут печатать со скоростью 25 слов в минуту на клавиатуре с сенсорным экраном по сравнению с 58 словами в минуту на стандартной клавиатуре, при этом предполагается, что мультитач улучшает скорость ввода данных); Также описаны мультисенсорные жесты, такие как выбор диапазона линии, соединение объектов и жест «касание-щелчок» для выбора с сохранением местоположения другим пальцем. [32]

В 1991 году Пьер Веллнер выдвинул тему публикации о своем мультисенсорном «цифровом столе», который поддерживал движения несколькими пальцами и сжимание. [33] [34] Различные компании расширили эти изобретения в начале двадцать первого века.

2000 – настоящее время

В период с 1999 по 2005 год компания Fingerworks разработала различные технологии мультитач, в том числе клавиатуры Touchstream и iGesture Pad. В начале 2000-х годов Алан Хедж, профессор человеческого фактора и эргономики Корнелльского университета, опубликовал несколько исследований об этой технологии. [35] [36] [37] В 2005 году Apple приобрела Fingerworks и ее технологию мультитач. [38]

В 2004 году французский стартап JazzMutant разработал устройство ввода Lemur , музыкальный контроллер, который стал в 2005 году первым коммерческим продуктом с запатентованным прозрачным мультисенсорным экраном, позволяющим напрямую манипулировать дисплеем десятью пальцами. [39] [40]

В январе 2007 года технология мультитач стала мейнстримом в iPhone , и в анонсе iPhone Apple даже заявила, что «изобрела мультитач», [41] однако и функция, и термин появились до объявления или патентных заявок, за исключением области емкостных мобильных экранов, которых не существовало до появления технологии Fingerworks/Apple (Fingerworks подала патенты в 2001–2005 годах, [42] последующие усовершенствования мультитач были запатентованы Apple [43] ).

Однако Бюро по патентам и товарным знакам США заявило, что функция «масштабирования» была предсказана патентом США № 7,844,915 [44] [45] , касающимся жестов на сенсорных экранах, поданным Браном Ферреном и Дэниелом Хиллисом в 2005 году, как была инерционная прокрутка, [46] таким образом лишила законной силы ключевые утверждения патента Apple.

В 2001 году началась разработка настольной сенсорной платформы Microsoft PixelSense (ранее Surface), которая взаимодействует как с прикосновениями пользователя, так и с его электронными устройствами, и стала коммерческой 29 мая 2007 года. Аналогичным образом в 2001 году компания Mitsubishi Electric Research Laboratories (MERL) ) начал разработку мультитач, многопользовательской системы под названием DiamondTouch .

В 2008 году Diamondtouch стал коммерческим продуктом и также основан на емкости, но способен различать нескольких одновременных пользователей или, скорее, стулья, на которых сидит каждый пользователь, или напольную подкладку, на которой пользователь стоит. В 2007 году лаборатория NORTD labs предложила систему с открытым исходным кодом CUBIT (мультитач) .

В 2008 году небольшие сенсорные устройства быстро стали обычным явлением. Ожидалось, что количество телефонов с сенсорным экраном увеличится с 200 000, поставленных в 2006 году, до 21 миллиона в 2012 году. [47]

В мае 2015 года Apple получила патент на «клавиатуру Fusion», которая превращает отдельные физические клавиши в мультисенсорные кнопки. [48]

Приложения

Виртуальная клавиатура до iOS 7 на iPad

Apple продавала и распространяла множество продуктов с использованием технологии мультитач, в первую очередь смартфон iPhone и планшет iPad . Кроме того, Apple также владеет несколькими патентами , связанными с реализацией мультитач в пользовательских интерфейсах, [49] однако легитимность некоторых патентов оспаривается. [50] Apple также попыталась зарегистрировать «Multi-touch» в качестве товарного знака в США, однако ее запрос был отклонен Ведомством по патентам и товарным знакам США, поскольку оно сочло этот термин родовым . [51]

Мультисенсорное распознавание и обработка происходят с помощью датчика ASIC , прикрепленного к сенсорной поверхности. Обычно отдельные компании производят ASIC и экран, которые объединяются в сенсорный экран; и наоборот, поверхность тачпада и ASIC обычно производятся одной и той же компанией. В последние годы появились крупные компании, которые внедрились в растущую индустрию мультитач, предлагая системы, предназначенные для всех: от обычного пользователя до многонациональных организаций.

В настоящее время производители ноутбуков обычно включают в свои ноутбуки сенсорные панели с несколькими касаниями , а планшетные компьютеры реагируют на сенсорный ввод, а не на традиционный ввод с помощью стилуса, и это поддерживается многими современными операционными системами .

Некоторые компании фокусируются на крупномасштабных поверхностных вычислениях, а не на персональной электронике, будь то большие мультисенсорные столы или настенные поверхности. Эти системы обычно используются государственными организациями, музеями и компаниями в качестве средства информации или демонстрации выставок. [ нужна цитата ]

Реализации

Мультитач реализован несколькими способами, в зависимости от размера и типа интерфейса. Наиболее популярной формой являются мобильные устройства, планшеты , сенсорные столы и стены. И сенсорные столы, и сенсорные стены проецируют изображение через акрил или стекло, а затем подсвечивают изображение светодиодами.

Сенсорные поверхности также можно сделать чувствительными к давлению, добавив чувствительное к давлению покрытие, которое изгибается по-разному в зависимости от того, насколько сильно на него нажимают, изменяя отражение. [52]

В портативных технологиях используется панель, несущая электрический заряд. Когда палец касается экрана, это прикосновение нарушает электрическое поле панели. Нарушение регистрируется как компьютерное событие (жест) и может быть отправлено в программное обеспечение, которое затем может инициировать ответ на событие жеста. [53]

За последние несколько лет несколько компаний выпустили продукты, использующие мультитач. Пытаясь сделать дорогую технологию более доступной, любители также опубликовали методы создания сенсорных экранов своими руками . [54]

Емкостный

К емкостным технологиям относятся: [55]

Резистивный

К резистивным технологиям относятся: [55]

Оптический

Оптическая сенсорная технология основана на технологии датчика изображения . Он срабатывает, когда палец или какой-либо предмет касается поверхности, вызывая рассеивание света, отражение которого улавливается датчиками или камерами, которые отправляют данные в программное обеспечение, которое определяет реакцию на прикосновение, в зависимости от типа измеренного отражения.

К оптическим технологиям относятся: [55]

Волна

К акустическим и радиочастотным технологиям относятся: [55]

Мультитач-жесты

Мультисенсорные жесты на сенсорном экране позволяют использовать заранее заданные движения для взаимодействия с устройством и программным обеспечением. Все большее число устройств, таких как смартфоны , планшетные компьютеры , ноутбуки и настольные компьютеры, имеют функции, которые запускаются с помощью мультитач-жестов.

Популярная культура

До 2007 г.

За годы до того, как технология мультитач стала жизнеспособным потребительским продуктом, популярная культура изображала потенциальное использование технологии мультитач в будущем, в том числе в нескольких частях франшизы « Звездный путь» .

В диснеевском научно-фантастическом фильме «Трон» 1982 года было показано устройство, похожее на Microsoft Surface. Он занимал весь стол руководителя и использовался для связи с главным управляющим компьютером .

В фильме 2002 года «Особое мнение» Том Круз использует набор перчаток, напоминающих мультитач-интерфейс, для просмотра информации. [57]

В фильме 2005 года «Остров» была показана другая форма мультисенсорного компьютера, где у профессора, которого играет Шон Бин , есть мультисенсорный рабочий стол для организации файлов, основанный на ранней версии Microsoft Surface [2] (не путают с планшетными компьютерами , которые теперь носят это название).

В 2007 году в шестом сезоне телесериала «CSI: Майами» были представлены как поверхностные, так и настенные мультисенсорные дисплеи.

После 2007 года

Технологию мультитач можно увидеть в фильме о Джеймсе Бонде 2008 года «Квант милосердия» , где МИ-6 использует сенсорный интерфейс для просмотра информации о преступнике Доминике Грине. [58]

В фильме 2008 года « День, когда Земля остановилась» использовалась поверхность Microsoft. [59]

В телесериале «Морская полиция: Лос-Анджелес» , премьера которого состоялась в 2009 году, используются мультисенсорные поверхности и настенные панели в качестве инициативы по переходу на цифровые технологии.

В эпизоде ​​телесериала «Симпсоны» 2008 года Лиза Симпсон отправляется в подводную штаб-квартиру Mapple, чтобы навестить Стива Моббса, который, как показано, выполняет несколько мультитач-жестов руками на большой сенсорной стене.

В фильме 2009 года « Район 9» интерфейс, используемый для управления инопланетным кораблем, использует аналогичную технологию. [60]

10/ГПИ

10/GUI — это предлагаемая новая парадигма пользовательского интерфейса . Созданный в 2009 году Р. Клейтоном Миллером, он сочетает в себе мультисенсорный ввод с новым оконным менеджером .

Он отделяет сенсорную поверхность от экрана, поэтому утомляемость пользователя снижается, а руки пользователей не загораживают дисплей. [61] Вместо размещения окон по всему экрану оконный менеджер Con10uum использует линейную парадигму с мультитач, используемым для навигации между окнами и их расположения. [62] Область в правой части сенсорного экрана вызывает глобальное контекстное меню, а аналогичная полоса в левой части вызывает меню для конкретных приложений.

Предварительная версия оконного менеджера Con10uum с открытым исходным кодом была доступна в ноябре 2009 года .

Смотрите также

Рекомендации

  1. ^ ab Stumpe, Bent (16 марта 1977 г.), Новый принцип сенсорной системы xy (PDF) , CERN , получено 25 мая 2010 г.
  2. ^ "Multi-Touch Technology and the Museum: An Introduction". AMT Lab @ CMU. 18 October 2015. Retrieved 2020-11-06.
  3. ^ Crowley-Milling, Michael (29 September 1977). New Scientist. Reed Business Information. pp. 790–791.
  4. ^ Doble, Niels; Gatignon, Lau; Hübner, Kurt; Wilson, Edmund (2017-04-24). "The Super Proton Synchrotron (SPS): A Tale of Two Lives". Advanced Series on Directions in High Energy Physics. World Scientific. pp. 152–154. doi:10.1142/9789814749145_0005. ISBN 978-981-4749-13-8. ISSN 1793-1339.
  5. ^ Kent, Joel (May 2010). "Touchscreen technology basics & a new development". CMOS Emerging Technologies Conference. 6. CMOS Emerging Technologies Research: 1–13. ISBN 9781927500057.
  6. ^ Ganapati, Priya (5 March 2010). "Finger Fail: Why Most Touchscreens Miss the Point". Wired. Archived from the original on 11 May 2014. Retrieved 9 November 2019.
  7. ^ "Multi-touch definition of Multi-touch in the Free Online Encyclopedia". encyclopedia2.thefreedictionary.com. Retrieved 2014-11-23.
  8. ^ "Glossary - X2 Computing". x2computing.com. Archived from the original on 2014-08-17. Retrieved 2014-11-23.
  9. ^ Gardner, N.; Haeusler, H.; Tomitsch, M. (2010). Infostructures: A Transport Research Project. Freerange Press. ISBN 9780980868906. Retrieved 2014-11-23.
  10. ^ Walker, Geoff (August 2012). "A review of technologies for sensing contact location on the surface of a display". Journal of the Society for Information Display. 20 (8): 413–440. doi:10.1002/jsid.100. S2CID 40545665.
  11. ^ a b "What is Multitouch". Retrieved 2010-05-30.
  12. ^ a b Buxton, Bill. "Multitouch Overview"
  13. ^ "Multi-Touch Technology, Applications and Global Markets". www.prnewswire.com (Press release). Retrieved 2015-11-16.
  14. ^ a b Kaplow, Roy; Molnar, Michael (1976-01-01). "A computer-terminal, hardware/Software system with enhanced user input capabilities: The enhanced-input terminal system (EITS)". Proceedings of the 3rd annual conference on Computer graphics and interactive techniques - SIGGRAPH '76. pp. 116–124. doi:10.1145/563274.563297. S2CID 16749393.
  15. ^ Beck, Frank; Stumpe, Bent (May 24, 1973). Two devices for operator interaction in the central control of the new CERN accelerator (Report). CERN. doi:10.5170/CERN-1973-006. CERN-73-06. Retrieved 2020-01-28.
  16. ^ The first capacitative touch screens at CERN, CERN Courrier, 31 March 2010, retrieved 2010-05-25
  17. ^ Stumpe, Bent (6 February 1978), Experiments to find a manufacturing process for an x-y touch screen (PDF), CERN, retrieved 2010-05-25
  18. ^ Petersen, Peter (1983). Man-machine communication (Bachelor). Aalborg University.
  19. ^ Merchant, Brian (22 June 2017). The One Device: The Secret History of the iPhone. Transworld. ISBN 978-1-4735-4254-9.
  20. ^ Henriksen, Benjamin; Munch Christensen, Jesper; Stumpe, Jonas (2012). The evolution of CERN's capacitive touchscreen (PDF) (Bachelor). University of Copenhagen.
  21. ^ Stumpe, Bent; Sutton, Christine (1 June 2010). "CERN touch screen". Symmetry Magazine. A joint Fermilab/SLAC publication. Archived from the original on 16 November 2016. Retrieved 16 November 2016.
  22. ^ "Data processing". CERN Courier. 14 (4): 116–17. 1974.
  23. ^ Mehta, Nimish (1982), A Flexible Machine Interface, M.A.Sc. Thesis, Department of Electrical Engineering, University of Toronto supervised by Professor K.C. Smith.
  24. ^ Nakatani, L. H., John A Rohrlich; Rohrlich, John A. (1983). "Soft machines". Proceedings of the SIGCHI conference on Human Factors in Computing Systems - CHI '83. pp. 12–15. doi:10.1145/800045.801573. ISBN 978-0897911214. S2CID 12140440.{{cite book}}: CS1 maint: date and year (link) CS1 maint: multiple names: authors list (link)
  25. ^ Krueger, Myron. "Videoplace '88". YouTube. Archived from the original on 2021-12-14.
  26. ^ Krueger, Myron, W., Gionfriddo, Thomas., &Hinrichsen, Katrin (1985). VIDEOPLACE - An Artificial Reality, Proceedings of the ACM Conference on Human Factors in Computing Systems (CHI’85), 35–40.
  27. ^ Dannenberg, R.B., McAvinney, P. and Thomas, M.T. Carnegie-Mellon University Studio Report. In Proceedings of the International Computer Music Conference (Paris, France, October 19–23, 1984). ICMI. pp. 281-286.
  28. ^ McAvinney, P. The Sensor Frame - A Gesture-Based Device for the Manipulation of Graphic Objects. Carnegie Mellon University, 1986.
  29. ^ TEDx Talks (2014-06-15), Future of human/computer interface: Paul McAvinney at TEDxGreenville 2014, archived from the original on 2021-12-14, retrieved 2017-02-24
  30. ^ Lee, SK; Buxton, William; Smith, K. C. (1985-01-01). "A multi-touch three dimensional touch-sensitive tablet". Proceedings of the SIGCHI conference on Human factors in computing systems - CHI '85. New York: ACM. pp. 21–25. doi:10.1145/317456.317461. ISBN 978-0897911498. S2CID 1196331.
  31. ^ O'Connell, Kevin. "The Untold History of MultiTouch" (PDF). pp. 14–17. Retrieved 2018-07-15.
  32. ^ Sears, A., Plaisant, C., Shneiderman, B. (June 1990) A new era for high-precision touchscreens. Advances in Human-Computer Interaction, vol. 3, Hartson, R. & Hix, D. Eds., Ablex (1992) 1-33 HCIL-90-01, CS-TR-2487, CAR-TR-506. [1]
  33. ^ Wellner, Pierre. 1991. The Digital Desk. Video on YouTube
  34. ^ Pierre Wellner's papers Archived 2012-07-18 at the Wayback Machine via DBLP
  35. ^ Westerman, W., Elias J.G. and A.Hedge (2001) Multi-touch: a new tactile 2-d gesture interface for human-computer interaction Proceedings of the Human Factors and Ergonomics Society 45th Annual Meeting, Vol. 1, 632-636.
  36. ^ Shanis, J. and Hedge, A. (2003) Comparison of mouse, touchpad and multitouch input technologies. Proceedings of the Human Factors and Ergonomics Society 47th Annual Meeting, Oct. 13–17, Denver, CO, 746-750.
  37. ^ Thom-Santelli, J. and Hedge, A. (2005) Effects of a multitouch keyboard on wrist posture, typing performance and comfort. Proceedings of the Human Factors and Ergonomics Society 49th Annual Meeting, Orlando, Sept. 26-30, HFES, Santa Monica, 646-650.
  38. ^ Heisler, Yoni (June 25, 2013). "Apple's most important acquisitions". Network World.
  39. ^ Buxton, Bill. "Multi-Touch Systems that I Have Known and Loved". billbuxton.com/.
  40. ^ Guillaume, Largillier. "Developing the First Commercial Product that Uses Multi-Touch Technology". informationdisplay.org/. SID Information Display Magazine. Retrieved 26 January 2018.
  41. ^ Steve Jobs (2006). "And Boy Have We Patented It". Retrieved 2010-05-14. And we have invented a new technology called Multi-touch
  42. ^ "US patent 7,046,230 "Touch pad handheld device"".
  43. ^ Jobs; et al. "Touch Screen Device, Method, and Graphical User Interface for Determining Commands by Applying Heuristics". Archived from the original on 2005-07-20. Retrieved 2012-08-27.
  44. ^ US 7844915, Platzer, Andrew & Herz, Scott, "Application programming interfaces for scrolling operations", published 2010-11-30 
  45. ^ "US patent office rejects claims of Apple 'pinch to zoom' patent". PCWorld. Retrieved 2017-11-01.
  46. ^ US 7724242, Hillis, W. Daniel & Ferren, Bran, "Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter", published May 25, 2010 
  47. ^ Wong, May. 2008. Touch-screen phones poised for growth https://www.usatoday.com/tech/products/2007-06-21-1895245927_x.htm. Retrieved April 2008.
  48. ^ "Apple Patent Tips Multi-Touch Keyboard". 26 May 2015.
  49. ^ Heater, Brian (27 January 2009). "Key Apple Multi-Touch Patent Tech Approved". PCmag.com. Retrieved 2011-09-27.
  50. ^ "Apple's Pinch to Zoom Patent Has Been Tentatively Invalidated". Gizmodo. 20 December 2012. Retrieved 2013-06-12.
  51. ^ Golson, Jordan (26 September 2011). "Apple Denied Trademark for Multi-Touch". MacRumors. Retrieved 2011-09-27.
  52. ^ Scientific American. 2008. "How It Works: Multitouch Surfaces Explained". Retrieved January 9, 2010.
  53. ^ Brandon, John. 2009. "How the iPhone Works Archived 2012-10-10 at the Wayback Machine
  54. ^ DIY Multi-touch screen
  55. ^ a b c d Knowledge base:Multitouch technologies. Digest author: Gennadi Blindmann
  56. ^ "Diffused Illumination (DI) - NUI Group". wiki.nuigroup.com. Archived from the original on 2008-10-16.
  57. ^ Minority Report Touch Interface for Real. Gizmodo.com. Retrieved on 2013-12-09.
  58. ^ 2009. " Quantum of Solace Multitouch UI"
  59. ^ Garofalo, Frank Joseph. "User Interfaces For Simultaneous Group Collaboration Through Multi-Touch Devices". Purdue University. p. 17. Retrieved 2012-06-03.
  60. ^ "District 9 - Ship UI" on YouTube
  61. ^ Quick, Darren (October 14, 2009). "10/GUI the human computer interface of the future for people with more than two fingers". Gizmag.com. Retrieved 2009-10-14.
  62. ^ Melanson, Donald (October 15, 2009). "10/GUI interface looks to redefine the touch-enabled desktop". Engadget. Archived from the original on 19 October 2009. Retrieved 2009-10-16.
  63. ^ Miller, R. Clayton (November 26, 2009). "WPF Con10uum: 10/GUI Software part". CodePlex. Archived from the original on 9 June 2010. Retrieved 2010-07-02.

External links