Gestenerkennung – Wikipedia

before-content-x4

Thema in Informatik und Sprachtechnologie

Ein Kind wird von einem einfachen Gestenerkennungsalgorithmus erfasst, der die Position und Bewegung der Hand erkennt hand

Gestenerkennung in der Regel in Middleware verarbeitet wird, werden die Ergebnisse an die Anwenderanwendungen übermittelt.

Gestenerkennung ist ein Thema der Informatik und Sprachtechnologie mit dem Ziel, menschliche Gesten über mathematische Algorithmen zu interpretieren.[1] Es ist eine Teildisziplin der Computer Vision. Gesten können von jeder körperlichen Bewegung oder jedem Zustand ausgehen, stammen jedoch im Allgemeinen vom Gesicht oder der Hand. Strom[when?] Schwerpunkte in diesem Bereich sind die Emotionserkennung aus dem Gesicht und die Handgestenerkennung. Benutzer können einfache Gesten verwenden, um Geräte zu steuern oder mit ihnen zu interagieren, ohne sie physisch zu berühren. Viele Ansätze wurden unter Verwendung von Kameras und Computer-Vision-Algorithmen gemacht, um Gebärdensprache zu interpretieren. Aber auch die Erkennung und Erkennung von Körperhaltung, Gang, Proxemik und menschlichem Verhalten ist Gegenstand von Gestenerkennungstechniken.[2]

Die Gestenerkennung kann als eine Möglichkeit für Computer angesehen werden, die menschliche Körpersprache zu verstehen und so eine reichere Brücke zwischen Maschinen und Menschen zu bauen als primitive Textbenutzeroberflächen oder sogar GUIs (grafische Benutzeroberflächen), die immer noch die Mehrheit der Eingaben auf die Tastatur beschränken und Maus und interagieren auf natürliche Weise ohne mechanische Geräte. Mit dem Konzept der Gestenerkennung ist es möglich, einen Finger an dieser Stelle entsprechend zu bewegen. Dies könnte konventionelle Eingaben an solchen Geräten und sogar überflüssig machen.

Überblick[edit]

Gestenerkennungsfunktionen:

  • Genauer
  • Hohe Stabilität
  • Zeitersparnis beim Entsperren eines Geräts

Die wichtigsten Anwendungsgebiete der Gestenerkennung in der aktuellen[when?]Szenario sind:

Die Gestenerkennung kann mit Techniken aus dem Computer Vision und der Bildverarbeitung durchgeführt werden.[5]

Die Literatur umfasst laufende Arbeiten auf dem Gebiet der Computervision zur Erfassung von Gesten oder allgemeineren menschlichen Posen und Bewegungen durch Kameras, die an einen Computer angeschlossen sind.[6][7][8][9]

Gestenerkennung und Pen Computing:
Pen Computing reduziert die Hardwareauswirkungen eines Systems und erhöht auch die Reichweite der physischen Weltobjekte, die für die Steuerung über herkömmliche digitale Objekte wie Tastaturen und Mäuse hinaus verwendet werden können. Solche Implementierungen könnten eine neue Reihe von Hardware ermöglichen, die keine Monitore erfordert. Diese Idee kann zur Schaffung einer holographischen Anzeige führen. Der Begriff Gestenerkennung wurde verwendet, um sich enger auf Handschriftsymbole ohne Texteingabe zu beziehen, wie beispielsweise Freihandeingaben auf einem Grafiktablett, Multi-Touch-Gesten und Mausgestenerkennung. Dies ist eine Computerinteraktion durch das Zeichnen von Symbolen mit einem Zeigegerät-Cursor.[10][11][12] (siehe Pen-Computing)

Gestentypen[edit]

Bei Computerschnittstellen werden zwei Arten von Gesten unterschieden:[13] Wir betrachten Online-Gesten, die auch als direkte Manipulationen wie Skalierung und Rotation angesehen werden können. Im Gegensatz dazu werden Offline-Gesten normalerweise nach Beendigung der Interaktion verarbeitet; zB wird ein Kreis gezeichnet, um ein Kontextmenü zu aktivieren.

  • Offline-Gesten: Die Gesten, die nach der Benutzerinteraktion mit dem Objekt verarbeitet werden. Ein Beispiel ist die Geste zum Aktivieren eines Menüs.
  • Online-Gesten: Direkte Manipulationsgesten. Sie werden verwendet, um ein greifbares Objekt zu skalieren oder zu drehen.

Berührungslose Schnittstelle[edit]

Die berührungslose Benutzeroberfläche ist eine neue Art von Technologie in Bezug auf die Gestensteuerung. Berührungslose Benutzeroberfläche (TUI) ist der Prozess, den Computer über Körperbewegungen und Gesten zu befehlen, ohne eine Tastatur, Maus oder einen Bildschirm zu berühren.[14] Berührungslose Benutzeroberflächen werden neben Gestensteuerungen immer beliebter, da sie die Möglichkeit bieten, mit Geräten zu interagieren, ohne sie physisch zu berühren.

Arten der berührungslosen Technologie[edit]

Es gibt eine Reihe von Geräten, die diese Art von Schnittstelle verwenden, z. B. Smartphones, Laptops, Spiele, Fernseher und Musikgeräte.

Eine Art berührungsloser Schnittstelle nutzt die Bluetooth-Konnektivität eines Smartphones, um das Besuchermanagementsystem eines Unternehmens zu aktivieren. Dadurch wird verhindert, dass während der COVID-19-Pandemie eine Schnittstelle berührt werden muss.[15][16]

Eingabegeräte[edit]

Die Fähigkeit, die Bewegungen einer Person zu verfolgen und zu bestimmen, welche Gesten sie möglicherweise ausführt, kann durch verschiedene Tools erreicht werden. Die kinetischen Benutzerschnittstellen (KUIs) sind eine neue Art von Benutzerschnittstellen, die es Benutzern ermöglichen, mit Computergeräten durch die Bewegung von Objekten und Körpern zu interagieren.[citation needed] Beispiele für KUIs sind greifbare Benutzeroberflächen und bewegungssensitive Spiele wie Wii und Microsofts Kinect sowie andere interaktive Projekte.[17]

Obwohl im Bereich der bild-/videobasierten Gestenerkennung viel Forschung betrieben wird, gibt es einige Unterschiede innerhalb der Werkzeuge und Umgebungen, die zwischen den Implementierungen verwendet werden.

  • Verdrahtete Handschuhe. Diese können dem Computer Eingaben über die Position und Drehung der Hände unter Verwendung von magnetischen oder Trägheits-Tracking-Geräten liefern. Darüber hinaus können einige Handschuhe die Fingerbeugung mit hoher Genauigkeit (5-10 Grad) erkennen oder dem Benutzer sogar ein haptisches Feedback geben, das eine Simulation des Tastsinns ist. Das erste im Handel erhältliche Hand-Tracking-Handschuhgerät war der DataGlove,[18] ein handschuhartiges Gerät, das die Handposition, Bewegung und Fingerbeugung erkennen kann. Dabei werden Glasfaserkabel verwendet, die über den Handrücken laufen. Lichtimpulse werden erzeugt und wenn die Finger gebogen werden, dringt Licht durch kleine Risse ein und der Verlust wird registriert, was eine Annäherung an die Handhaltung ergibt.
  • Tiefenbewusste Kameras. Mit speziellen Kameras wie strukturiertem Licht oder Time-of-Flight-Kameras kann man eine Tiefenkarte des durch die Kamera gesehenen Nahbereichs erstellen und diese Daten verwenden, um eine 3D-Darstellung des Gesehenen anzunähern. Diese können aufgrund ihrer Kurzstreckenfähigkeiten für die Erkennung von Handgesten effektiv sein.[19]
  • Stereokameras. Mit zwei Kameras, deren Beziehungen zueinander bekannt sind, kann durch die Ausgabe der Kameras eine 3D-Darstellung angenähert werden. Um die Beziehungen der Kameras zu erhalten, kann man eine Positionierungsreferenz wie einen Lexian-Streifen oder Infrarotsender verwenden.[20] In Kombination mit direkter Bewegungsmessung (6D-Vision) können Gesten direkt erkannt werden.
  • Gestenbasierte Controller. Diese Controller fungieren als Verlängerung des Körpers, sodass bei der Ausführung von Gesten ein Teil ihrer Bewegungen bequem per Software erfasst werden kann. Ein Beispiel für aufkommende gestenbasierte Bewegungserfassung ist das Skeletthand-Tracking, das für Virtual Reality- und Augmented-Reality-Anwendungen entwickelt wird. Ein Beispiel für diese Technologie zeigen die Tracking-Unternehmen uSens und Gestigon, die es Nutzern ermöglichen, ohne Controller mit ihrer Umgebung zu interagieren.[21][22]
  • WLAN-Erkennung[23]

Ein weiteres Beispiel hierfür sind Mausgestenverfolgungen, bei denen die Bewegung der Maus mit einem Symbol korreliert wird, das von der Hand einer Person gezeichnet wird, die Änderungen der Beschleunigung im Laufe der Zeit untersuchen kann, um Gesten darzustellen.[24][25][26] Die Software kompensiert auch menschliches Zittern und unbeabsichtigte Bewegungen.[27][28][29] Mit den Sensoren dieser intelligenten Leuchtwürfel können Hände und Finger sowie andere Objekte in der Nähe erfasst und Daten verarbeitet werden. Die meisten Anwendungen liegen in der Musik- und Klangsynthese,[30] kann aber auch auf andere Felder angewendet werden.

  • Einzelkamera. Eine Standard-2D-Kamera kann für die Gestenerkennung verwendet werden, wenn die Ressourcen/Umgebung für andere Formen der bildbasierten Erkennung nicht geeignet wären. Früher dachte man, dass Einzelkameras nicht so effektiv sind wie Stereo- oder Tiefenschärfe-Kameras, aber einige Unternehmen stellen diese Theorie in Frage. Softwarebasierte Gestenerkennungstechnologie mit einer standardmäßigen 2D-Kamera, die robuste Handgesten erkennen kann.

Algorithmen[edit]

Es gibt verschiedene Möglichkeiten zum Verfolgen und Analysieren von Gesten, und einige grundlegende Layouts finden Sie in der obigen Abbildung. Volumetrische Modelle vermitteln beispielsweise die notwendigen Informationen für eine aufwendige Analyse, sie erweisen sich jedoch als sehr rechenintensiv und bedürfen technologischer Weiterentwicklungen, um für die Echtzeitanalyse implementiert zu werden. Auf der anderen Seite sind auf dem Aussehen basierende Modelle einfacher zu verarbeiten, jedoch fehlt in der Regel die für die Mensch-Computer-Interaktion erforderliche Allgemeingültigkeit.

Je nach Art der Eingabedaten kann der Ansatz zum Interpretieren einer Geste auf unterschiedliche Weise erfolgen. Die meisten Techniken beruhen jedoch auf Schlüsselzeigern, die in einem 3D-Koordinatensystem dargestellt werden. Anhand der relativen Bewegung dieser kann die Geste je nach Qualität der Eingabe und Vorgehensweise des Algorithmus mit hoher Genauigkeit erkannt werden.
Um Bewegungen des Körpers interpretieren zu können, muss man sie nach gemeinsamen Eigenschaften und der Botschaft klassifizieren, die die Bewegungen ausdrücken können. In der Gebärdensprache steht beispielsweise jede Geste für ein Wort oder einen Satz.

Einige Literatur unterscheidet 2 verschiedene Ansätze bei der Gestenerkennung: einen 3D-Modell-basierten und einen Erscheinungsbild-basierten.[31] Die wichtigste Methode verwendet 3D-Informationen von Schlüsselelementen der Körperteile, um mehrere wichtige Parameter wie Handflächenposition oder Gelenkwinkel zu erhalten. Auf der anderen Seite verwenden Erscheinungsbild-basierte Systeme Bilder oder Videos zur direkten Interpretation.

Eine echte Hand (links) wird in der 3D-Mesh-Version (rechts) als Ansammlung von Scheitelpunkten und Linien interpretiert, und die Software verwendet ihre relative Position und Interaktion, um auf die Geste zu schließen.

3D-modellbasierte Algorithmen[edit]

Der 3D-Modellansatz kann volumetrische oder Skelettmodelle oder sogar eine Kombination aus beiden verwenden. Volumetrische Ansätze wurden in der Computeranimationsindustrie und für Computervisionszwecke stark verwendet. Die Modelle werden in der Regel aus komplizierten 3D-Oberflächen wie NURBS oder Polygonnetzen erstellt.

Der Nachteil dieser Methode ist, dass sie sehr rechenintensiv ist und Systeme zur Echtzeitanalyse noch entwickelt werden müssen. Ein vorerst interessanter Ansatz wäre es, einfache primitive Objekte auf die wichtigsten Körperteile des Menschen abzubilden (zB Zylinder für Arme und Hals, Kugel für den Kopf) und deren Interaktion miteinander zu analysieren. Darüber hinaus können einige abstrakte Strukturen wie Super-Quadrics und generalisierte Zylinder noch besser geeignet sein, um die Körperteile anzunähern.

Die Skelettversion (rechts) modelliert effektiv die Hand (links). Diese hat weniger Parameter als die volumetrische Version und ist einfacher zu berechnen, was sie für Echtzeit-Gestenanalysesysteme geeignet macht.

Skelettbasierte Algorithmen[edit]

Anstatt die 3D-Modelle intensiv zu bearbeiten und mit vielen Parametern umzugehen, kann man einfach eine vereinfachte Version der Gelenkwinkelparameter zusammen mit den Segmentlängen verwenden. Dies wird als Skelettdarstellung des Körpers bezeichnet, bei der ein virtuelles Skelett der Person berechnet und Teile des Körpers bestimmten Segmenten zugeordnet werden. Die Analyse erfolgt hier anhand der Position und Ausrichtung dieser Segmente und der Beziehung zwischen jedem von ihnen (zum Beispiel der Winkel zwischen den Gelenken und die relative Position oder Ausrichtung)

Vorteile der Verwendung von Skelettmodellen:

  • Algorithmen sind schneller, weil nur Schlüsselparameter analysiert werden.
  • Musterabgleich mit einer Vorlagendatenbank ist möglich
  • Die Verwendung von Schlüsselpunkten ermöglicht es dem Erkennungsprogramm, sich auf die wesentlichen Teile des Körpers zu konzentrieren

Diese binären Silhouette-(links) oder Kontur-(rechts)-Bilder stellen typische Eingaben für auf das Aussehen basierende Algorithmen dar. Sie werden mit verschiedenen Handvorlagen verglichen und bei Übereinstimmung wird auf die entsprechende Geste geschlossen.

Aussehenbasierte Modelle[edit]

Diese Modelle verwenden keine räumliche Darstellung des Körpers mehr, da sie die Parameter direkt aus den Bildern oder Videos mithilfe einer Vorlagendatenbank ableiten. Einige basieren auf den verformbaren 2D-Schablonen der menschlichen Körperteile, insbesondere der Hände. Verformbare Schablonen sind Sätze von Punkten auf dem Umriss eines Objekts, die als Interpolationsknoten für die Umrissannäherung des Objekts verwendet werden. Eine der einfachsten Interpolationsfunktionen ist linear, die eine durchschnittliche Form aus Punktmengen, Punktvariabilitätsparametern und externen Deformatoren durchführt. Diese vorlagenbasierten Modelle werden hauptsächlich für das Hand-Tracking verwendet, könnten aber auch für die einfache Gestenklassifizierung von Nutzen sein.

Ein zweiter Ansatz bei der Gestenerkennung unter Verwendung von Aussehen-basierten Modellen verwendet Bildsequenzen als Gestenvorlagen. Parameter für dieses Verfahren sind entweder die Bilder selbst oder bestimmte daraus abgeleitete Merkmale. Meistens werden nur eine (monoskopisch) oder zwei (stereoskopisch) Ansichten verwendet.

Elektromyographie-basierte Modelle[edit]

Die Elektromyographie (EMG) befasst sich mit der Untersuchung elektrischer Signale, die von Muskeln im Körper erzeugt werden. Durch die Klassifizierung der von den Armmuskeln empfangenen Daten ist es möglich, die Aktion zu klassifizieren und so die Geste in eine externe Software einzugeben.[1] Consumer-EMG-Geräte ermöglichen nicht-invasive Ansätze wie ein Arm- oder Beinband und verbinden sich über Bluetooth. Aus diesem Grund hat EMG gegenüber visuellen Methoden einen Vorteil, da der Benutzer für die Eingabe nicht in eine Kamera blicken muss, was mehr Bewegungsfreiheit ermöglicht.

Herausforderungen[edit]

Die Genauigkeit und Nützlichkeit von Gestenerkennungssoftware sind mit vielen Herausforderungen verbunden. Bei der bildbasierten Gestenerkennung gibt es Einschränkungen bei der verwendeten Ausstattung und dem Bildrauschen. Bilder oder Videos sind möglicherweise nicht gleichmäßig beleuchtet oder befinden sich nicht am selben Ort. Elemente im Hintergrund oder charakteristische Merkmale der Benutzer können die Erkennung erschweren.

Die Vielfalt der Implementierungen für die bildbasierte Gestenerkennung kann auch Probleme hinsichtlich der Durchführbarkeit der Technologie für den allgemeinen Gebrauch verursachen. Beispielsweise funktioniert ein für eine Kamera kalibrierter Algorithmus möglicherweise nicht für eine andere Kamera. Die Menge des Hintergrundrauschens verursacht auch Tracking- und Erkennungsschwierigkeiten, insbesondere wenn Okklusionen (teilweise und vollständig) auftreten. Darüber hinaus führen auch der Abstand zur Kamera sowie die Auflösung und Qualität der Kamera zu Schwankungen in der Erkennungsgenauigkeit.

Um menschliche Gesten durch visuelle Sensoren zu erfassen, sind auch robuste Computer-Vision-Methoden erforderlich, zum Beispiel für Handtracking und Handhaltungserkennung[32][33][34][35][36][37][38][39][40] oder zum Erfassen von Kopfbewegungen, Mimik oder Blickrichtung.

Soziale Akzeptanz[edit]

Eine bedeutende Herausforderung für die Einführung von Gestenschnittstellen auf mobilen Verbrauchergeräten wie Smartphones und Smartwatches ergibt sich aus den Auswirkungen der Gesteneingabe auf die soziale Akzeptanz. Während Gesten auf vielen neuartigen Formfaktor-Computern eine schnelle und genaue Eingabe erleichtern können, wird ihre Akzeptanz und Nützlichkeit oft eher durch soziale als durch technische Faktoren eingeschränkt. Zu diesem Zweck können Designer von Gesteneingabeverfahren versuchen, sowohl technische Überlegungen als auch die Bereitschaft des Benutzers, Gesten in verschiedenen sozialen Kontexten auszuführen, in Einklang zu bringen.[41] Darüber hinaus unterstützen verschiedene Gerätehardware und Erfassungsmechanismen verschiedene Arten von erkennbaren Gesten.

Mobilgerät[edit]

Gestenschnittstellen auf mobilen Geräten und Geräten mit kleinem Formfaktor werden oft durch das Vorhandensein von Bewegungssensoren wie Trägheitsmesseinheiten (IMUs) unterstützt. Auf diesen Geräten beruht die Gestenerkennung darauf, dass Benutzer bewegungsbasierte Gesten ausführen, die von diesen Bewegungssensoren erkannt werden können. Dies kann die Erfassung von Signalen von subtilen oder bewegungsarmen Gesten möglicherweise zu einer Herausforderung machen, da sie möglicherweise schwer von natürlichen Bewegungen oder Geräuschen zu unterscheiden sind. Durch eine Umfrage und Studie zur Benutzerfreundlichkeit von Gesten fanden die Forscher heraus, dass Gesten, die subtile Bewegungen beinhalten, die existierender Technologie ähneln, bei allen Aktionen ähnlich aussehen oder sich ähnlich anfühlen und die Spaß machen, von den Benutzern eher akzeptiert werden, während Gesten, die aussehen seltsam, sind unbequem in der Ausführung, stören die Kommunikation oder beinhalten ungewöhnliche Bewegungen, was dazu führt, dass Benutzer ihre Verwendung eher ablehnen.[41] Die soziale Akzeptanz von Gesten auf Mobilgeräten hängt stark von der Natürlichkeit der Geste und dem sozialen Kontext ab.

Am Körper und tragbare Computer[edit]

Tragbare Computer unterscheiden sich in der Regel von herkömmlichen Mobilgeräten dadurch, dass ihr Nutzungs- und Interaktionsort am Körper des Benutzers stattfindet. In diesen Kontexten können Gestenschnittstellen gegenüber herkömmlichen Eingabemethoden bevorzugt werden, da ihre geringe Größe Touchscreens oder Tastaturen weniger attraktiv macht. Nichtsdestotrotz teilen sie viele der gleichen sozialen Akzeptanzhindernisse wie mobile Geräte, wenn es um gestische Interaktionen geht. Die Möglichkeit, tragbare Computer vor den Augen zu verbergen oder in andere Alltagsgegenstände wie Kleidung zu integrieren, ermöglicht jedoch Gesteneingaben, um gängige Kleidungsinteraktionen nachzuahmen, wie zum Beispiel das Einstellen eines Hemdkragens oder das Reiben der vorderen Hosentasche.[42][43] Eine wichtige Überlegung für die Interaktion mit tragbaren Computern ist der Ort für die Geräteplatzierung und -interaktion. Eine in den Vereinigten Staaten und Südkorea durchgeführte Studie zur Untersuchung der Einstellungen Dritter zur Interaktion mit tragbaren Geräten ergab Unterschiede in der Wahrnehmung der Nutzung von tragbaren Computern bei Männern und Frauen, zum Teil aufgrund unterschiedlicher Körperbereiche, die als sozial sensibel gelten.[43] Eine andere Studie, die die soziale Akzeptanz von am Körper projizierten Schnittstellen untersuchte, ergab ähnliche Ergebnisse, wobei beide Studien Bereiche um die Taille, Leiste und den Oberkörper (bei Frauen) als am wenigsten akzeptabel bezeichnen, während Bereiche um den Unterarm und das Handgelenk am akzeptabelsten sind.[44]

Öffentliche Einrichtungen[edit]

Öffentliche Installationen, wie interaktive öffentliche Displays, ermöglichen den Zugang zu Informationen und das Anzeigen interaktiver Medien in öffentlichen Umgebungen wie Museen, Galerien und Theatern.[45] Während Touchscreens eine häufige Eingabeform für öffentliche Displays sind, bieten Gestenschnittstellen zusätzliche Vorteile wie verbesserte Hygiene, Interaktion aus der Ferne, verbesserte Auffindbarkeit und können performative Interaktionen begünstigen.[42] Eine wichtige Überlegung für die gestische Interaktion mit öffentlichen Displays ist die hohe Wahrscheinlichkeit oder Erwartung eines Zuschauerpublikums.[45]

“Gorilla-Arm”[edit]

“Gorilla-Arm” war ein Nebeneffekt der vertikal ausgerichteten Touchscreen- oder Lichtstift-Nutzung. Bei längerem Gebrauch begannen die Arme der Benutzer Ermüdung und/oder Unbehagen zu verspüren. Dieser Effekt trug trotz der anfänglichen Popularität in den 1980er Jahren zum Rückgang der Touchscreen-Eingabe bei.[46][47]

Um die Ermüdung der Arme und die Nebenwirkung des Gorilla-Arms zu messen, entwickelten die Forscher eine Technik namens Consumed Endurance.[48][49]

Siehe auch[edit]

Verweise[edit]

  1. ^ ein b Kobylarz, Jhonatan; Vogel, Jordan J.; Faria, Diego R.; Ribeiro, Eduardo Parente; Ekárt, Anikó (2020-03-07). “Daumen hoch, Daumen runter: nonverbale Mensch-Roboter-Interaktion durch Echtzeit-EMG-Klassifizierung durch induktives und überwachtes transduktives Transferlernen”. Journal of Ambient Intelligence und Humanized Computing. Springer Wissenschafts- und Wirtschaftsmedien LLC. mach:10.1007/s12652-020-01852-z. ISSN 1868-5137.
  2. ^ Matthias Rehm, Nikolaus Bee, Elisabeth André, Welle wie ein Ägypter – Beschleunigungsmesser-basierte Gestenerkennung für kulturspezifische Interaktionen, Britische Computergesellschaft, 2007
  3. ^ “Patentlandschaftsbericht Handgestenerkennung PatSeer Pro”. PatSeer. Abgerufen 2. Februar.
  4. ^ Chai, Xiujuan et al. “Gebärdenspracherkennung und Übersetzung mit kinectkin.” IEEE Conf. on AFGR. Vol. 655. 2013.
  5. ^ Sultana A, Rajapuspha T (2012),
    “Sehkraftbasierte Gestenerkennung für alphabetische Handgesten mit dem SVM-Klassifikator”, International Journal of Computer Science & Engineering Technology (IJCSET)., 2012
  6. ^ Pavlovic, V., Sharma, R. & Huang, T. (1997), “Visuelle Interpretation von Handgesten für die Mensch-Computer-Interaktion: Ein Rückblick”, IEEE Transactions on Pattern Analysis and Machine Intelligence, Juli 1997. Vol. 2, No. 19(7), S. 677–695.
  7. ^ R. Cipolla und A. Pentland, Computer Vision für die Mensch-Maschine-Interaktion, Cambridge University Press, 1998, ISBN 978-0-521-62253-0
  8. ^ Ying Wu und Thomas S. Huang,
    “Vision-basierte Gestenerkennung: Eine Überprüfung” Archiviert 2011-08-25 at the Wayback Machine, In: Gesture-Based Communication in Human-Computer Interaction, Band 1739 der Springer Lecture Notes in Computer Science, Seiten 103-115, 1999, ISBN 978-3-540-66935-7, doi:10.1007/3-540-46616-9
  9. ^ Alejandro Jaimes und Nicu Sebe,
    Multimodale Mensch-Computer-Interaktion: Eine Umfrage Archiviert 2011-06-06 auf der Wayback Machine, Computer Vision and Image Understanding, Band 108, Ausgaben 1-2, Oktober–November 2007, Seiten 116-134 Sonderausgabe zu Vision für die Mensch-Computer-Interaktion, doi:10.1016/j.cviu.2006.10.019
  10. ^ Dopertchouk, Oleg; “Erkennung von Handschriftgesten”, gamedev.net, 9. Januar 2004
  11. ^ Chen, Shijie; “Gestenerkennungstechniken in der Handschrifterkennungsanwendung”, Grenzen der Handschrifterkennung S. 142-147 November 2010
  12. ^ Balaji, R; Deepu, V; Madhvanath, Sriganesh; Prabhakaran, Jayasree “Handschriftliche Gestenerkennung für Gestentastatur” Archiviert 06.09.2008 bei der Wayback-Maschine, Hewlett-Packard-Labors
  13. ^ Dietrich Kammer, Mandy Keck, Georg Freitag, Markus Wacker, Taxonomie und Übersicht über Multi-Touch-Frameworks: Architektur, Umfang und Funktionen Archiviert 25.01.2011 bei der Wayback Machine
  14. ^ “Touchless User Interface Definition from PC Magazine Encyclopedia”. pcmag.com. Abgerufen 2017-07-28.
  15. ^ „Wie COVID 19 die Art und Weise verändern kann, wie Menschen mit Besucher-Anmelde-Apps arbeiten“. 22. Mai 2020.
  16. ^ “(PDF) Der aufkommende Bedarf an berührungslosen Interaktionstechnologien”. ResearchGate. Abgerufen 2021-06-30.
  17. ^ S. Benford; H. Schnedelbach; B. Koleva; B. Gaver; A. Schmidt; A. Boucher; A. Ross; R. Anastasi; C. Greenhalgh; T. Rodden; H. Gellersen (2003). “Sensibel, sinnvoll und wünschenswert: ein Rahmen für die Gestaltung physikalischer Schnittstellen” (PDF). CiteSeerX 10.1.1.190.2504. Archiviert von das Original (PDF) am 26.01.2006.
  18. ^ Thomas G. Zimmerman, Jaron Lanier, Chuck Blanchard, Steve Bryson und Young Harvill. http://portal.acm.org. “EIN HANDGESTEN-SCHNITTSTELLENGERÄT.” http://portal.acm.org.
  19. ^ Yang Liu, Yunde Jia, Eine robuste Handverfolgungs- und Gestenerkennungsmethode für tragbare visuelle Schnittstellen und ihre Anwendungen, Proceedings of the Third International Conference on Image and Graphics (ICIG’04), 2004
  20. ^ Kue-Bum Lee, Jung-Hyun Kim, Kwang-Seok Hong, Eine Implementierung einer multimodalen Spielschnittstelle basierend auf PDAs, Fünfte Internationale Konferenz über Software-Engineering-Forschung, -Management und -Anwendungen, 2007
  21. ^ “Gestigon-Gestenverfolgung – TechCrunch Disrupt”. TechCrunch. Abgerufen 11. Oktober 2016.
  22. ^ Matney, Lucas. „uSens stellt neue Tracking-Sensoren vor, die darauf abzielen, reichere Erfahrungen für mobile VR zu bieten“. TechCrunch. Abgerufen 29. August 2016.
  23. ^ Khalili, Abdullah; Soliman, Abdel‐Hamid; Asaduzzaman, Md; Griffiths, Alison (März 2020). “Wi-Fi-Sensorik: Anwendungen und Herausforderungen”. Die Zeitschrift für Ingenieurwissenschaften. 2020 (3): 87–97. mach:10.1049/joe.2019.0790. ISSN 2051-3305.
  24. ^ Per Malmestig, Sofie Sundberg, SignWiiver – Implementierung der Gebärdensprachtechnologie Archiviert 2008-12-25 bei der Wayback Machine
  25. ^ Thomas Schlomer, Benjamin Poppinga, Niels Henze, Susanne Boll, Gestenerkennung mit einem Wii-Controller, Proceedings of the 2nd international Conference on Tangible and Embedded Interaction, 2008
  26. ^ AiLive Inc., LiveMove-Whitepaper Archiviert 2007-07-13 bei der Wayback Machine, 2006
  27. ^ Elektronisches Design 8. September 2011. William Wong. Natürliche Benutzeroberfläche verwendet Sensorintegration.
  28. ^ Kabel & Satellit International September/Oktober 2011. Stephen Cousins. Ein Blick auf einen Nervenkitzel.
  29. ^ TechJournal Süd 7. Januar 2008. Hillcrest Labs ruft 25 Millionen US-Dollar auf.
  30. ^ Percussa AudioCubes-Blog 4. Oktober 2012. Gestensteuerung in der Klangsynthese. Archiviert 10.09.2015 bei der Wayback Machine
  31. ^ Vladimir I. Pavlovic, Rajeev Sharma, Thomas S. Huang, Visuelle Interpretation von Handgesten für die Mensch-Computer-Interaktion; A Review, IEEE Transactions on Pattern Analysis and Machine Intelligence, 1997
  32. ^ Ivan Laptev und Tony Lindeberg “Verfolgung von Multi-State-Handmodellen unter Verwendung von Partikelfilterung und einer Hierarchie von Multiskalen-Bildmerkmalen”, Proceedings Scale-Space and Morphology in Computer Vision, Band 2106 der Springer Lecture Notes in Computer Science, Seiten 63-74, Vancouver, BC, 1999. ISBN 978-3-540-42317-1, doi:10.1007/3-540-47778-0
  33. ^ von Hardenberg, Christian; Bérard, François (2001). „Mensch-Computer-Interaktion mit bloßer Hand“. Proceedings of the 2001 Workshop on Perceptive User Interfaces. ACM International Conference Proceeding Series. 15 Archiv. Orlando Florida. S. 1–8. CiteSeerX 10.1.1.23.4541.
  34. ^ Lars Bretzner, Ivan Laptev, Tony Lindeberg “Handgestenerkennung mit Multiskalen-Farbfunktionen, hierarchischen Modellen und Partikelfilterung”, Proceedings of the Fifth IEEE International Conference on Automatic Face and Gesture Recognition, Washington, DC, USA, 21.–21. Mai 2002, Seiten 423–428. ISBN 0-7695-1602-5, doi:10.1109/AFGR.2002.1004190
  35. ^ Domitilla Del Vecchio, Richard M. Murray Pietro Perona, “Zerlegung der menschlichen Bewegung in dynamikbasierte Primitive mit Anwendung auf Zeichenaufgaben” Archiviert 02.02.2010 auf der Wayback Machine, Automatica Band 39, Ausgabe 12, Dezember 2003, Seiten 2085–2098, doi:10.1016/S0005-1098(03)00250-4.
  36. ^ Thomas B. Moeslund und Lau Nørgaard, “Ein kurzer Überblick über Handgesten, die in tragbaren Human Computer Interfaces verwendet werden” Archiviert 19.07.2011 auf der Wayback Machine, Technischer Bericht: CVMT 03-02, ISSN 1601-3646, Labor für Computer Vision und Medientechnologie, Universität Aalborg, Dänemark.
  37. ^ M. Kölsch und M. Türk “Schnelles 2D-Handtracking mit vielen Funktionen und Multi-Cue-Integration” Archiviert 2008-08-21 auf der Wayback Machine, CVPRW ’04. Tagungsband Computer Vision and Pattern Recognition Workshop, 27. Mai – 2. Juni 2004, doi:10.1109/CVPR.2004.71
  38. ^ Xia Liu Fujimura, K., “Handgestenerkennung mit Tiefendaten”, Proceedings of the Sixth IEEE International Conference on Automatic Face and Gesture Recognition, 17.-19. Mai 2004, Seiten 529-534, ISBN 0-7695-2122-3, doi:10.1109/AFGR.2004.1301587.
  39. ^ Stenger B, Thayananthan A, Torr PH, Cipolla R: “Modellbasiertes Handtracking mit einem hierarchischen Bayes-Filter”, IEEE Transactions on IEEE Transactions on Pattern Analysis and Machine Intelligence, 28(9):1372-84, September 2006.
  40. ^ A Erol, G Bebis, M Nicolescu, RD Boyle, X Twombly, “Vision-basierte Schätzung der Handhaltung: Eine Überprüfung”, Computer Vision and Image Understanding, Band 108, Ausgaben 1-2, Oktober–November 2007, Seiten 52–73 Sonderausgabe zum Sehen für die Mensch-Computer-Interaktion, doi:10.1016/j.cviu.2006.10.012.
  41. ^ ein b Rico, Julie; Brewster, Stephen (2010). „Verwendbare Gesten für mobile Schnittstellen: Bewertung der sozialen Akzeptanz“. Tagungsband der SIGCHI Conference on Human Factors in Computing Systems. CHI ’10. New York, NY, USA: ACM: 887–896. mach:10.1145/1753326.1753458. ISBN 9781605589299. S2CID 16118067.
  42. ^ ein b Walter, Robert; Bailly, Gilles; Müller, Jörg (2013). „StrikeAPose: Aufdecken von Gesten in der Luft auf öffentlichen Displays“. Eine Pose einnehmen. Proceedings of the SIGCHI Conference on Human Factors in Computing Systems – CHI ’13. New York, New York, USA: ACM Press. S. 841–850. mach:10.1145/2470654.2470774. ISBN 9781450318990. S2CID 2041073.
  43. ^ ein b Profita, Halley P.; Clawson, James; Gilliland, Scott; Zeagler, Clint; Starner, Thad; Budd, Jim; Do, Ellen Yi-Luen (2013). „Kümmern Sie sich nicht darum, dass ich mein Handgelenk berühre: Eine Fallstudie zur Interaktion mit On-Body-Technologie in der Öffentlichkeit“. Proceedings of the International Symposium on Wearable Computers 2013. ISWC ’13. New York, NY, USA: ACM: 89–96. mach:10.1145/2493988.2494331. ISBN 9781450321273. S2CID 3236927.
  44. ^ Harrison, Chris; Faste, Haakon (2014). „Implikationen von Ort und Berührung für am Körper projizierte Schnittstellen“. Proceedings of the 2014 Conference on Designing Interactive Systems. DIS ’14. New York, NY, USA: ACM: 543–552. mach:10.1145/2598510.2598587. ISBN 9781450329026. S2CID 1121501.
  45. ^ ein b Reeves, Stuart; Benford, Steve; O’Malley, Claire; Fraser, Mike (2005). “Zuschauererlebnis gestalten” (PDF). Tagungsband der SIGCHI Conference on Human Factors in Computing Systems – CHI ’05. New York, New York, USA: ACM Press: 741. doi:10.1145/1054972.1055074. ISBN 978-1581139983. S2CID 5739231.
  46. ^ Rupert Goodwins. “Windows 7? Kein Arm drin”. ZDNet.
  47. ^ “Gorilla-Arm”. catb.org.
  48. ^ Hincapié-Ramos, JD, Guo, X., Moghadasian, P. und Irani. S. 2014. “Verbrauchte Ausdauer: Eine Metrik zur Quantifizierung der Armermüdung von Interaktionen in der Luft”. In Proceedings of the 32nd Annual ACM Conference on Human Factors in Computing Systems (CHI ’14). ACM, New York, NY, USA, 1063–1072. DOI=10.1145/2556288.2557130
  49. ^ Hincapié-Ramos, JD, Guo, X. und Irani, P. 2014. “Die Workbench für verbrauchte Ausdauer: Ein Werkzeug zur Beurteilung der Armermüdung während Interaktionen in der Luft”. In Proceedings of the 2014 Begleitpublikation zum Design interaktiver Systeme (DIS Companion ’14). ACM, New York, NY, USA, 109-112. DOI=10.1145/2598784.2602795

Externe Links[edit]

after-content-x4