Wir glauben, dass traditionelle Computer-Eingabegeräte wie Tastatur und Maus in naher Zukunft durch natürliche Schnittstellen ergänzt oder ersetzt werden. Durch die Anwendung von Usability Engineering Methoden und dem User Centered-Design-Ansatz entwickeln wir neue Konzepte für die multimodale und insb. berührungslose Mensch-Technik-Interaktion. Dadurch ermöglichen wir den Nutzern Anwendungen oder Systeme durch räumliche Hand-, Finger- oder Ganzkörperbewegungen und Gesten zu steuern. Um besondere Nutzungsanforderungen zu erfüllen binden wir zusätzliche Eingabetechnologien wie z.B. die Sprachsteuerung ein, um die User Experience in bestimmten Szenarien zu verbessern. Unsere Interaktionskomponenten werden in verschiedenen Anwendungsfeldern, z.B. in der Bildung, der Medizin- und Automobilbranche, als auch im Digital Signage oder Kulturerbe-Projekten dauerhaft, sowohl in der Forschung und Entwicklung als auch in der Praxis eingesetzt.
Aktuelle Projekte
- KIPos
- Maschinelles Sehen auf der Edge Cloud für Mensch-Roboter Interaktionen
- LZDV
- VReha
- X Reality Interaction
Vergangene Projekte
- German Edge Cloud (Industrieprojekt)
- EASY COHMO
- 3D-LivingLab
- SCU Leitwarte
- GestFus
- Interactive 3D-Book-Explorer
- Interactive Shop Window
- iPoint 3D
- iPoint Presenter
- iPoint Explorer
- Operation Room Information System
- Interactive Media Wall
- 3D Kiosk
- 3D Kiosk smart
- 3D Media Center
- Mixed-Reality Combi