ATLAS
Human-Machine-Interface (HMI) zur Unterstützung von Menschen mit Sehbehinderungen bei der Interaktion mit autonom fahrenden Automobilen
Technologiebeschreibung
Das HMI wurde partizipatorisch mit Menschen mit Sehbehinderungen entwickelt. Das System, das auf einem Microsoft Surface-Tablet installiert ist, ermöglicht es Nutzenden, ein Ziel oder eine Reihe von Zielen mithilfe natürlicher Sprache oder über die grafische Benutzeroberfläche des Systems anzugeben. Das System unterstützt die Bedürfnisse der Nutzenden nach Situationsbewusstsein durch die Verwendung von akustischen Hinweisen während der Fahrt (z. B. "Sie passieren [Ort] auf der rechten Seite") und unterstützt die Bedürfnisse der Nutzenden nach Standortverifizierung durch räumliche Audio- und Computer-Vision-Technologien. Bei der Ankunft an einem Ziel nimmt ATLAS Bilder des Fahrzeugs auf, wertet diese Bilder nach Inhalten aus und erstellt eine Beschreibung der unmittelbaren Umgebung des Fahrzeugs. Während der Fahrt verwendet das System Affective Computing, um die Nutzenden auf Stress und Unbehagen zu überwachen und bietet Optionen zur Anpassung des Fahrverhaltens des Fahrzeugs an, wenn Stress oder Unbehagen festgestellt wird.
Unterstützungsart
-
Steuern
Behinderungsart
-
Sehbehinderungen
Reifegrad
-
In Entwicklung / Laufendes Projekt
Laufzeit von Projekten
-
ohne Angabe
Grundvoraussetzungen zur Anwendung
-
Hörvermögen oder Tastsinn
Link zum Anbieter
https://www.tandfonline.com/doi/abs/10.1080/10447318.2018.1561787?journalCode=hihc20Initiiert durch:




Gefördert durch:

aus Mitteln des Ausgleichsfonds