chevron_left
chevron_right

Interaktion mit allen Sinnen

HMI 5.0 – wurde da nicht eine Versionsnummer übersprungen? Nicht, wenn man die Innovationen und damit die Zukunft des Human Machine Interface, HMI, betrachtet. Brauchen wir überhaupt noch Touchscreens? Oder «träumen» wir uns unsere Geräte mit dem Gedankeninterface zusammen?

Vor zwölf Jahren machte das iPhone von Apple mit einem neuen Bedienkonzept Furore. Die Tastatur wurde durch einen Touchscreen ersetzt, die gesamte Vorderseite des Geräts füllt ein riesiger Bildschirm mit einer bislang nicht da gewesenen Pixeldichte. Die Bedienung erfolgt über einen Touchscreen mit projiziert-kapazitivem Feld, das auch mehrere Touchereignisse gleichzeitig erkennen und auswerten kann. Sinnvoll einzusetzen ist diese Technologie nur mit einer völlig neuen Art der Benutzerführung über Software. Tippen, Sliden und andere Gesten mit einem oder zwei Fingern steuern unterschiedliche Funktionen.

 

Ein- uns Ausgabewelt hat sich gewandelt

Seit dieser Produktvorstellung hat sich die Welt der Ein- und Ausgabe gewandelt. Aus der punktuellen Berührung des Touchscreens, die genau eine Aktion auslöste, wurden Gesten mit einem oder mehreren Fingern, die komplexe Aktionen auslösen. «Drag and Drop» oder «Pinch» funktionieren aus dem Handgelenk, ohne umständlich über Menüs Objekte auszuwählen und eine Aktion zuzuordnen. Diese Umstellung verlangt eine völlig neue, darunter liegende Software und damit ein neues Bedienkonzept.

Müssen Aktionen immer durch Berühren eines dem Bildschirm vorgelagerten Touchscreens initiiert werden? Ist es nicht auch denkbar, Bewegungen vor dem Bildschirm auszuwerten? Ja, gleich mehrere Technologien nutzen diese Vorstellung. Für Gesten, die keine besondere Anforderung an die Genauig- keit stellen, eignen sich 3D-Touchsysteme, die Positionen durch eine Änderung in einem elektrischen Feld bestimmen. Für eine qualitative Bestimmung «Lauter/Leiser», «Höher/ Tiefer», «Zoom in/Zoom out» reicht die vorhandene Auflösung dieser Systeme bei den meisten Anwendungen aus.

 

Alternativen zum Touchscreen

Soll die Position genauer ausgewertet werden, kommen Kameras zum Einsatz, die z.B. den Händen des Bedieners folgen. Die Perfektion in Aufl ösung der Position bieten die Steuergeräte für AR/VR-Brillen (Augmented Reality/ Virtual Reality), die im System eine feinfühlige Steuerung erlauben.Einen anderen Ansatz verfolgt das «Eye Tracking». Nach einer kurzen Lernphase ist das System in der Lage, die Pupillen des Bedieners mit Hilfe von Kameras zu verfolgen. Der «Mausklick» erfolgt durch Blinzeln. Nach einer Eingewöhnung  kann der Bediener ohne den Einsatz der Hände das System bedienen. Anwendungen sind überall dort, wo die Hände gerade nicht frei sind oder steril bleiben müssen.

Ein Trend ist auch die Sprachsteuerung. Apple, Google und Amazon machen es vor: Das Abrufen von Informationen aus dem Internet oder die Steuerung von Geräten im heimischen Wohnzimmer funktioniert ganz einfach auf Zuruf. Dahinter steckt eine künstliche Intelligenz, die in einer Serverfarm des Anbieters steckt. Etwas einfacher ist die Spracheingabe, die mehr oder weniger strikten Syntaxregeln folgt. Sie fi nden wir im Navigationssystem unseres PKW «Bitte geben Sie die Adresse ein in der Form Stadt, Strasse und Hausnummer». Das Parsing, also das Zuordnen der eingegebenen Worte zu Feldern in der Datenbank kann ein lokaler Controller durchführen, und die gewünschte Aktion, sei es die Navigation zur Zieladresse oder das Wechseln des Radiosenders, ausführen.

 

Visualisierung – OLED versus LCD

Auf der anderen Seite der Interaktion steht die Ausgabe, die meistens ein Display erledigt. Auch dort schreitet die Technik voran. Wiederum getrieben durch die Stückzahlen des Massenmarktes erscheinen OLED mit brillanter Darstellung und einer durch den enormen Kontrast hervorragenden Bildqualität. In bestimmten Anwendungen scheinen sie der LCD-Technologie den Rang abzulaufen, auch wenn sie prinzipbedingt einem Alterungsprozess unterliegen, der durch Nachlassen der Helligkeit sichtbar wird.

TFT kontert mit Quantum Dots, die unter Namen wie «QLED» in den Markt drängt und einen hohen Farbumfang mit leuchtenden Farbtönen verspricht. Noch im Laborstadium befi nden sich Schirme mit Mikro-LEDs, die der LED-Technologie zu einer Renaissance verhelfen und sie von der reinen Lichtquelle für TFTs zur Bildquelle an die Front rücken lässt. Die Fertigung grosser Bildschirme mit hoher Aufl ösung ist fertigungstechnisch für die Serie noch nicht gelöst, Prototypen zeigen jedoch das grosse Potenzial, das diese Technologie aufweist.

 

Anwender erwarten durchgängiges Konzept

Zurück zum HMI, Human Machine Interface: Der Anwender von heute darf ein durchgängiges Konzept erwarten. Nicht eine Technologie alleine führt zum Erfolg, sondern die Kombination. Ein Human Machine Interface muss eine schlüssige Eingabefunktion anbieten, die viele Sinnesorgane anspricht. Zu den beschriebenen Touchsystemen kommt die haptische Rückmeldung, die dem Bediener über den Tastsinn auf direktem Wege die erfolgreiche Eingabe signalisiert. Sie könnte auch akustisch über einen Piepser erfolgen, was jedoch in lauter Umgebung unter Umständen im Lärmpegel untergeht. Das eingesetzte Display stellt mit hoher Aufl ösung die gewünschten Informationen ergonomisch dar. Einen entscheidenden Anteil hat jedoch die Benutzerführung, welche die Software vornimmt (GUI = Graphical User Interface). Die Software legt fest, wie Informationen präsentiert werden. Dies geschieht durch Farben, Formen, der Anordnung auf dem Bildschirm und die Darstellung in Relation zueinander.

 

HMI 5.0 ist die nächste Revolution in der Maschinenbedienung

Was bedeutet jetzt HMI 5.0? Der Begriff beschreibt die umfassende Interaktion des Menschen mit dem System mithilfe aller Sinne. Neue Methoden kommen auf den Markt, z. B. für die Eingabe die Erkennung von 3D-Gesten, die Spracherkennung, das Eye Tracking. Für die Ausgabe steigen die Bedeutung der haptischen Rückmeldung, die das Manko gängiger Touchscreens kompensiert, und die dreidimensionale Visualisierung mit Hologrammen oder Brillen. Durch leistungsfähigere Grafi kkarten sind Brillen für AR (Augmented Reality) und VR (Virtual Reality) bezahlbar geworden.

Zunächst getrieben durch Computerspiele, haben VR-Brillen ihre Berechtigung bereits im Simulator-Training gefunden, wo sie den Bediener optisch und akustisch in eine realistische Szene versetzen. Der Kommunikationskanal zwischen Mensch und Maschine ist breiter geworden: Sehen und gesehen werden – mit Bildausgabe und Eye-Tracking; hören und gehört werden – mit Tonausgabe und Spracheingabe; tasten und fühlen – mit Touchscreen und haptischem Feedback. Nur Riechen und Schmecken fehlen noch in diesem Reigen.

 

Fazit

Ist Touchbedienung noch State of the Art? Diese Frage kann man ganz klar mit «Ja» beantworten. Trotz vieler neuer Technologien wird der Touchscreen noch längere Zeit den Ton angeben. Eine wichtige Rolle darüber hinaus wird die umfassende, multi-sensuelle Kommunikation des Menschen mit dem Computer spielen, die wir HMI 5.0 nennen, und die sich nicht nur alleine auf Tastatur/Touchscreen und Bildschirm beschränkt. Auch wenn einigen Technologien noch nicht der Durchbruch in die Breite gelungen ist, stehen sie als Werkzeug bereit, dem Anwender eine neue User Experience zu erlauben. Mit ihrer Unterstützung ist er bestens präpariert, wenn es um die Implementierung von Software für Künstliche Intelligenz (KI) oder das Machine Learning (ML) geht.

 

Infoservice

Hy-Line AG

Hochstrasse 355, 8200 Schaffhausen

Tel. 052 647 42 00, Fax 052 647 42 01

info@hy-line.ch, www.hy-line.ch