Einzelnen Beitrag anzeigen
Alt 22.11.2004, 07:53     #5
Albert   Albert ist offline
Power User
  Benutzerbild von Albert

Threadersteller
 
Registriert seit: 06/2001
Ort: D-29227 Celle
Beiträge: 17.737

CE-
Sprache, Gestik, Mimik: BMW Group forscht an neuen Kommunikationsformen mit dem Auto

Die über 100 Jahre alte Automobilgeschichte zeigt, dass man sich zuerst auf Verbrennungsmotoren und mechanische Komponenten konzentrierte. Dann wurden über den technischen Fortschritt elektrische wie elektronische Umfänge erschlossen, gefolgt von zunehmender Steuerungstechnik und dem Einsatz von Software. Heute ist es die Schnittstelle zwischen Fahrer und Fahrzeug, die immer mehr im Mittelpunkt der automobilen Forschung steht. Wenn das Auto beginnt, den Fahrer zu ‚verstehen’ und mit ihm in den Dialog zu treten, dann lassen sich weitere, viel versprechende Komfort- und Sicherheitspotenziale für den Kunden realisieren. Sprache, Gestik und Mimik sind Kommunikationsmöglichkeiten zwischen Mensch und Maschine, die Spezialisten der BMW Group heute untersuchen. Hierzu gehört auch die Blickbewegungsmessung, die Ingenieure in Fahrsimulatoren und bei Versuchsfahrten einsetzen. Damit können diese Bewegungen umfassend analysiert werden. Ziel: der Autofahrer sollte möglichst wenig seine Augen vom Verkehrsgeschehen abwenden. Bei der Entwicklung zukünftiger MMI-Konzepte fließen gewonnene Erkenntnisse entsprechend ein. Hierbei setzt man verstärkt auf den Einsatz von Sprachbedienung, hohe Bildschirmpositionen nahe am Verkehrsgeschehen und auf Head-up Displays. Des Weiteren könnte die Erkennung von Gestik wie Emotionen und der Ausbau von Spracheingabe-Systemen völlig neue Dialogebenen eröffnen.

Den Wortschatz erweitern.

„Bei der Spracheingabe handelt es sich um eine der Schlüsseltechnologien für eine noch effizientere Nutzung des Automobils“, sagt Dr. Althoff, der sich bei der BMW Group Forschung und Technik mit der Mensch-Maschine-Interaktion beschäftigt. So angenehm die Bedienung von Navigationssystem oder Telefon per Sprachbefehlen auch heute schon ist, der Mensch am Steuer muss mit einem begrenzten Vokabular auskommen, das unveränderlich im Bordsystem gespeichert ist: Derzeit stehen ihm also nur Kommandos aus einem fest definierten Wortverzeichnis zur Verfügung. „Wenn bei der Navigation Städte- und Straßennamen vom Benutzer direkt genannt werden können, ist ein nächster Evolutionsschritt erreicht.“ Doch mit der Vergrößerung des erkennbaren Wortschatzes allein ist es nicht getan. Je mehr Begriffe das System kennt, desto mehr wächst das statistische Risiko von Missverständnissen: Ähnlich klingende Namen wie beispielsweise Marburg und Saarburg zu unterscheiden, verlangt eine sehr präzise Verarbeitung auf Signal- und Bedeutungsebene. Im Zweifelsfall wird der Nutzer dann immer noch das gewünschte Ziel aus einer Liste sinnvoller Möglichkeiten auf dem Bildschirm auswählen können.

Alltagssprache lernen.

Die zweite große Herausforderung, an der die Experten im Forschungs- und Innovationszentrum (FIZ) der BMW Group arbeiten, ist die Komplexität menschlicher Äußerungen. „Wir wollen weg von der reinen Kommandosprache“, sagt Dr. Althoff. Das beginnt bei ganzen Sätzen, die die Bordsysteme zur Zeit noch nicht verstehen können: „Ich will nach München fahren“ ist im humanen Sprachgebrauch alltäglich, für die Maschine aber noch nicht verständlich. Noch anspruchsvoller wird die Situation, wenn der Fahrer unterbricht, Füllwörter verwendet oder korrigiert, was im Fahrbetrieb häufiger passiert. Die langfristige Vision für ein perfektes Spracherkennungssystem liegt in der richtigen Erkennung von indirekten Äußerungen des Fahrers wie „Ich habe kalte Füße“. Das System erkennt den daraus abzuleitenden Wunsch und verändert die Klimaeinstellung entsprechend. Die Wissenschaftler der BMW Group arbeiten daran, solche Fähigkeiten sukzessive in das Auto zu bringen. So werden sich die Spracheingabefunktionalitäten in Fahrzeugen der BMW Group kontinuierlich in diese Richtung entwickeln.

Gestikerkennung: Kopfschütteln heißt „Nein“.

Wie die menschliche Kommunikation erreichen unter ungünstigen Umständen auch beste Spracheingabesysteme die Grenzen ihrer Leistungsfähigkeit, etwa wenn laute Umgebungsgeräusche stören. Deshalb untersuchen die Wissenschaftler der BMW Group, ob auch andere, begleitende Kommunikationsformen des Menschen zur Interaktion mit dem Fahrzeug genutzt werden können. Eine Möglichkeit: die Gestik. Mittels einer einfachen Kamera werden Kopf- und Handbewegungen erfasst, um zu prüfen, ob sie sich entsprechend mitnutzen lassen. Wenn der Fahrer auf eine Frage des Sprachsystems mit „Nein“ antwortet, aber zu leise spricht oder die Hintergrundgeräusche zu laut sind, fragt das System heute ein zweites Mal nach. Wird aber neben dem Sprachsignal gleichzeitig ein Kopfschütteln erkannt, kann das System aus dieser so genannten multimodalen Reaktion ein „Nein“ ableiten. Angelehnt an die zwischenmenschliche Kommunikation erhöht die Auswertung verschiedener Informationsquellen die „Robustheit“ der Interaktion zwischen Fahrer und Fahrzeug.

Ähnliches kann für Handbewegungen gelten, die allerdings auch unabhängige Steuerungsmöglichkeiten darstellen könnten: Ein Winken von links nach rechts würde so etwa „nächsten Sender im Radio einstellen“ bedeuten, eine Abwärtsbewegung das Auflegen des Telefonhörers symbolisieren, um das laufende Gespräch zu beenden.

Forschungsbedarf: Erkennung und Akzeptanz.

Von besonderer Wichtigkeit ist hierbei, festzustellen, ob es sich bei einer Geste um eine willentliche Bewegung des Nutzers zur Systembedienung handelt. Erste Erfahrungen mit Probanden zeigen außerdem, dass verschiedene Gestikszenarios intensiv durchdacht werden müssen. Denn wo mancher gerne mit Kopfbewegungen antworten würde, würde der nächste lieber einen Knopf drücken und der Dritte eine gesprochene Antwort bevorzugen. Nur wenn das Fahrzeug viele Varianten zulässt, wird das System vom Kunden als nützlich akzeptiert werden, da es dann deutliche Verbesserungen des Bedienkomforts erlebbar macht.

Emotionserkennung hilft bei Individualisierung.

Das Stichwort multimodale Informationsauswertung zur Optimierung der sprachlichen Bedienung steht auch bei einem dritten wissenschaftlichen Programm der BMW Group Forschung und Technik im Vordergrund: der Emotionserkennung. Zwei Arten, Gefühle auszudrücken, spielen dabei eine Rolle: die Mimik und die Stimmlage. Die größten Fortschritte hat dabei die Audio-Auswertung der Stimmlage gemacht. Anhand verschiedener Signalcharakteristika, wie z. B. der Grundfrequenz, der Intensität und der Dauer von stimmhaften Anteilen, lässt sich bereits heute für eine Person gut unterscheiden, ob dieser Sprecher beispielsweise ärgerlich ist. „Wir wollen zunächst nur zwischen positiven, neutralen und negativen Äußerungen unterscheiden können“, schränkt Dr. Frank Althoff ein.

Ein Beispiel: Muss der Bordcomputer bei einer unverständlichen Spracheingabe mehrfach zurückfragen, reagieren viele Fahrer unterschiedlich. Manche fühlen sich schon bei der zweiten Rückfrage belästigt, anderen sind die Wartezeiten zwischen den Wiederholungen zu kurz. „Wenn wir hier Emotionen erkennen können, sind wir auch in der Lage, den Dialog besser an den Fahrer anzupassen – ohne dass er dazu etwas tun muss“, erklärt Dr. Althoff. Ganz wichtig bei dieser Anpassung von Fahrzeugfunktionen an den Benutzer sind die multimodalen Informationen: So nutzt das System die erkannten Emotionen nur im Zusammenhang mit anderen Fakten, wie Bedienhistorie und aktuellen Umgebungsbedingungen.
Mit Zitat antworten