Mobile World Congress

So stellt sich BMW das Autofahren der Zukunft vor

BMW-Fahrer sollen künfig selbst entscheiden, wie sie die Bedienelemente im Wagen steuern möchten - per Sprache, per Geste oder per Blick.
BMW
BMW-Fahrer sollen künfig selbst entscheiden, wie sie die Bedienelemente im Wagen steuern möchten - per Sprache, per Geste oder per Blick.
Per Sprachbefehl die Heizung einstellen oder das Schiebedach öffnen? In ausgewählten BMW-Modellen ist das ab März dieses Jahres keine Zukunftsvision mehr, sondern Realität. Auf dem Mobile World Congress in Barcelona haben die Münchner allerdings noch eine Schippe draufgelegt und das neue System "Natural Interaction" vorgestellt. Ab 2021 soll für die Steuerung wichtiger Funktionen nur noch ein Blick reichen.
Teilen
Wie sich BMW das Autofahren der Zukunft vorstellt, das ist spätestens seit Ende des vergangenen Jahres deutlich geworden. Im September stellte der Autobauer seinen sogenannten "Intelligent Personal Assistant" vor, der den Fahrer in ausgewählten BMW-Modellen künftig als "digitaler Beifahrer" bei der Bedienung des Fahrzeugs unterstützen soll. Die Innovation wurde kurz darauf mit einer spektakulären Installation in London beworben.

Mona Lisa and the BMW Intelligent Personal Assistant

Die Künstliche Intelligenz, die im Hintergrund arbeitet, ist beispielsweise in der Lage, auf den Zuruf "Hey BMW, mir ist kalt" die Temperatur im Fahrzeug anzupassen. Zudem kann der Assistent auf Nachfragen wie "Wie funktioniert der Fernlichtassistent?" Produktfeatures des Autos erklären, hilft bei der Parkplatzsuche und kümmert sich mit einem Vitalisierungsprogramm mit Licht-, Temperatur- und Musikeffekten gegen Müdigkeit um das Wohl des Fahrers.

Klingt nach einem voll vernetzten Fahrzeug. Ist es auch. Aber wenn es nach BMW geht, ist das Ende der Fahnenstange in puncto Connected Car allerdings noch längst nicht erreicht. Auf dem Mobile World Congress in Barcelona, der heute offiziell seine Tore geöffnet hat, präsentiert der Münchner Autobauer nun erstmals ein System, das sich "Natural Interaction" nennt und die Sprachsteuerung mit einer Gestensteuerung sowie mit einer Blickerkennung kombiniert.

Heißt konkret: Der Fahrer soll künftig selbst entscheiden, und zwar möglichst intuitiv, wie er die Bedienelemente im Auto steuern möchte - mit einem Sprachbefehl, einer Handbewegung oder einem Blick. Ist er gerade im Gespräch, wählt er wahrscheinlich Gesten und Blick, bleibt der Blick auf der Straße, nutzt er Sprache und Gesten. Auf diese Weise lassen sich im Fahrzeug beispielsweise mit nur einem Blick oder einer Geste Fenster oder Schiebedach öffnen und schließen, die Luftausströmer verstellen oder eine Auswahl auf dem Display vornehmen.

Die Vernetzung soll sich dabei laut Hersteller nicht nur auf das Innere des Wagens beschränken. Der Insasse hat mit dem neuen BMW-System erstmals die Möglichkeit, auch mit seiner direkten Umgebung wie zum Beispiel Gebäuden oder Parkplätzen zu interagieren. Durch einen Fingerzeig und ein Sprachkommando werden etwa Fragen wie "Was ist das für ein Gebäude?", "Wie lange hat das Geschäft noch offen?", "Wie heißt dieses Restaurant?" und "Darf ich hier parken und wieviel kostet das?" vom Sprachassistenten beantwortet.
Der Kunde soll mit dem intelligenten und vernetzten Fahrzeug auf völlig natürliche Weise kommunizieren können
Christoph Grote, BMW
"Der Kunde soll mit dem intelligenten und vernetzten Fahrzeug auf völlig natürliche Weise kommunizieren können", erklärt Christoph Grote, Senior Vice President BMW Group Elektronik. "Er wird zukünftig nicht überlegen müssen, mit welcher Bedienstrategie er zum Ziel kommt, sondern zu jeder Zeit frei interagieren und das Fahrzeug versteht ihn", so Grote weiter. Erste Funktionen von BMWs "Natural Interaction" werden ab 2021 im BMW iNEXT verfügbar sein.

Damit das alles funktioniert, verbaut BMW jede Menge Technik in den Wagen. So registrieRt beispielsweise eine in die Instrumentenkombination integrierte High-Definition-Kamera die Kopf- und Blickrichtung. Die Kamera wertet die Bilder aus und errechnet daraus die erforderlichen Vektordaten, die im Fahrzeug weiterverarbeitet werden, um dann beispielsweise zu analysieren, wie eine bestimmte Geste des Fahrers zu bewerten ist.

Das Ende der Fahnenstange ist damit aber noch immer nicht erreicht, so der Autobauer. Das System, das mithilfe von KI ständig dazulernt, soll künftig auch in der Lage sein, Emotionen der Fahrzeuginsassen zu erkennen und in die Interaktion miteinfließen zu lassen. Vorstellbar wäre etwa, dass der intelligente Assistent je nach Situation und Stimmungslage des Fahrers selbst entscheidet, ob er auf Anweisungen wartet oder sogar selbstständig Vorschläge für Interaktionen unterbreitet. Aber das ist tatsächlich noch Zukunftsmusik. ron



stats