Automobiles Fahren: Auf Du und Du mit dem Auto des Nachbarn?

Automobiles Fahren: Auf Du und Du mit dem Auto des Nachbarn? Bilder

Copyright: Daimler

Automobiles Fahren: Auf Du und Du mit dem Auto des Nachbarn? Bilder

Copyright: Daimler

Automobiles Fahren: Auf Du und Du mit dem Auto des Nachbarn? Bilder

Copyright: Daimler

Automobiles Fahren: Auf Du und Du mit dem Auto des Nachbarn? Bilder

Copyright: Daimler

In der Stadt der Zukunft wird das Verkehrsgeschehen sehr stark von selbstfahrenden Autos bestimmt. Deshalb befassen sich Automobilhersteller – über technische und rechtliche Aspekte hinaus – intensiv auch mit der Fragestellung, wie sich die Menschen künftig mit autonomen Fahrzeugen verständigen können.

Mercedes-Benz diskutierte das jetzt in Berlin beim zweiten Mercedes-Benz Future Talk „Robotik“ mit Roboter-Experten und einer Sprachwissenschaftlerin.Wie kommunizieren wir künftig mit selbstfahrenden Autos? Kann ein autonomes Fahrzeug einen Fußgänger über die Straße „winken“? Spricht das Auto mich an oder die Person neben mir? Und was heißt in diesem Fall überhaupt „sprechen“? Müssen wir eine Robotergrammatik erlernen oder muss das Auto uns verstehen können? Und wie kann diese Sprache entwickelt werden – intuitiv oder konstruiert?

Dass es auf viele Fragen zur Mensch-Maschine-Interaktion noch keine eindeutigen Antworten gibt, bewies auch die intensive Diskussion aller Teilnehmer des Future Talk „Robotik“. Es wurde deutlich, dass Roboter weit mehr sind als Humanoide mit menschenähnlichem Aussehen oder Figuren aus Science-Fiction-Filmen. Martina Mara, die am Ars Electronica Futurelab zur Psychologie von Mensch-Roboter-Beziehungen forscht: „Der Blechmann, die synthetische Mensch-Maschine, ist zwar das Bild, das wir zum Begriff ‚Roboter‘ vor unserem inneren Auge sehen – bei realen Robotern, jenseits der Kinoleinwand, wird zu starke Ähnlichkeit mit dem Menschen jedoch oft nur wenig akzeptiert.“ Wichtiger sei laut Mara, dass möglichst schnell klar werde wie intelligent ein Roboter sei, welche Kommunikationsformen er beherrsche und er signalisiere was seine nächsten Schritte sein werden.

Alexander Mankowsky, Zukunftsforscher bei der Daimler AG ergänzte: „Wir sehen das selbstfahrende Auto, den autonomen Roboter, eingebettet in ein Gesamtbild zukünftiger Mobilität, wobei der Mensch die Hauptrolle in unserer Zukunftsvision spielt. Es gilt ein kooperatives System zu entwickeln, bei dem eine oder mehrere Kommunikatiossprachen essentiell sind, um die Interaktion zwischen Mensch und maschineller Intelligenz im dichten urbanen Raum zu ermöglichen.“ Er fügte hinzu: „Vielleicht wird es in Zukunft sogar ein Lexikon der Robotersprache geben?“ Die Adaption des Menschen an die Maschine zu fordern, sollte laut Mankowsky bei allen Überlegungen definitiv nicht das Ziel sein. Vielmehr ginge es darum, bei einer immer intensiver werdenden Mensch-Maschine-Kommunikation Vertrauen aufzubauen. Eine sprachwissenschaftliche Perspektive brachte Prof. Dr. Ellen Fricke in die Diskussion ein. Als Gestenforscherin an der Technischen Universität Chemnitz und Mitbegründerin des Berlin Gesture Centers argumentierte sie: „Wenn man Gesten als eine Möglichkeit betrachtet, mit autonomen Autos erfolgreich zu kommunizieren, dann ist es natürlich wichtig zu untersuchen, welche menschlichen Gesten des Alltagsgebrauchs dafür als Ausgangspunkt besonders geeignet sind.

[foto id=“517930″ size=“small“ position=“left“]

Ebenso zentral ist es zu fragen: Wie formt das selbstfahrende Auto uns? Und wie wirken die Gesten der Mensch-Auto-Interaktion zukünftig auf die Gesten in der zwischenmenschlichen Kommunikation zurück?“ Weiter betonte Fricke, „nicht nur ein Lexikon der Robotergesten wird benötigt, sondern als allererster Schritt eine umfassende digitale Datenbank menschlicher Gesten des Alltagsgebrauchs. Diese kann als Ausgangspunkt für eine Konstruktion von Gesten dienen, die sich an autonome Roboter richten.“

[foto id=“517931″ size=“small“ position=“left“]

Die Kommunikation mit autonomen Fahrzeugen heute noch Neuland. Darum hat Mercedes-Benz gemeinsam mit dem Ars Electronica Futurelab ein „Experimentierfeld“ geschaffen, in dem verschiedene Interaktionsformen zwischen Mensch und kinetischen Robotern prototypisch ausprobiert werden konnten. Drei interaktive Quadcopter wurden in einem Test-Setting unter anderem mittels Gestensteuerung oder eines haptischen Kontroll-Objekts herbeigerufen, angehalten oder in eine bestimmte Richtung gelenkt. Dies vermittelte eine erste Idee davon, wie sich die Ko-Existenz von Menschen und autonomen Maschinen im Shared Space der Zukunft anfühlen könnte.

UNSERE TOP-ANGEBOTE FÜR SIE

MEHR ERFAHREN AUS DEM BEREICH NEWS

Die Transformation: Mit Kia in Walla Walla

Die Transformation: Mit Kia in Walla Walla

Tesla liefert mehr Reichweite

Tesla liefert mehr Reichweite

Elektrischer Familienfreund zum Sparkurs

Elektrischer Familienfreund zum Sparkurs

zoom_photo