Hallo, Roboter-Auto!

Autonomous Driving,

Roboter am Steuer? Wohl kaum in dieser Form. Das Ars Electronica Futurelab und Mercedes-Benz forschen zur Mensch-Maschine-Interaktion der Zukunft. Bild: Mercedes-Benz

Fans der TV-Serie Knight Rider ist das autonome Fahrzeug ja bereits länger ein Begriff. In einigen Jahren werden uns Roboter-Autos aber nicht mehr nur am Bildschirm, sondern immer öfter als reale Verkehrsteilnehmer im Alltag begegnen. Gemeinsam mit Mercedes-Benz untersucht das Ars Electronica Futurelab, wie wir uns mit den selbstfahrenden Maschinen künftig verständigen können. Martina Mara und Christopher Lindinger erzählen, warum es wichtig ist, dass mobile Roboter Klartext mit uns reden und welche Rolle die „Spaxels“ bei ersten Interaktions-Experimenten spielen.

Ihr erforscht, wie wir künftig mit Roboter-Autos kommunizieren werden. Warum ist das heute schon wichtig, wo vollautonome Fahrzeuge doch erst in 10 bis 15 Jahren auf unseren Straßen unterwegs sein werden?

Christopher Lindinger: Genau jetzt ist der richtige Zeitpunkt dafür. Am Ars Electronica Futurelab setzen wir uns ja seit langem mit radikalen Innovationen auseinander. Dabei beobachten wir, dass sich Technologien manchmal schneller entwickeln, als unser Verständnis, sie zu benutzen. Auch wenn autonome Fahrzeuge erst in Jahren in Serie gehen, müssen wir bereits heute darüber nachdenken, wie wir mit diesen neuen Verkehrsteilnehmern interagieren wollen. Nur so können diese Gedanken noch Teil von Design-Entscheidungen auf dem Weg zur Marktreife werden.

Martina Mara: Im nächsten Jahrzehnt werden Roboter in immer mehr Bereichen unseres Alltags eine Rolle spielen, von Assistenz-Systemen im Haushalt oder im medizinischen Bereich bis hin zu robotischen Transport- und Mobilitätsangeboten.  Eine Diskussion darüber in Gang zu bringen, wie diese intelligenten Maschinen beschaffen sein sollen, damit wir uns künftig wohl mit ihnen fühlen, ist unheimlich wichtig – besonders gemeinsam mit einem Automobilhersteller. Dabei geht es einerseits um ihre äußere Gestalt, aber eben auch darum, eine funktionale Sprache zwischen Mensch und Roboter zu entwickeln.

Gesten-Kommunikation zwischen Mensch und autonomem Fahrzeug. Bild: Mercedes-Benz

Gemeinsam mit Mercedes-Benz beschäftigt Ihr Euch ja insbesondere damit, wie das autonome Auto mit seiner Umwelt interagiert, also etwa mit Fußgängern, Radfahrern oder anderen Fahrzeugen … 

Christopher Lindinger: Das sind ganz elementare Punkte. Wenn man heute als Fußgänger die Straße queren möchte und von links kommt ein Auto angefahren, gibt uns die Fahrerin oder der Fahrer in der Regel per Blickkontakt oder Fingerzeig zu verstehen, dass wir gehen können. Da passiert eine nonverbale Verständigung, die natürlich und konventionalisiert ist. Aber wie sieht das aus, wenn ich in die Fahrbahn eines autonomen Roboters trete? Wie kann ich sicher sein, dass er mich erkannt hat und rechtzeitig stehen bleibt? Welche Rolle können Lichtsignale, Gestensteuerung oder ganz andere Interaktionsformen in dieser Situation spielen? Genau solche Fragen diskutieren wir gemeinsam mit Mercedes-Benz. Wir sind froh, hier einen Partner zu haben, der Innovationsführer ist und über seine Kernkompetenzen hinausdenkt und handelt.

Martina Mara, Interaktions-Experiment beim Mercedes-Benz Future Talk zum Themenschwerpunkt „Robotik“. Foto: Mercedes-Benz

Martina, Du forscht am Futurelab ja zur Psychologie von Mensch-Roboter-Beziehungen. Was ist aus Deiner Perspektive denn für die Kommunikation mit Roboter-Autos wichtig?

Martina Mara: Zuerst einmal tun wir uns leichter mit Robotern, wenn diese klar Maschine bleiben, wenn wir nicht das Gefühl haben, dass sie zu sehr mit uns Menschen in Konkurrenz treten. Bei Roboter-Autos wird es außerdem höchst relevant sein, dass potenzielle Unsicherheiten in der Kommunikation, auch Kontrollverluste, vermieden werden. Wenn rund um uns intelligente Roboter unterwegs sind, die wie durch Zauberhand miteinander in Kontakt stehen, die auf für uns nicht nachvollziehbare Weise entscheiden, wer bei der Kreuzung Vorrang hat, ob es nach links oder rechts weitergeht, welches Tempo gefahren wird, dann könnte sich das ganz schön gruselig für uns anfühlen. Deswegen müssen Roboter-Autos nach innen wie nach außen möglichst proaktiv signalisieren, in welchem Status sie gerade sind und was sie als nächstes vorhaben, auch wenn es aus rein technischer Sicht nicht erforderlich wäre. Da müssen klare Zeichen her, die für alle gleichermaßen verständlich sind. Beispielsweise muss für jedes Kleinkind augenblicklich der Unterschied zwischen einem Roboter-Auto und einem traditionellen, menschengesteuerten Fahrzeug erkennbar sein.

Christopher Lindinger und Martina Mara testen die Gestensteuerung mit den Spaxels. Foto: Mercedes-Benz

Ihr kommt gerade vom Mercedes-Benz Future Talk, der Anfang Juli 2014 zum Fokus-Thema „Robotik“ in Berlin stattgefunden hat. Erzählt doch mal, was dort los war.

Christopher Lindinger: Beim Future Talk haben wir drei Tage lang gemeinsam mit deutschen und internationalen Journalisten darüber geredet, wie die künftige Sprache zwischen Mensch und autonomem Auto aussehen könnte. Der interdisziplinäre Austausch war hochspannend. Neben Experten von Mercedes, darunter Zukunftsforscher Alexander Mankowsky, Chef der Konzernforschung Prof. Dr. Herbert Kohler und Vera Schmidt vom Mercedes-Benz Advanced Design Center in Sunnyvale, war beispielsweise auch die Gestenforscherin Prof. Dr. Ellen Fricke dabei. Unter anderem haben wir uns etwa damit beschäftigt, wie das Auto eigentlich erkennen kann, ob ich per Geste einen Befehl ausspreche oder einfach nur im Redefluss gestikuliere. Oder ob es eine Gestensprache geben könnte, die auf der ganzen Welt verständlich ist.

Martina Mara: Christopher und ich haben beim Future Talk über den Status Quo der Roboter-Entwicklung gesprochen und auch einige interessante künstlerische Arbeiten zum Thema Roboter gezeigt, zum Beispiel die Oribots unseres Futurelab-Kollegen Matthew Gardiner. Vor allem haben wir aber auch ein Forschungs- und Experimentierfeld aufgebaut, in dem die Besucher des Future Talk selbst ausprobieren konnten, wie sich die Interaktion mit autonomen Robotern anfühlt.

Von links nach rechts: Ellen Fricke (Professorin für Germanistische Sprachwissenschaft an der Technischen Universität Chemnitz und Mitbegründerin des Berlin Gesture Center), Martina Mara (Key Researcher, Ars Electronica Futurelab), Alexander Mankowsky (Gestaltende Zukunftsforschung, Bereich Gesellschaft und Technik, Daimler AG), Ralf Lamberti (Director Telematics and Infotainment Group Research and Advanced Engineering Daimler AG), Vera Schmidt (Senior Manager, Advanced UX Design, Daimler AG), Christopher Lindinger (Director of Research and Innovations, Ars Electronica Futurelab), Koert Groeneveld (Head of Research & Development Communications, Daimler AG). Foto: Mercedes-Benz

Ich habe gehört, in Eurem Experimentierfeld zur Mensch-Roboter-Interaktion kommen auch die „Spaxels“, die leuchtenden Quadcopter des Ars Electronica Futurelab, zum Einsatz…

Martina Mara: Genau. Wir haben einen etwa acht mal acht Meter großen „Shared Space“ geschaffen, in dem drei unserer Quadcopter computer- und sensorgesteuert fliegen und per Lichtsignal nach außen kommunizieren. Wenn ich in diesen Interaktionsraum eintrete, kann ich mit den Quadcoptern per Gesten, per Sprachsteuerung oder auch mithilfe eines „magischen“ Schlüssel-Objekts interagieren. Ich kann sie beispielsweise mittels hochgestrecktem Arm zu mir rufen, mit einer Halt-Geste stoppen oder ihre Flughöhe kontrollieren. Die Quadcopter wiederum reagieren auf mich, geben mir etwa per LED-Farbcode Bescheid, sobald sie mich erkannt haben oder kündigen an, dass sie gleich bremsen werden.

[youtube=http://www.youtube.com/watch?v=ORPBbhzex6A&w=610]

Christopher Lindinger: Mithilfe der Quadcopter können wir uns auf diese Weise zukünftigen Interaktionsmöglichkeiten zwischen Mensch und autonomen Robotern annähern und ausprobieren, welche Kommunikationsformen in welchen Situationen adäquat, intuitiv und eindeutig verständlich sind. Im Gegensatz zu virtuellen Simulationsumgebungen haben wir mit unseren Spaxels haptische Repräsentanten für autonome Fahrzeuge, die physisch spürbar sind, die kinetische Energie mitbringen und die auch ordentlich Wind erzeugen.

Experimentierfeld zur Mensch-Roboter-Kommunikation, mit Martin Mörth, Peter Holzkorn, Andreas Jalsovec, Martina Mara, Christopher Lindinger (v.l.n.r.) und den Spaxels Carl, Gottlieb und Mercédès. Foto: Mercedes-Benz

Und was genau ist Quad-Pong?

Martina Mara: Neben der Erforschung von Interaktions-Szenarien für den Verkehrsraum der Zukunft nutzen wir unser Experimentierfeld manchmal auch, um per Gestensteuerung Ping-Pong mit einem unserer Quadcopter zu spielen. Dabei wird eine sehr direkte, unmittelbare Interaktion mit der Maschine spürbar – und Spielen muss außerdem ja auch mal sein.