Sky Compass 2017

Als eine Zusammenarbeit zwischen dem japanischen Telekommunikationsgiganten NTT und dem Ars Electronica Futurelab ist Sky Compass der erste Schritt in Richtung Verwirklichung einer Vision des Gebrauchs von Drohnen (oder unbemannten Luftfahrzeugen) als öffentliche Beschilderung und im Zeichen einer Erleichterung des Verkehrsflusses. Ihre Manifestation erfuhr es in einer Serie von speziellen Demonstrationen am NTT R&D Forum 2017 in Musashino, Tokyo.

 

Die Vision Tokyo gemeinsam im Jahr 2020 zu annimieren zielt darauf ab ein Drohnenschwarm-basiertes  Beschilderungssystem zu entwerfen, das von großen Entfernungen aus gelesen werden kann.Credit: Markus Scholl

 

Ziel der Zusammenarbeit ist eine ansprechend animierte Orientierungshilfe für eine Stadtlandschaft, die von einer hochentwickelten Industrie genauso gekennzeichnet ist wie von technologischer Innovation. Stelle man sich einen Besucher oder eine Besucherin vor, der oder die einer dichtbesiedelten Kulisse gegenübersteht, ohne die Landessprache oder die örtliche Lage zu kennen, wie es wäre, wenn es eine Führung durch eine persönliche Drohne gäbe, die einen zu dem gewünschten Ort führte? Oder intelligente, hell erleuchtete Quadcopter-Schwärme die den Verkehr regeln, die scheinende Zeichen und Symbole in den Nachhimmel zeichnen….?

 

Die Überwachung der einzelnen Szenarien der Demonstration von NTT’s Hierochi Chigira (links) und Ars Electronica Futurelab’s Peter Holzkorn. Credit: Michael Mayr

 

Um diese Vision zu realisieren braucht es eine Anzahl technischer Entwicklungen und eine Selbstverpflichtung zur intensiven Forschung und Entwicklung – die Absicht der Präsentation von Sky Compass-Prototypen im R&D Forum war, ein Gefühl für die Möglichkeiten durch physische Demonstrationen zu vermitteln: Dazu tanzte eine Anzahl von bis zu 5 synchronisierten Drohnen verschiedene „Szenen“, während sie auch auf die Leute im Raum reagierten. Forscher des Futurelab und NTT benutzen diese Demonstration als Ausgangspunkt zu einer Diskussion, die nicht nur technische Implikationen hat: Wie würden wir mit Robotern kommunizieren? Welche Art der Sprache würden wir brauchen um sie in der Zukunft verständlich zu machen, und – als noch größere Herausforderung – damit SIE uns zukünftig verstehen?

 

Eine Drohne als „Blindenhund“ and der physischen und metaphorischen Leine – ein mögliches Szenario für die Navigation durch Tokyo 2020. Credit: Michael Mayr

 

Forschungsfragen: „Sky Language“ und „User Responsibilty Design“

Auf einer persönlichen Skala kommt die Führ-Drohne in eine eins-zu-eins Beziehung mit seinem/-r potenziell (zeitlich begrenztem/-n) Besitzer/-in. Da es diesen oder diese zu seinem oder ihrem Ziel führt, muss sie eine komplexe städtische Landschaft vermitteln; der oder die Besitzer/-in ist mit der Drohne durch eine physische oder metaphorische Leine verbunden, ihr folgend als wäre sie ein Blindenhund. Dabei hat er oder sie eine Kontrolle über die Drohne und genau wie in einem Verhältnis zum Hund gibt es eine relative Unabhängigkeit zwischen Drohne und ihrem „Besitzers“ oder ihrer „Besitzerin“.

Die Sky Language im Entwicklungsstadium: 5 Drohnen formieren sich zu einem Pfeil. Credit: Markus Scholl

 

Auf einer Gruppenebene formieren Drohnen Figuren die als Beschilderung des öffentlichen Raumes dienen; weltweit ist ein einvernehmliches Verständnis für Verkehrszeichen bereits entwickelt worden. Aber wie kann dieses zu einer dynamischen Form (und erweiterten Möglichkeiten) von kleinen Drohnenschwärmen transferiert werden?

Letztendlich eröffnet die Organisation von Hunderterschwärmen (oder zu Tausenden) auf einem stadtweiten Maßstab transferiert, die darüber hinaus von vielen Beobachtungspunkten gesehen werden sollen, eine Menge von Forschungsfragen. Diese müssen unter der Maßgabe von zeitlich-räumlichen, temporären und unter streng logistische Einschränkungen gestellt werden.

 

Hideaki Ogawa führt durch die Präsentation des Sky Compass im R&D Forum von NTT.
Hideaki Ogawa führt durch die Präsentation des Sky Compass im R&D Forum von NTT. Credit: Michael Mayr

 

Demonstration: Technologie

Über die fünf Tage Demonstrationszeitraum wurde innerhalb des NTT Gebäudes ein 8x8x5 Meter großer Bereich durch Netze abgesperrt: darin wurden 16 OptiTrack Kameras dazu eingesetzt, um in Verbindung mit der vom Ars Electronica Futurelab eigens entwickelter GroundControl-Software Figuren von bis zu 5 Drohnen zu fliegen. Die Bewegungen des Präsentators wurden dabei von einer maßgeschneiderten Lösung, die auf Laser Rangern basiert, verfolgt. Bei einer speziellen Experimentanordnung, dessen visueller Aspekt der Kommunikation eine Rolle spielt, wurde ein Mirror Head benutzt um Echtzeit-Projektions-Mapping auf der Drohne zu ermöglichen. Die Technologien, die bei NTT zum Einsatz kamen, nämlich Spracherkennung und Live Density Maps, die auf wi-fi Signalen basieren, wurden dazu eingesetzt um die Möglichkeiten der Drohnen zu demonstrieren.

 

Eine Vision für die Zukunft: Drohnen formieren sich zu einer universell verständlichen Sprache um Menschen an den Ort ihres Verlangen zu geleiten. Credit: Andreas Röbl

 

Je schneller die Miniaturisierung und Leichtmaterial-Technologie voranschreitet, desto unkomplizierter wird die Integrierbarkeit dieser Technologien direkt in die UAVs. Und in ein paar Jahren wird es vielleicht möglich sein, dass persönliche Quadcopter uns an die schönsten unbekannten Orte dieser Welt geleiten!

Credits:

Ars Electronica Futurelab: Roland Haring, Peter Holzkorn, Michael Mayr, Martin Mörth, Otto Naderer, Nicolas Naveau, Hideaki Ogawa, Michael Platz

ntt: Hiroshi Chigira, Kyoko Hashiguchi, Shingo Kinoshita