| Forschung

Autonome Quartiersmobilität in der Simulation

Auf der Teststrecke lernen die selbstfahrenden Vehikel mit Hilfe von Künstlicher Intelligenz, sich in einer dynamischen Umgebung zurechtzufinden. Dabei geht es um die Frage, wie man die Mobilität zwischen Fußgängern, Rad-, Skateboard-Fahrern oder Kleinfahrzeugen des Lieferverkehrs konfliktfrei organisieren kann.

Simulation des Autonomen Fahrens im Miniaturwunderland Hamburg

Simulation des Autonomen Fahrens. Simulation im Miniaturwunderland Hamburg

Im 7. Stock des E-Hochhauses am Campus Berliner Tor, am Ende des langen Flurs verbirgt sich ein Raum, der auf den ersten Blick eher unscheinbar wirkt: Mehrere Tische und Stühle, viele Pappkartons und in der Ecke eine grüne Matte mit einer Mini-Umwelt aus Häusern, Straßen und Bergen. „Eine Spielzeug-Eisenbahn!“, rufe ich aus. „Nicht ganz“, erwidert amüsiert Stephan Pareigis, Professor für Angewandte Mathematik und Technische Informatik an der HAW Hamburg. 

Obwohl er und sein wissenschaftliches Team tatsächlich mit dem „Miniatur-Wunderland“ kooperieren, der größten Modelleisenbahn der Welt, ist diese Anlage doch eine Eigenkreation der Forscher*innen für ihr autosys-Labor – benannt nach der Abkürzung für „Autonome Systeme“. Hier, am Department Informatik der HAW Hamburg, finden die Simulationen für die Zukunft der vernetzten Mobilität statt; es wird gebastelt, programmiert und getestet. Anhand von autonomen Mini-Autos untersuchen die Mitarbeiter*innen um Professor Dr. Pareigis und Professor Dr. Tim Tiedemann das maschinelle Lernen in der Bildverarbeitung. Auf der Teststrecke lernen die selbstfahrenden Vehikel mit Hilfe von Künstlicher Intelligenz, sich in einer dynamischen Umgebung zurechtzufinden.

Autonome Miniaturfahrzeuge „robust“ machen

Wie das im Detail aussieht, erläutert Stephan Pareigis anhand eines roten „Spielzeug-Busses“, der durch die Anlage fährt: In den Fahrbahnen befindet sich ein Draht und unter dem Bus ein kleiner magnetischer Taster. Indem dieser sich nach dem Draht ausrichtet, lenkt er den Bus entlang der Fahrbahn. Das ist an sich nichts Besonderes, nach diesem Prinzip (Faller Car Systems) funktionieren auch all die kleinen Bahnen, Busse, Autos usw. im Miniatur-Wunderland. Im Forschungslabor aber geht es darum, die Software-Architektur von autonomen Miniaturfahrzeugen so „robust“ zu machen, dass sie die notwendigen Sicherheitsanforderungen erfüllen. 

„In den Fahrzeugen steckt ein Mikrocontroller“, erklärt Pareigis. „Mit Hilfe einer kleinen Kamera und eines Magnetsensors (Hall-Sensor) sammeln wir während der Fahrt Bilddaten und messen den Lenkwinkel. Die gefilmten Bilddaten markieren („labeln“) wir anschließend mit dem Lenkwinkel. So lernt das System beispielsweise: „Immer, wenn ich auf das gelbe Haus zufahre, muss ich eine Rechtskurve machen.“

Der Algorithmus muss sich der Realität anpassen

In der wirklichen Welt kann es aber passieren, dass vor einem Haus eine Baustelle errichtet oder dessen Fassade eingerüstet wird. Dann lautet die spannende Frage: Wie reagiert der Algorithmus? Wenn das Fahrzeug plötzlich links abbiegt, wie bei einem anderen eingerüsteten Haus, ist das falsch. Der Algorithmus muss entsprechend verändert werden. „Auf diese Weise können wir hier die sicherheitsrelevanten Systeme relativ einfach testen, ohne jemanden zu gefährden“, fährt der Forschungsleiter fort. „Im Prinzip versuchen wir ja auch, Technologie zu verstehen. Mit den Bilddaten, die aus so einer Szenerie stammen, füttern wir Algorithmen für das maschinelle Lernen.“

Was im Labor an Mikrofahrzeugen erprobt wird, dient dann auch in größeren Fahrzeugen als Grundlage, zum Beispiel in dem Industrieroboter mit dem Namen „Husky“. Mit ihm sollen die Grundlagen bald in der realen Welt getestet werden – als Teil des interdisziplinären Forschungsprojekts „Testfeld Intelligente Quartiersmobilität“ (TIQ). Der Begriff bezieht sich auf die Bewegung von Menschen oder Gütern in einem Radius von weniger als drei Kilometern. Das „Quartier“ kann ein Wohngebiet, Einkaufsviertel oder eine Fußgängerzone sein, ein Schulgelände, Uni-Campus oder Park. 

Es gibt viele unterschiedliche „Quartiere“ 

Ganz gleich, welches der oben genannten Quartiere man wählt, die Fragen bleiben im Prinzip die gleichen: Wie kann man die Mobilität zwischen Fußgängern, Rad-, Roller- und Skateboard-Fahrern oder Kleinfahrzeugen des Lieferverkehrs möglichst konfliktfrei organisieren? Zumal, wenn unter den Fußgängern auch besonders Schutzbedürftige sind, wie Menschen mit eingeschränkter Sehfähigkeit, Rollstuhl-Fahrer oder Senioren mit Rollator? Und das alles vor dem Hintergrund eines insgesamt wachsenden Verkehrsaufkommens?

Bevor man solche Fragen beantworten kann, ist es deshalb notwendig, in einem Testfeld alle Bewegungen zu erfassen. Im TIQ-Forschungsprojekt geschieht dies über eigens entwickelte Sensoren, welche die gewünschten Daten liefern sollen. „Und zwar ausdrücklich unter Wahrung des Datenschutzes“, erklärt der Mechatronik-Ingenieur Maximilian De Muirier, Doktorand von Professor Pareigis. „Damit sind keine Rückschlüsse auf Individuen möglich. Das nennt sich Privacy By Design“. Die Bilder, die als Beispiel dafür auf dem Laptop gezeigt werden, erinnern an das, was der Bildschirm eines autonomen Testfahrzeugs an Sensordaten zeigt oder – entfernt – an die Scans zur Passagierkontrolle am Flughafen: Schemenhafte Darstellungen von Personen. 

Maschinelles Lernen sagt Bewegungen voraus

Nach Erhebung der Daten werden diese mit Methoden des maschinellen Lernens analysiert, um etwa Bewegungen vorhersagen zu können. Der nächste Schritt kann eine Visualisierung der Daten sein, um sie beispielsweise für die Stadtplanung zu nutzbar zu machen. Auch andere Daten, wie die zur Wettervorhersage oder Messwerte von Luftschadstoffen und Pollen, lassen sich nach Angaben der Wissenschaftler*innen in den Datensatz integrieren. Ein weiterer Schritt wäre, die Daten zur Interaktion mit den Menschen auf der Straße zu verwenden. Als Beispiel nennt Pareigis „smarte“ Straßenlaternen in Dänemark, die bei Dunkelheit erst angehen, wenn sich ein Passant, Rad- oder Autofahrer nähert. Solche Interaktionen seien auch via Mobiltelefon oder Blindenstock denkbar.  
 

Auf diese Weise können wir hier die sicherheitsrelevanten Systeme relativ einfach testen, ohne jemanden zu gefährden.

Dr. Stephan Pareigis, Professor für Angewandte Mathematik und Technische Informatik an der HAW Hamburg

Industrieroboter „Husky“ soll lernen, sich autonom zu bewegen

Ein zweiter Teil des Forschungsprojektes beschäftigt sich mit der Entwicklung von autonomen Fahrzeugen, die sich sicher in einer Fußgängerzone bewegen. Dabei geht es um das in der Logistik bekannte Problem der „letzten Meile“. Im Fokus steht hier der Industrieroboter „Husky“, der lernen soll, sich autonom draußen zu bewegen – in einem zuvor definierten Straßenviertel beziehungsweise Quartier. Anfangs wird das der Campus Berliner Tor der HAW Hamburg sein. Der Husky besitzt einen schwenkbaren Metall-Arm, der in eine zangenähnliche Greifvorrichtung mündet. Mit Hilfe des „Arms“ kann der Roboter mit seiner Umwelt interagieren. 

Maximilian Mang, im Masterstudiengang Informatik und ebenfalls Mitarbeiter an diesem Forschungsprojekt, führt vor, wie Husky zum Beispiel die Tür des Forschungslabors öffnet. Über einen Tablet-Rechner startet er das System. Der Roboter piepst, richtet seine Sensoren Richtung Tür, entfaltet den Greifarm und drückt die Klinke herunter. Dann rückt er schnell etwas vor und schiebt das Türblatt beiseite. „Das hat er erst vor kurzem gelernt“, erläutert Mang stolz – und weist darauf hin, dass dieser Prozess von seinem Kommilitonen Nils Schönherr entwickelt wurde. Dann deutet er auf eine spezielle Markierung unten an der Tür. „Voraussetzung ist, dass die Tür diesen Marker trägt, den der Roboter-Sensor erkennen kann.“

Roboter Husky fährt auch Fahrstuhl

Als nächstes soll der Roboter Fahrstuhl fahren lernen. Das sei im Prinzip einfacher als Tür-Öffnen, sagt Mang. „Dafür muss der Roboter „nur“ darauf programmiert werden, den Fahrstuhl-Knopf zu drücken. Wenn der Fahrstuhl dann da ist, öffnet sich die Tür ja von allein.“ Bleiben noch die Stockwerks-Knöpfe im Fahrstuhl, die er ebenfalls zu bedienen lernen muss.

„Wichtig bei der Entwicklung einer geeigneten Software-Architektur für die komplexen Aufgaben eines autonomen Roboters ist eine gute Aufteilung in funktionale Komponenten“, erklärt Pareigis. „Eine übergeordnete Aufgabe wie ein Pakettransport wird in kleinere Teilaufgaben untergliedert. In jeder Teilaufgabe müssen komplexe Probleme gelöst werden wie die Berechnung des kürzesten Wegs. Auf dem Weg zu seinem Ziel muss der Roboter Fußgänger, Radfahrer und Baustellen erkennen und ihnen ausweichen – ohne das übergeordnete Ziel aus den Augen zu verlieren.“ Die Teilprobleme können in Simulationen mit Hilfe des maschinellen Lernens gelöst werden. 

Außerdem soll ein autonomes System Lösungen finden, wenn es an irgendeiner Stelle nicht weiterkommt. Das erinnert mich an meine neueste Büro-Anschaffung. „So wie ein Wisch-Roboter?“, frage ich. Professor Pareigis runzelt die Stirn. „Ähnlich wie ein Wisch-Roboter“, sagt er lächelnd. „Nur erheblich komplexer.“

(Text: Monika Rößiger)

Weitere Informationen

https://autosys.informatik.haw-hamburg.de
https://autosys.informatik.haw-hamburg.de/project/smartmobility/
https://clearpathrobotics.com/husky-unmanned-ground-vehicle-robot/
https://gdpr.eu
 

Kontakt

Fakultät Technik und Informatik
Department Informatik
Prof. Dr. Stephan Pareigis
Professor für Angewandte Mathematik und Technische Informatik
T +49 40 428 75-8153
stephan.pareigis (at) haw-hamburg (dot) de

x