loader

Partnerprojekte

Projekt KI4HE

Das Projekt KI4HE ist ein Förderprojekt des FuE-Programm „Informations- und Kommunikationstechnik“ des Freistaates Bayern und dem Projektträger VDI/VDE Innovation + Technik GmbH.

Bei den technischen Arbeitspaketen aus dem KI4HE Projekt handelt es sich um Erweiterungen von vier der fünf Technologie-Arbeitspakete aus dem AHEAD Antrag, dennoch ist eine klare Abgrenzung der Arbeiten vorgesehen.

Diese vier technischen Arbeitspakete behandeln Kernthemen,
die für die Automatisierung/Teleoperation des Verkehrs der Zukunft in unstrukturierten Umgebungen von hoher Relevanz sind. So werden im KI4HE Projekt Lösungen unter der Nutzung von intelligenten algorithmischen Anwendungen geschaffen.

Der Partner Roboception GmbH wird im Rahmen des Projekts seinen Ansatz der visuellen Odometrie aus dem rc_visard in Richtung einer 360° abdeckenden Odometrie
weiterentwickeln. Diese Odometrie wird um ein neuartiges 360° 3D Umgebungsmodelle erweitert, das sowohl KI-basierte semantische Annotation ermöglicht als auch Schnittstellen für den teilautonomen Betrieb im Falle der Fernsteuerung zulässt. Die Kombination von KI-basierten und klassischen Methoden ermöglicht ein robustes und
zuverlässiges Navigationskonzept für vollständig unstrukturierte Umgebungen.

Der Partner DLR ist im KI4HE Projekt mit zwei Instituten vertreten, dem Institut für Robotik und Mechatronik (DLR-RM) und dem Institut für Kommunikation und Navigation (DLR-KN). Das Institut RM beteiligt sich als Projektleiter an allen Arbeitspaketen. DLR-KN, mit dem Schwerpunkt auf Umweltwahrnehmung, Semantischer
Annotierung und Teleoperation konzentriert sich das auf die Lokalisation und die damit verbundenen intelligente GNSS Fusion und Berechnung.

Der Assoziierten Partner „WFP Incubator Munich“ unterstützt das Projekt mit der Spezifikation des Anwendungsscenarios und kann für das KI4HE Projekt insbesondere bei der späteren Verwertung eine große Rolle spielen.

Die folgenden Arbeitspakete werden bearbeitet:

  • Erweiterte Umweldmodellierung
  • Erweiterte Lokalisierung
  • KI-Basierte semantische Annotierung
  • Telerobotik mit haptischer Wiedergabe

Projekt MaiSHU

Das Projekt MaiSHU ist ein Förderprojekt des FuE-Programm „Informations- und Kommunikationstechnik“ des Freistaates Bayern und dem Projektträger VDI/VDE Innovation + Technik GmbH.

MaiSHU zielt darauf ab, innovative Technologien zu entwickeln, die eine assistierte Teleoperation von Fahrzeugen für die humanitäre Hilfe und Lieferung von Gütern in herausfordernden, unstrukturierten Umgebungen ermöglichen. Kern des Projekts ist die funktionale Integration einer robusten multimodalen Wahrnehmungsstrategie, ergänzt durch ein KI-gestütztes semantisches Umgebungsverständnis, und einer leistungsfähigen Mensch-Maschine-Schnittstelle, um dem Bediener die zuverlässige Fernsteuerung von Fahrzeugen zu ermöglichen. Basierend auf Satellitenbildern sowie Fahrzeug- und Wahrnehmungsdaten liefert ein globales Kontrollzentrum High-Level-Routenpläne, um die sichere Durchfahrbarkeit rauen Geländes zu gewährleisten. Die in diesem Projekt entwickelten Technologien ergänzen aktuelle Entwicklungen im Bereich des autonomen Fahrens auf Straßen und erlauben hohe Technologie-Reifegrade (TRL) für ihre zukünftige Kommerzialisierung für vielfältige Mobilitätsaufgaben in teil- bzw. unstrukturierten Außengeländen.

Die Forschungspartner DLR-RM und Blickfeld GmbH untersuchen gemeinsam die Nutzung von neuartigen Solid State Laser Systemen (LiDAR). Durch den Verzicht von beweglichen Teilen sind solche LiDARs kostengünstiger und auch robuster gegenüber Erschütterungen, weshalb sie für den skizzierten Einsatzbereich geeignet sind. Hierbei werden neben der Komplementarität des Lasersensors zu den bereits vorhandenen Kamerasystemen auch Aspekte wie die Modellierung, Kalibrierung, Registrierung und die Integration der Systeme in eine Simulationsumgebung untersucht, sowie die 360° Laserumweltwahrnehmung in Tests validiert.

Die Forschungspartner DLR-RM und SENSODRIVE GmbH untersuchen die Modalitäten einer erweiterten Mensch-Maschine-Schnittstelle, welche durch intelligente Algorithmen und Nutzung von „Konfidenz“-Informationen der gesamten verarbeiteten Sensorinformationen über haptische und visuelle Schnittstellen dem Tele-Operateur einen fließenden Übergang von direkter Fernsteuerung bis hin zu teilautonomen bzw. augmentierten Assistenzfunktionen bereitstellt. Die Erweiterung des Zugriffs auf die Gangschaltung bzw. die Schalterpanele des Fahrzeuges ermöglichen die Nutzung bei höheren Geschwindigkeiten.

Die Forschungspartner DLR-DFD, im Detail das ZKI (Zentrum für satellitengestützte Kriseninformation), und das WFP entwickeln Methoden zur Erweiterung der globalen Missionsplanung und der dreidimensionalen Lagedarstellung und -bewertung. Hierzu werden im globalen Kontrollzentrum (GMOC) hochauflösende Satellitenbilder sowie lokale Drohnen-Daten in einem 3D Lagebild dargestellt und zusammen mit weiteren gesammelten Geoinformationen in Form eines „Dashboards“ an das lokale Steuer- und Kontrollzentrum (LMOC) kommuniziert, um den Operateur zu unterstützen. Durch verschiedene Modalitäten der Daten wird bereits im Vorfeld die Konfidenz des geplanten Weges erhöht. Die Planung, Vorauswertung und Live-Bewertung werden durch intelligente Algorithmen, z.B. KI-basierte Hochwasserdetektion, sowie durch das operationelle Expertenwissen des WFPs kontinuierlich unterstützt. Eine dreidimensionale Aufbereitung aller verfügbaren Geodaten nach der Fahrzeugmission erlaubt eine detaillierte Beurteilung und Bewertung sowohl rückblickend betrachtet als auch zur Vorbereitung neuer Einsätze und zur Verbesserung der eingesetzten Methoden.

Die methodischen und technologischen Entwicklungen werden in kontinuierlichen Simulationen getestet und in einer gemeinsamen Demonstration evaluiert.

 

Die Arbeiten teilen sich auf folgende Arbeitspakete auf:

  • Simulation
  • Diversität für robuste Wahrnehmung und Navigation
  • Künstliche Intelligenz für gemeinsame Autonomie
  • Mensch-Maschine-Schnittstelle, Regelung und Visualisierung
  • Einsatzplanung, -betrieb und -auswertung mittels eines multimodalen 3D Lagebildes
  • Validation der entwickelten Arbeiten

© 2021 DLR