Verteidigung

Radarbildbasierte Navigation von Drohnen

Wesentlich für die Navigation von Aufklärungsdrohnen ist die Verlässlichkeit auf die vorhandenen Navigationssysteme. Wird das globale Satellitennavigationssystem gestört, so kann das inertiale Navigationssystem mithilfe einem Verfahren in Echtzeit prozessierter Radarbilder zur radarbildbasierten Navigation gestützt und die Genauigkeit verbessert werden.

MIRANDA-35 Radarsensor unter der Tragfläche des Ultraleichtflugzeugs DELPHIN montiert.
© Fraunhofer FHR

MIRANDA-35 Radarsensor unter der Tragfläche des Ultraleichtflugzeugs DELPHIN montiert.

Ausschnitt aus dem Quicklook-Radarbild eines Messflugesmit einer reduzierten Auflösung von ca. 2,7 Metern.
© Fraunhofer FHR

Ausschnitt aus dem Quicklook-Radarbild eines Messflugesmit einer reduzierten Auflösung von ca. 2,7 Metern.

Schematische Darstellung der verwendeten Offline-Datenverarbeitung.
© Fraunhofer FHR

Schematische Darstellung der verwendeten Offline-Datenverarbeitung.

Da in Krisengebieten häufig die globalen Satellitennavigationssysteme lokal gestört werden, können diese nicht zur Navigation benutzt werden. Die Navigation von Fluggeräten kann dann unter schlechten Sichtbedingungen nur noch anhand der Daten des inertialen Navigationssystems erfolgen. Dieses System besteht aus Laserkreiseln und Beschleunigungssensoren. Die Position wird aus der Integration dieser Sensorinformationen berechnet. Selbst wenn diese Systeme heute hochgenau arbeiten, so bleibt immer ein Restfehler, der sich mit der Zeit zu einer größeren Positionsabweichung aufsummiert.

Militärische Aufklärungsdrohnen verfügen häufig über ein allwettertaugliches, bildgebendes Radarsystem, das primär zur Aufklärung eingesetzt wird. Aufgrund der mittlerweile verfügbaren Rechenleistung können Radarbilder reduzierter Auflösung bereits an Bord der Drohne in Echtzeit prozessiert und mit digitalem Kartenmaterial verglichen werden. Werden markante Objekte wie beispielsweise Straßenkreuzungen, Flüsse oder Seen detektiert, so können sie mit dem Kartenmaterial zur Deckung gebracht und somit die genaue Position von Fixpunkten bestimmt werden. Sind mehrere dieser Fixpunkte vorhanden, so kann hieraus aufgrund der bekannten Geometrie aus Messentfernungen und Blickwinkeln auf die aktuelle Position der Drohne geschlossen werden.

Durch Kalman-Filterung der Navigationsdaten und der durch das Matching von Radarbildern mit dem Kartenmaterial erzeugten Stützstellen der Position kann das Navigationssystem der Drohne korrigiert und gestützt werden. Ein Weglaufen der Position über die Zeit wird somit verhindert.

Zwar kann durch dieses Verfahren die Genauigkeit der Satellitennavigationssysteme nicht erreicht werden, allerdings ist es mit Hilfe dieses Navigationsverfahrens möglich, eine Mission in einem Gebiet mit gestörtem Satellitennavigationssystem in hinreichender Präzision durchzuführen. Die Genauigkeit der Navigation ist hierbei abhängig von der Präzision der Echtzeit-Radarbilderzeugung sowie von der Anzahl, Lage und Positionsgenauigkeit der gefundenen Fixpunkte.

Grundlage für die radarbasierte Navigation ist ein bildgebender Radarsensor mit einer Auswertung in Echtzeit. Am Fraunhofer FHR wurde dazu das Radarsystem MIRANDA-35 verwendet. Es arbeitet bei einer Mittenfrequenz von 35 GHz und einer Bandbreite von bis zu 1500 MHz. Außerdem verfügt es über eine Datenübertragungsstrecke zur Bodenstation, über die das Radar gesteuert und die Bilder des Online-Prozessors übertragen werden.

Für die Erprobung des Verfahrens zur radarbildbasierten Navigation wurden zwei geeignete Datensätze über eine Flugstrecke von jeweils etwa 100 km nebst zugehörigen Navigationsrohdaten aufgezeichnet. Auf diesen Datensätzen erfolgte die weitere Verarbeitung zunächst offline, um die Verfahren und Routinen ausgiebig und wiederholbar testen zu können. Zuerst wurde dazu von der Firma IGI, dem Hersteller des Navigationssystems, das GPS-Signal aus den Navigationsrohdaten herausgerechnet. Somit wurde ein Navigationsdatensatz erzeugt, wie er bei einem Ausfall des Satellitennavigationssystems entstanden wäre. Damit standen für jeden  SAR-Datensatz zwei Navigationsdatensätze zur Verfügung, zum einen der originale Datensatz mit vorhandenem Satellitennavigationssystem, zum anderen der angepasste Datensatz ohne nutzbares GPS-Signal.

Nachfolgend wurden die angepassten Navigationsdatensätze zusammen mit dem Radarrohdatensatz wieder in den SAR-Prozessor eingespeist und prozessiert. Die erzeugten Radarbilder wurden an einen Rechner des Projektpartners Airbus übertragen, wo das Matching mit dem Kartenmaterial und anschließend die Positionsbestimmungen stattfanden. Die Ergebnisse dieser Positionsbestimmungen wurden zusammen mit den Daten der Navigationsanlage an einen Kalman-Filter übergeben, der die Navigationsdaten entsprechend korrigiert und die Korrekturwerte wiederum in den SAR-Prozessor einspeist.

Es konnte gezeigt werden, dass eine Stützung des bordeigenen Navigationssystems mithilfe von Radarbildern möglich ist. Obwohl die Genauigkeit eines Satellitennavigationssystems nicht erreicht werden kann, wird ein stetes weglaufen der Position wirkungsvoll verhindert. Die erzielbare Positionsgenauigkeit ist für den reibungslosen Missionsablauf mehr als ausreichend und kann über die komplette Missionsdauer gewährleistet werden.