(19)
(11)EP 2 392 890 B1

(12)EUROPÄISCHE PATENTSCHRIFT

(45)Hinweis auf die Patenterteilung:
26.06.2019  Patentblatt  2019/26

(21)Anmeldenummer: 11004429.4

(22)Anmeldetag:  31.05.2011
(51)Internationale Patentklassifikation (IPC): 
F41G 3/02(2006.01)
F41G 7/22(2006.01)
F41G 7/00(2006.01)

(54)

Verfahren zum Einweisen eines Flugkörpers auf ein Ziel

Method for directing a missile to a target

Procédé de guidage d'un corps volant vers une cible


(84)Benannte Vertragsstaaten:
AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

(30)Priorität: 04.06.2010 DE 102010022728

(43)Veröffentlichungstag der Anmeldung:
07.12.2011  Patentblatt  2011/49

(73)Patentinhaber: Diehl Defence GmbH & Co. KG
88662 ÜBERLINGEN (DE)

(72)Erfinder:
  • Groß, Michael, Dr.
    88682 Salem (DE)

(74)Vertreter: Diehl Patentabteilung 
c/o Diehl Stiftung & Co. KG Stephanstraße 49
90478 Nürnberg
90478 Nürnberg (DE)


(56)Entgegenhaltungen: : 
DE-A1- 3 734 758
US-A- 6 157 875
US-B2- 7 537 181
DE-A1- 19 828 644
US-A1- 2005 087 649
  
      
    Anmerkung: Innerhalb von neun Monaten nach der Bekanntmachung des Hinweises auf die Erteilung des europäischen Patents kann jedermann beim Europäischen Patentamt gegen das erteilte europäischen Patent Einspruch einlegen. Der Einspruch ist schriftlich einzureichen und zu begründen. Er gilt erst als eingelegt, wenn die Einspruchsgebühr entrichtet worden ist. (Art. 99(1) Europäisches Patentübereinkommen).


    Beschreibung


    [0001] Die Erfindung betrifft ein Verfahren zur Einweisung eines Flugkörpers auf ein Ziel, bei dem Zieldaten, anhand derer der Flugkörper auf das Ziel steuerbar ist, zusammengestellt und an den Flugkörper zur Ansteuerung auf das Ziel gegeben werden, wobei Aufklärungsdaten aus einem Aufklärungssensor durch ein Flugkörpereinweisungssystem zu Erfassungsunterstützungsdaten, die über die Zieldaten hinausgehende Informationen zur Erfassung des Ziels enthalten, verarbeitet und an den Flugkörper gegeben werden.

    [0002] Zur Bekämpfung von Bodenzielen werden die Koordinaten des Ziels oder andere das Ziel beschreibende Zieldaten, wie das Ziel optisch beschreibende Daten, zusammengestellt und an den Flugkörper, der das Ziel bekämpfen soll, übergeben. Anhand solcher Zieldaten erfasst der Flugkörper bzw. dessen Suchkopf das Ziel während des Anflugs auf das Ziel und ist hierdurch auf das Ziel eingewiesen.

    [0003] Die US 6 157 875 A beschreibt beispielsweise ein bildgeführtes Waffensystem: Nach Bestimmung eines Zielgebiets wird ein Bild des Zielgebiets generiert und ein Zielpunkt innerhalb des Zielgebiets ausgewählt und dessen GPS-Koordinaten bestimmt. Mittels Bildverarbeitungssoftware wird unter Verwendung von Flugrichtungsdaten, dem Bild des Zielgebiets und den GPS-Koordinaten des Ziels ein Referenzbild generiert, welches an die Waffe übergeben wird. Die vom Sucher der Waffe generierten Bilder werden mit dem Referenzbild verglichen und sobald eine ausreichende Korrelation vorliegt, werden die GPS-Koordinaten aktualisiert und die Waffe wird ins Ziel geführt.

    [0004] Aus der DE 37 34 758 A1 ist ein Panzerabwehr-Raketensystem bekannt. Um eine Eigengefährdung eines zur Sammlung von Aufklärungsdaten eingesetzten Hubschraubers zu reduzieren, begibt sich dieser nach Zielerfassung in Deckung. Die über die Sensorik bzw. seine Aufklärungssensoren gewonnenen Zieldaten als auch ein Zielreferenzbild werden an das Raketensystem übermittelt. Nach ihrem Abschuss folgt eine Rakete einem vordefinierten Flugprofil und aktiviert dann ihre Sensorik und identifiziert das Ziel durch Vergleich ihres Sensorbildes mit dem Zielreferenzbild.

    [0005] Es ist eine Aufgabe der vorliegenden Erfindung, ein Verfahren zum Einweisen eines Flugkörpers auf ein Ziel anzugeben, mit dem das Ziel, insbesondere bei widrigen Umständen, durch den Flugkörper zuverlässig erfasst werden kann.

    [0006] Diese Aufgabe wird durch ein Verfahren der eingangs genannten Art gelöst, wobei
    1. a) die Aufklärungsdaten Bildinformationen einer Umgebung des Ziels enthalten und die Sichtverhältnisse auf der Anflugroute des Flugkörpers auf das Ziel beinhalten und
    2. b) die Erfassungsunterstützungsdaten ein synthetisches Bild des Ziels aus Sicht des anfliegenden Flugkörpers enthalten und
    3. c) das synthetische Bild unter Berücksichtigung der Sichtverhältnisse erstellt wird.


    [0007] Die Erfindung geht von der Überlegung aus, dass bei einer Bekämpfung eines Ziels unter Verwendung von Zieldaten allein, wie Zielkoordinaten, unter Umständen Kollateralschäden nicht zuverlässig genug vermieden werden können. Durch eine Erfassung des Ziels als solches durch den Flugkörper während des Anflugs, z.B. eine optische Erfassung, kann ein Kollateralschadensrisiko verringert werden. Ist jedoch eine Erfassung des Ziels mit Schwierigkeiten verbunden, insbesondere wenn die Sicht auf das Ziel beeinträchtigt ist, kann es durch eine Erfassung falscher Ziele ebenfalls zu Kollateralschäden kommen.

    [0008] Die Erfassung des Ziels kann zuverlässiger gemacht werden, wenn dem Flugkörper zusätzlich zu den Zieldaten weitere Informationen mitgegeben werden, die eine Zielerfassung unterstützen. Solche Erfassungsunterstützungsdaten können beinhalten, auf welche Art und Weise das Ziel zum Zeitpunkt des Anflugs des Flugkörpers auf das Ziel erkannt werden kann, beispielsweise mit welcher Art Sensor, in welchem Spektrum und/oder anhand welcher optischer Merkmale. Die Erfassungsunterstützungsdaten können auch Information darüber beinhalten, wie gut das Ziel zu erkennen ist. Ist das Ziel beispielsweise wegen atmosphärischer Trübungen erst sehr spät zu erkennen, so kann einer Koordinaten gestützten Einweisung eine hohe Gewichtung gegeben werden, ohne dass das Ziel zunächst als solches erfasst wird. Auf diese Weise kann verhindert werden, dass bereits aus einer Entfernung, der in der das Ziel aufgrund schlechter Sichtverhältnisse noch nicht zu erkennen ist, mit Hilfe eines optischen Sensors das Ziel gesucht, nicht erfasst und anstelle dessen ein anderer und optisch markanterer Gegenstand erfasst und irrtümlicherweise für das Ziel gehalten wird, da das Prozessmittel des Flugkörpers davon ausgeht, dass das Ziel bereits erkannt werden kann. Somit kann der Flugkörper anhand der Erfassungsunterstützungsdaten zuverlässig auf das Ziel eingewiesen werden.

    [0009] Der Flugkörper kann ein Lenkflugkörper sein mit oder ohne eigenen Antrieb. Er umfasst zweckmäßigerweise einen Suchkopf mit einem Sensor zum Erfassen von Zieleigenschaften, beispielsweise einen optischen Sensor. Die Zieldaten sind Daten, anhand derer der Flugkörper auf das Ziel zu steuerbar ist. Sie können Zielkoordinaten sein, Koordinaten eines Zielgebiets und/oder das Ziel in so weit bestimmende Daten, so dass das Ziel als solches durch die Zieldaten erfasst werden kann. Der Flugkörper ist zweckmäßigerweise mit einer Prozesseinheit ausgestattet, die dazu vorbereitet ist, den Flugkörper anhand der Zieldaten in das Ziel zu steuern, insbesondere das Ziel anhand der Zieldaten zu erfassen. Die Erfassung kann auf optischem Wege erfolgen, sodass das Ziel als solches erkannt wird, wobei die Verwendung jeder geeigneten Frequenz, beispielsweise im Visuellen, im Infraroten oder im Radarbereich, möglich ist.

    [0010] Der Aufklärungssensor kann jeder geeignete Sensor sein. Zweckmäßigerweise ist er Teil eines Aufklärungsnetzwerks aus einer Vielzahl von insbesondere unterschiedlichen Aufklärungssensoren. Die Aufklärungsdaten sind zweckmäßigerweise Daten über das Ziel und/oder das Zielgebiet. Sie können durch das Flugkörpereinweisungssystem aus einer Datenbank abgerufen werden und beschreiben das Ziel bzw. das Zielgebiet zweckmäßigerweise zu einem vergangenen Zeitpunkt, sodass sie als Archiv-Informationen bezeichnet werden können. Die Aufklärungsdaten stehen zweckmäßigerweise einer Vielzahl von Abrufempfängern zur Verfügung, beispielsweise mehreren Flugkörpern oder Flugkörpereinweisungssystemen.

    [0011] Zumindest Teile des Flugkörpereinweisungssystems befinden sich zweckmäßigerweise außerhalb des Flugkörpers und sind vorteilhafterweise in Bezug auf ihren Ort unabhängig vom Flugkörper. Das gleiche gilt zweckmäßigerweise für den Aufklärungssensor. Das Flugkörpereinweisungssystem kann eine bodengebundene Prozesseinheit umfassen, die über eine Datenfernübertragung mit dem Flugkörper verbunden ist. Die Erfassungsunterstützungsdaten werden zweckmäßigerweise an den Flugkörper ausgegeben, bevor der Flugkörpersensor Kontakt mit dem Ziel hat.

    [0012] Die Verarbeitung der Aufklärungsdaten A zur Erfassungsunterstützungsdaten E kann mit Hilfe einer geeigneten Funktion F erfolgen, wobei gelten kann: E = F (A, W), wobei W weitere Informationen sein können, z. B. Flugkörperdaten, wie Art des Flugkörpers, seine Steuerfähigkeit, die Art des Suchkopfes, die Art des Gefechtskopfs, usw. Es ist möglich, dass W = 0 und/oder F = 1, sodass die Aufklärungsdaten direkt als Erfassungsunterstützungsdaten verwendet werden. Der Flugkörper kann in Abhängigkeit der Erfassungsunterstützungsdaten, also unter Verwendung der Erfassungsunterstützungsdaten, auf das Ziel gesteuert werden, sodass die Erfassungsunterstützungsdaten direkt oder indirekt als Steuerinformation zur Steuerung des Flugkörpers verwendet werden können. Vorteilhafterweise wird der Flugkörper unter Verwendung der Erfassungsunterstützungsdaten auf das Ziel gesteuert bevor der Flugkörper das Ziel erfasst.

    [0013] In einer vorteilhaften Ausführungsform der Erfindung enthalten die Aufklärungsdaten Informationen zu einer Erkennbarkeit des Ziels. Solche Informationen können Daten zu Sichtverhältnissen über dem Ziel sein, ein atmosphärischer Transmissionsgrad oder eine Sichtweite, zweckmäßigerweise in Abhängigkeit des verwendeten Sensors. Weiter können die Aufklärungsdaten Daten zu Objekten sein, die das Ziel verdecken, so dass das Ziel unter Umständen nicht erkennbar ist.

    [0014] Vorteilhafterweise enthalten die Erfassungsunterstützungsdaten Informationen über aktuelle Bedingungen einer Erfassung des Ziels. Solche Bedingungen können sein:
    • eine Erfassungsreichweite, aus der das Ziel in Abhängigkeit von den Aufklärungsdaten mit Bordmitteln des Flugkörpers noch erfassbar ist, und die insbesondere abhängig von der verwendeten Wellenlänge und/oder der Zielsignatur ist,
    • eine voraussichtliche Güte einer Erfassung in Abhängigkeit von den Aufklärungsdaten; die Güte kann ein Zuverlässigkeitsgrad für eine fehlerfreie Erfassung sein; sie ist zweckmäßigerweise abhängig von einer Erfassungsentfernung, z.B. der Erfassungsreichweite, und/oder
    • Daten zu einer Sichtbarkeit des Ziels in Abhängigkeit einer Anflugrichtung, einer Erfassungswellenlänge, insbesondere aus Sicht des anfliegenden Flugkörpers, einem Erfassungsverfahren und/oder einem Erfassungssensor.


    [0015] Eine weitere Ausführungsform der Erfindung sieht vor, dass die Aufklärungsdaten Informationen zu einem Umgebungsmerkmal in der Umgebung des Ziels enthalten. Hieraus wird als Erfassungsunterstützungsdaten vorteilhafterweise eine Beziehungsinformation, beispielsweise eine Relativposition des Ziels zum Umgebungsmerkmal, bestimmt. Die Aufklärungsinformation kann ein Gelände- und/oder Topografiemerkmal sein, das zweckmäßigerweise gut sichtbar ist, wie ein Turm, ein Mast, eine Halle, eine Kreuzung oder dergleichen. Auf diese Weise kann das Ziel auch dann angesteuert werden, wenn dessen Absolutposition unbekannt ist, so lange die Relativposition bekannt ist. Der Flugkörper kann zunächst unter Verwendung der Aufklärungsinformation, z.B. Koordinaten eines Turms, gesteuert und anschließend unter Verwendung der Erfassungsunterstützungsdaten, z.B. der Relativposition des Ziels zum Turm, in das Ziel geführt werden. Es ist auch möglich, zunächst die Aufklärungsinformation zu verwenden und danach die Erfassung des Ziels unter Verwendung der Erfassungsunterstützungsdaten durchzuführen. Diese Zielerkennung ist sehr zuverlässig, da der Flugkörper sehr nah an das Ziel herangeführt werden kann und dieses dann unter Verwendung der Erfassungsunterstützungsdaten gezielt suchen kann. Die Erfassungsunterstützungsdaten können eine Relativposition und/oder optische Daten, zweckmäßigerweise aus Sicht aus einer Nähe des Umgebungsmerkmals enthalten, sodass der Flugkörper zunächst auf das Umgebungsmerkmal und dann auf das Ziel zugeführt werden kann. Außerdem ist es möglich, den Zielbereich anhand der Aufklärungsinformation einzugrenzen, sodass die Gefahr einer Falschzielerkennung reduziert wird.

    [0016] Weiter wird vorgeschlagen, dass die Aufklärungsdaten Bildinformationen einer Umgebung des Ziels enthalten und die Erfassungsunterstützungsdaten ein Geländemodell einer Umgebung des Ziels. Durch das Geländemodell, das zweckmäßigerweise ein topografisches Modell oder ein Strahlungsmodell ist, in zwei oder drei Dimensionen, kann der Flugkörper Zusatzinformationen über die Art der Umgebung, zweckmäßigerweise relativ zum Ziel erhalten. Es kann eine Sichtbarkeit des Ziels in Abhängigkeit der umliegenden Topografie ermittelt werden. Ebenfalls ist es möglich, aus einem Strahlungsmodell zu erfassen, dass das Ziel zunächst durch einen anderen Gegenstand überblendet wird, sodass eine Zielerfassung erst dann möglich ist, wenn der Gegenstand von dem Ziel optisch trennbar ist.

    [0017] Entsprechend der Erfindung ist vorgesehen, dass die Aufklärungsdaten Bildinformationen einer Umgebung des Ziels enthalten und die Erfassungsunterstützungsdaten ein synthetisches Bild des Ziels und/oder einer Umgebung des Ziels. Bei der Berechnung des synthetischen Bilds wird zweckmäßigerweise ein Flugkörperparameter berücksichtigt, wie eine Anflugrichtung des Flugkörpers auf das Ziel oder das Zielgebiet, eine voraussichtliche Geschwindigkeit des Flugkörpers, atmosphärische Informationen, wie eine Umgebungshelligkeit, eine atmosphärische Transparenz und/oder dergleichen, wodurch ein besonders geeignetes Bild für die Erfassung des Ziels erreichbar ist.

    [0018] Erfindungsgemäß stellt das Bild das Ziel und/oder das Zielgebiet aus der Sicht des anfliegenden Flugkörpers dar. Weiter ist es vorteilhaft, wenn das synthetische Bild ein Bild auf das Ziel aus der Richtung und dem Abstand einer maximalen Erfassungsentfernung des Flugkörpers ist, wobei Umgebungs- und/oder Atmosphärenparameter berücksichtigt werden können. Das synthetische Bild wird erstellt und zweckmäßigerweise dem Flugkörper zur Verfügung gestellt bevor dieser das Ziel erfassen kann, insbesondere bevor das Ziel für den anfliegenden Flugkörper sichtbar ist. Auf diese Weise kann der Flugkörper, bzw. dessen Suchkopf, Detektionsparameter in Abhängigkeit von Eigenschaften des Bilds einstellen, bereits bevor das Ziel durch den Flugkörper erfasst wurde bzw. sichtbar ist. Erreicht der Flugkörper die maximale Erfassungsreichweite, so kann er bereits das synthetische Bild ausgewertet und die Detektionsparameter so eingestellt haben, dass er das Ziel schnell erkennt.

    [0019] Ebenfalls ist es möglich, mit Hilfe einer Bildkorrelation ein innerhalb der Erfassungsreichweite vom Flugkörper aufgenommenes Bild der Umgebung des Ziels mit dem synthetischen Bild zu korrelieren, sodass das Ziel, das im Bild anhand von Daten oder optischen Parametern hervorgehoben sein kann, schnell und zuverlässig erkannt wird.

    [0020] Gemäß der Erfindung beinhalten die Aufklärungsdaten Sichtverhältnisse auf der Anflugroute des Flugkörpers auf das Ziel. Hierbei wird das synthetische Bild unter Berücksichtigung der Sichtverhältnisse erstellt. Die Sicht kann eine sensorielle Erfassung des Ziels entsprechend der Empfindlichkeit eines Sensors des Flugkörpers sein.

    [0021] In einer weiteren vorteilhaften Ausgestaltung der Erfindung wird vorgeschlagen, dass die Aufklärungsdaten ein vor dem Anflug des Flugkörpers auf das Ziel erstelltes Vorabbild des Ziels enthalten und die Erfassungsunterstützungsdaten Informationen zu einer Beziehung des Vorabbilds mit dem Sichtbild des Ziels enthalten, das sich dem auf das Ziel anfliegenden Flugkörpers ein Flugkörper bietet. Das Vorabbild kann ein aufgenommenes Bild oder ein synthetisches Bild sein und dient zweckmäßigerweise als Referenzbild. Die Beziehung kann ein Vergleich sein und insbesondere Informationen darüber enthalten, wie das Vorabbild mit dem Sichtbild verglichen werden soll. Der Vergleich kann durch ein Bildkorrelationsverfahren erfolgen. Die Beziehung kann Informationen darüber enthalten, aus welcher Richtung auf das Ziel geschaut wird wenn der Flugkörper auf das Ziel zufliegt. Vorteilhafterweise wird das Vorabbild unter Berücksichtigung einer maximal möglichen Erfassungsentfernung erstellt, sodass das Vorabbild das Ziel und/oder eine Umgebung des Ziels aus einer Sicht zeigt, in der der Flugkörper das Ziel tatsächlich erfassen kann, z.B. der maximal möglichen Erfassungsentfernung.

    [0022] Die Zuverlässigkeit einer richtigen Zielerfassung kann weiter erhöht werden, wenn die Aufklärungsdaten Informationen zu einer Sicht auf das Ziel enthalten und die Erfassungsunterstützungsdaten Informationen darüber, welches unter mehreren möglichen Zielerfassungsverfahren des Flugkörpers das am Besten geeignete ist. So kann beispielsweise unter mehreren verschiedenen Sensoren des Flugkörpers zum Erfassen des Ziels ausgewählt werden und/oder ein Bildkorrelationsverfahren anhand eines Vorabbilds ausgewählt werden.

    [0023] Einer Erfassung eines falschen Ziels kann entgegengewirkt werden, wenn die Aufklärungsdaten Informationen zu einer Sicht auf das Ziel enthalten und die Erfassungsunterstützungsdaten Informationen darüber, ob der Flugkörper ausreichend gut über eigene Sensorik an das Ziel heranführbar ist oder ob er mit Hilfe eines anderen Verfahrens auf das Ziel hingeführt werden muss und zweckmäßigerweise bis wohin, sodass seine eigene Sensorik das Ziel erfassen kann. Auf diese Weise kann verhindert werden, dass der Flugkörper ein für ihn nicht erkennbares Ziel sucht und eine Operation abgebrochen werden muss oder er ein falsches Ziel auswählt. Wird entschieden, dass eine Fremdführung notwendig ist, beispielsweise mit Hilfe eines weiteren Flugkörpers, der sich in der Nähe oder über dem Ziel aufhält, kann entschieden werden, ab wann bzw. ab welcher Entfernung die Führung des Flugkörpers mit Hilfe eigener Sensorik erfolgen soll.

    [0024] Ebenfalls ist es vorteilhaft, wenn die Aufklärungsdaten mehrere Zielmerkmale aus optischen Informationen des Ziels enthalten und die Erfassungsunterstützungsdaten Informationen enthalten, welche der Zielmerkmale das aufgefasste Ziel aufweisen muss. Einer Verwechslung des Ziels mit einem ähnlichen Gegenstand kann so entgegengewirkt werden. Die optischen Informationen können Informationen zu einer Zielsignatur sein, beispielsweise einer Strahlung, die das Ziel aussendet, Information zu Strahlungsumrissen, beispielsweise vier Personen auf einem Pick-up, die als vier leuchtende Punkte in einem Infrarotbild erscheinen, ein Kontrast zwischen Umgebungsstrahlung und einem Fahrzeug mit einem bestimmten Lack und dergleichen. Die Informationen können aufgenommene oder mit Hilfe eines Modells ermittelte Zielinformationen sein. Mit Hilfe merkmalsbasierter Algorithmen und/oder Wahrscheinlichkeitsanalyse kann der Flugkörper das Ziel aus einer Menge verwechselbarer Gegenstände ermitteln.

    [0025] Die Erfindung ist außerdem gerichtet auf ein Flugkörpereinweisungssystem mit einem Prozessmittel, dass dazu vorbereitet ist, Zieldaten, anhand derer ein Flugkörper auf ein Ziel steuerbar ist, zusammenzustellen und an den Flugkörper zur Ansteuerung auf das Ziel zu übergeben, und Aufklärungsdaten aus einem Aufklärungssensor zu Erfassungsunterstützungsdaten, die über die Zieldaten hinausgehende Informationen zur Erfassung des Ziels enthalten, zu verarbeiten und an den Flugkörper zu übergeben und insbesondere den Flugkörper unter Verwendung der Erfassungsunterstützungsdaten auf das Ziel hin zu steuern. Entsprechend der Erfindung enthalten die Aufklärungsdaten Bildinformationen einer Umgebung des Ziels und beinhalten Sichtverhältnisse auf der Anflugroute des Flugkörpers auf das Ziel. Die Erfassungsunterstützungsdaten enthalten erfindungsgemäß ein synthetisches Bild des Ziels aus Sicht des anfliegenden Flugkörpers, wobei das synthetische Bild unter Berücksichtigung der Sichtverhältnisse erstellt wurde.

    [0026] Das Prozessmittel ist außerdem zweckmäßigerweise dazu vorbereitet, einen, mehrere oder alle der bisher genannten Verfahrensschritte durchzuführen.

    [0027] Vorteilhafterweise umfasst das Prozessmittel eine bodengebundene erste Prozesseinheit und eine zweite Prozesseinheit im Flugkörper, wobei die erste

    [0028] Prozesseinheit dazu vorbereitet ist, die Aufklärungsdaten zu Erfassungsunterstützungsdaten zu verarbeiten und die zweite Prozesseinheit dazu vorbereitet ist, den Flugkörper unter Verwendung der Erfassungsunterstützungsdaten auf das Ziel hin zu steuern. Die zweite Prozesseinheit kann Flugsteuerdaten und insbesondere Daten für eine Prozesseinheit eines Suchkopfs des Flugkörpers zum Erfassen des Ziels erzeugen.

    [0029] Weitere Vorteile ergeben sich aus der folgenden Zeichnungsbeschreibung, in der Ausführungsbeispiele der Erfindung dargestellt sind. Die Zeichnung und die Beschreibung enthalten zahlreiche Merkmale in Kombination, die der Fachmann zweckmäßigerweise auch einzeln betrachten und zu sinnvollen weiteren Kombinationen zusammenfassen wird.

    [0030] Es zeigen:
    Fig. 1
    Eine Landschaft mit einem Zielgebiet mit mehreren Objekten, von denen eines durch einen Flugkörper bekämpft werden soll und
    Fig. 2
    ein Ablaufdiagramm eines Verfahrens zum Einweisen eines Flugkörpers auf ein Ziel.


    [0031] Fig. 1 zeigt eine Landschaft mit Bergen 2 und zwei Tälern 4, 6 die durch einen Bergsattel 8 voneinander getrennt sind. Über dem Bergsattel 8 und dem zweiten Tal 6 hängt eine tief liegende Wolke 10, die die Sicht vom Bergsattel 8 oder von darüber auf ein Zielgebiet 12 verdeckt. In dem Zielgebiet 12 befindet sich ein Dorf 14 und mehrere zu bekämpfende Objekte 16, 18, 20 von denen eines als Ziel 20 ausgewählt wurde, das durch einen Flugkörper 22 bekämpft werden soll. Der Flugkörper 22 soll aus einer Trägerplattform 24 gestartet werden, die in diesem Ausführungsbeispiel eine bodengebundene Trägerplattform 24 ist. In alternativen Ausführungsbeispielen ist auch eine seegebundene oder fliegende Trägerplattform möglich.

    [0032] Der Flugkörper 22, der ein Lenkflugkörper mit einem eigenen Antrieb ist, soll aus dem ersten Tal 4 über den Bergsattel 8 in das Zielgebiet 12 fliegen und auf das Ziel 20 eingewiesen werden. Hierzu ist die Trägerplattform 24 signaltechnisch mit einem Flugkörpereinweisungssystem 26 verbunden, das eine bodengebundene Prozesseinheit in Form einer Datenverarbeitungsanlage in einem Gebäude umfasst, und das Teil eines Führungssystem oder Waffeneinsatzsystems sein kann. Das Flugkörpereinweisungssystem 26 ist wiederum datentechnisch mit dem Flugkörper 22 verbunden, sodass es ihm vor dem Start aus der Trägerplattform 24 und während des Anflugs auf das Ziel 20 Erfassungsunterstützungsdaten übermitteln kann. Ebenfalls mit dem Flugkörpereinweisungssystem 26 datentechnisch verbunden ist ein Aufklärungssensor 28 in einer Aufklärungseinheit, die im dargestellten Ausführungsbeispiel ein Flugzeug ist, das in der Nähe des Zielgebiets 12 fliegt.

    [0033] Vor dem Start des Flugkörpers 22 wird das Zielgebiet 12 durch die Aufklärungseinheit aufgeklärt und aus der Aufklärung resultierende Aufklärungsdaten werden an das Flugkörpereinweisungssystem 26 übermittelt. Die Aufklärungsdaten beinhalten in diesem Ausführungsbeispiel mehrere Luftaufnahmen des Zielgebiets 12 sowie Informationen über die Wolkendecke 10, deren Dicke und Lage, insbesondere von deren Unterkante.

    [0034] Mit Hilfe von Aufklärungsdaten oder anderen Daten wird das Ziel 20 ausgewählt. Außerdem werden die weiteren Objekte 16, 18, das Dorf 14 und insbesondere eine Landmarke 30 als solche identifiziert. Aus diesen Aufklärungsdaten werden Erfassungsunterstützungsdaten durch das Flugkörpereinweisungssystem 26 erarbeitet, die zur Einweisung des Flugkörpers 22 auf das Ziel verwendet werden. Die Erfassungsunterstützungsdaten können einige oder alle der im Folgenden beschriebenen Daten umfassen.

    [0035] Aus der Topografie der beiden Täler 4, 6 und dem dazwischen liegenden Bergsattel 8 und einem Hügel 32 vor dem Zielgebiet 12 wird eine Anflugroute 34 berechnet. Diese darf nicht zu flach sein, da der Flugkörper 22, bzw. dessen Suchkopf, das Ziel 20 erst nach Überfliegen des Hügels 32 optisch erfassen kann. Da die Strecke vom Hügel 32 bis zum Ziel 20 zu klein ist, um aufgrund einer Erfassung des beweglichen Ziels 20 seinen genauen Standort bestimmen zu können, muss der Flugkörper 22 so fliegen, dass ihm eine ausreichend große Zeitspanne zum Erfassen des richtigen Ziels 20 und zur Unterscheidung des Ziels 20 von den Objekten 16, 18 zur Verfügung steht. Also wird als Teil der Erfassungsunterstützungsdaten die Anflugroute 34 so bestimmt, dass sie von oben auf das Ziel 20 gerichtet ist, sodass das Ziel 20 ausreichend vor einem Erreichen als solches erkannt bzw. erfasst werden kann. Da die Anflugroute 34 ein wesentlicher Bestandteil einer zuverlässigen Erkennung bzw. Erfassung des Ziels 20 ist, gehört sie mit zu den Erfassungsunterstützungsdaten.

    [0036] Eine von oben auf das Ziel 20 gerichtete Anflugroute 34 bedingt, dass der Flugkörper 22 durch die Wolke 10 fliegen muss, in der ihm die Sicht auf das Ziel 20 versperrt ist. Es wird daher als weitere Erfassungsunterstützungsdaten festgelegt, wie lange der Flugkörper 22 auf seiner Anflugroute 34 mit Fremdinformationen gesteuert wird, beispielsweise mit Zielkoordinaten und/oder den Koordinaten der Anflugroute 34, und ab wann er seine eigene Sensorik zur Flugsteuerung bzw. Zielerfassung einsetzen kann. So wird als Erfassungsunterstützungsdaten festgelegt, dass der Flugkörper 22 erst dann mit Hilfe eigener Sensorik gesteuert wird, wenn er aus der Wolke 10 ausgetreten ist, also ihre Unterkante von oben durchtreten hat, wie in Fig. 1 angedeutet ist. Da die Anflugroute 34 und die Lage der Wolke 10 und deren Unterkante bekannt ist, ist auch der Austrittspunkt des Flugkörpers 22 aus der Wolke 10 bekannt. Somit wird ein Steuermoduswechselpunkt festgelegt, bei dem ein Steuermodus des Flugkörpers 22 von einem ersten Modus auf einen zweiten Modus umgeschaltet wird, in diesem Ausführungsbeispiel von einer Koordinatensteuerung auf eine Sichtsteuerung.

    [0037] Zum zuverlässigen Erfassen des Ziels 20 wird vom Flugkörpereinweisungssystem 26 ein synthetisches Bild des Zielgebiets 12 als Erfassungsunterstützungsdaten erstellt. Dieses synthetische Bild ist aus den Luftaufnahmen des Zielgebiets 12 des Aufklärungssensors 28 erstellt und wird dem Flugkörper 22 übermittelt, bevor dieser Sicht auf das Ziel 20 hat, also bevor dieser überhaupt in der Lage ist, das Ziel 20 zu erfassen. Zweckmäßigerweise wird das synthetische Bild dem Flugkörper 22 übergeben, bevor dieser von der Trägerplattform 24 startet. Das synthetische Bild des Zielgebiets 12 stellt das Zielgebiet 12 oder einen Teil davon aus Sicht des anfliegenden Flugkörpers an dem Ort dar, ab dem der Flugkörper 22 das Ziel 20 erstmals erfassen kann. Bei dem Ausführungsbeispiel aus Fig. 1 ist das der Punkt, an dem die Anflugroute 34 die Wolkendecke 10 nach unten durchtritt. Das synthetische Bild beinhaltet insbesondere die Landmarke 30 und das als solche gekennzeichnete Ziel 20 sowie die weiteren verwechslungsgefährdeten Objekte 16, 18 zur besseren Unterscheidung vom Ziel 20. Auch weitere Objekte, beispielsweise das Dorf 14 oder weitere Landschaftsmerkmale können in dem synthetischen Bild enthalten sein. Der Flugkörper 22 bzw. dessen Prozesseinheit kann ein aus dem Flugkörper 22 aufgenommenes Bild des Zielgebiets 12 mit dem synthetischen Bild vergleichen und beispielsweise auf diese Weise wichtige im synthetischen Bild markierte Objekte 16, 18, 20, 30 in einfacher Weise im aufgenommenen realen Bild wiederfinden und identifizieren.

    [0038] Weiter enthält die Erfassungsunterstützungsdaten Informationen zu einer Erfassungsgüte des Ziels 20. In dem vorliegend beschriebenen Ausführungsbeispiel beinhaltet diese Information, dass zum Zeitpunkt, bei dem der Flugkörper 22 erstmals freie Sicht auf das Ziel 20 hat, eine Erfassung des Ziels 20 mit Hilfe von optischen Sensoren des Flugkörpers 22 nur mit einer geringen Güte möglich ist, da das Ziel 20 relativ gut vor dem Hintergrund getarnt ist und eine Unterscheidung nur mit einer unzureichenden Zuverlässigkeit möglich ist. Daher erkennen die Erfassungsunterstützungsdaten weiter, dass die Flugsteuerung zwar visuell erfolgt, jedoch nicht auf das Ziel 20 orientiert, sondern auf einen anderen Punkt, beispielsweise die Landmarke 30. In einer optisch gesteuerten Flugphase orientiert sich die Flugsteuerung daher an diesem Punkt so lange, bis eine in den Erfassungsunterstützungsdaten angegebene Erfassungsgüte ausreichend hoch ist, beispielsweise über einen vorgegebenen Gütewert. Die Entfernung oder den Punkt auf der Anflugroute 34, ab dem die Erfassungsgüte ausreichend gut ist, ist ebenfalls in den Erfassungsunterstützungsdaten enthalten. Ab diesem Moment kann eine weitere und somit spätere Phase bzw. Modus der Flugsteuerung beginnen, ab der die visuelle Orientierung auf das Ziel 20 den Flug des Flugkörpers 22 steuert. Zur Unterstützung der ersteren Phase kann die Richtungs- und Entfernungsinformation zwischen Landmarke 30 und Ziel 20 als Näherung gegeben werden, damit der Flugkörper 22 das Ziel 20 möglichst direkt und nicht erst die Landmarke 30 und das Ziel 20 ansteuern muss.

    [0039] Die Erfassungsunterstützungsdaten können außerdem eine Anzahl von Merkmalen des Ziels 20, die das Ziel 20 charakterisieren, enthalten. Die Merkmale umfassen visuelle Merkmale, wobei hierunter auch nur im Infraroten oder einem anderen Spektralbereich erkennbare Merkmale verstanden werden können. Die Merkmale beinhalten unter anderem, dass das Ziel 20 aus Sicht des anfliegenden Flugkörpers 22 entlang der Anflugroute 34 eine Ausdehnung von etwa 3 m x 6 m hat, das Ziel eine von dunkelgrün bis ocker gescheckte Farbgestaltung hat und vor einem hellbraunen Hintergrund steht. Der Hintergrund ist aus der Sicht von oben der sandige bzw. lehmige Boden, auf dem das Ziel 20 steht.

    [0040] Zur Vermessung von einzelnen Gegenständen, wie den Häusern und Fahrzeugen, wird dem Flugkörper 22 ein Maßstab als Erfassungsunterstützungsdaten zur Verfügung gestellt. Der Maßstab kann in einem vom Flugkörper 22 leicht erkennbaren optischen Detail im Zielgebiet 12 bestehen, beispielsweise ein Haus, dessen Maße in den Erfassungsunterstützungsdaten angegeben sind. Durch Vergleich der Gegenstände mit dem optischen Detail kann der Flugkörper 22 die Maße der Gegenstände einfach ermitteln.

    [0041] Aus den visuellen Merkmalen kann der Flugkörper 22 das Ziel 20 von beispielsweise Häusern des Dorfs 14 unterscheiden. Nicht unterscheiden kann er das Ziel 20 von den Objekten 16, 18. Zur Unterscheidung des Ziels 20 von den gleich aussehenden Objekten 16, 18 vor dem gleichen Hintergrund umfassen die Erfassungsunterstützungsdaten Beziehungsinformationen zu zumindest einem Umgebungspunkt, in diesem Fall zweckmäßigerweise die Landmarke 30. Die Erfassungsunterstützungsdaten umfassen hierbei den Abstand 36 und die Richtung des Ziels 20 zur Landmarke 30, wobei die Richtung als geographische Richtung oder als eine Richtung zur einer weiteren Landmarke angegeben sein, sodass Triangulation möglich ist. Aus diesen Informationen kann der Flugkörper 22 das Ziel 20 von den beiden anderen Objekten 16, 18 unterscheiden, die in einer anderen Entfernung und Richtung zur Landmarke 30 stehen.

    [0042] Allerdings hält sich das Ziel 20 zum Zeitpunkt des Anflugs des Flugkörpers 22 in der Nähe eines Fahrzeugs 38 auf, das in der Aufklärung durch den Aufklärungssensor 28 nicht enthalten ist, da es erst kürzlich in das Zielgebiet 12 eingefahren ist. Zufälligerweise hält sich das Fahrzeug 38 in der Nähe des Ziels 20 auf, hat in etwa die gleichen Maße und durch Koffer auf dem Dach eine gleiche farbliche und scheckige Struktur. Auch die Infrarotsignatur ist in etwa gleich zum Ziel 20. Zur Unterscheidung des Ziels 20 vom Fahrzeug 38 enthalten die Erfassungsunterstützungsdaten die Information, dass das Ziel 20 vor einem hellbraunen Untergrund positioniert ist. Demgegenüber fährt das Fahrzeug 38 auf einer mittelgrauen Straße, sodass das Hintergrundmerkmal auf das Fahrzeug 38 nicht zutrifft. Um Kollateralschäden an zivilen Fahrzeugen unbedingt zu vermeiden, kann das Merkmal des Hintergrunds als bindendes Merkmal in den Erfassungsunterstützungsdaten hinterlegt sein, ohne das das Ziel 20 nicht als solches erfasst oder bekämpft werden darf. Da das Ziel 20 alle visuellen Merkmale erfüllt, ist es vom Fahrzeug 38 durch dieses visuelle Merkmal zu erkennen und somit als Ziel 20 zu identifizieren.

    [0043] Als weitere Erfassungsunterstützungsdaten kann eine Fahrtrichtung und Fahrtgeschwindigkeit des Ziels 20 dienen, sodass aus einem Aufklärungszeitpunkt und einem Zielerfassungszeitpunkt durch den Flugkörper 22 der Fahrtrichtung und Fahrtgeschwindigkeit ein momentaner Aufenthaltsort errechenbar ist, an dem sich das Ziel 20 unter Annahme der aufgeklärten Richtung und Geschwindigkeit positioniert sein müsste. Weiter können Toleranzinformationen Bestandteil der Erfassungsunterstützungsdaten sein, z.B. eine zulässige Positionsungenauigkeit, Farbungenauigkeit, Größenungenauigkeit, Strahlungssignaturungenauigkeit oder dergleichen.

    [0044] Als Erfassungsunterstützungsdaten ist außerdem ein Geländemodell als dreidimensionales Modell vorteilhaft, das dem Flugkörper 22 vor einem erstmals möglichen Erfassungszeitpunkt zur Verfügung gestellt wird. Aus diesem dreidimensionalen Geländemodell kann der Flugkörper 22 die Sicht auf das Zielgebiet 12 aus jeder Perspektive in ein zweidimensionales theoretisches Sichtbild wandeln, das eine Lokalisierung der interessierenden Objekte 16, 18, 20, 30 erleichtert, die zweckmäßigerweise in dem dreidimensionalen Geländemodell als solche markiert sind. Ebenfalls möglich ist es, dass das dreidimensionale Geländemodell vom Flugkörpereinweisungssystem 26 verwendet wird, um das synthetische und insbesondere zweidimensionale Bild zu erstellen, das dem Flugkörper 22 die Sicht auf das Zielgebiet von seiner Anflugroute 34 aus simuliert. Durch ein Vorabbild, beispielsweise das synthetische Bild und/oder das dreidimensionale Geländemodell, kann der Flugkörper 22 durch Bildkorrelation mit einem vom Flugkörper 22 aufgenommen Bild des Zielgebiets 12 interessierende Objekte 16, 18, 20, 30 einfach finden.

    [0045] Als Erfassungsunterstützungsdaten wird dem Flugkörper 22 ein Erfassungsverfahren unter mehreren möglichen Erfassungsverfahren mitgeteilt, mit dem er das Ziel 20 erfassen soll. Im vorliegend beschriebenen Ausführungsbeispiel wird in einer ersteren Flugphase ein visuelles und auf die Landmarke 30 gerichtetes Erfassungsverfahren vorgegeben. In einer späteren Flugphase wird ein Erfassungsverfahren vorgegeben, in dem das Ziel 20 mittels Infrarotsensor erfasst wird, um es von ähnlich aussehenden und das Ziel 20 umgebenden Felsbrocken unterscheiden zu können. Eine dritte und wiederum spätere Flugphase ist dadurch gekennzeichnet, dass das Erfassungsverfahren wiederum im sichtbaren Frequenzbereich erfolgt, um die visuellen Merkmale der Zielfarbe und der Hintergrundfarbe erfassen und prüfen zu können. Auf diese Weise umfassen die Erfassungsunterstützungsdaten mehrere Erkennungsverfahren, die hintereinander oder gleichzeitig eingesetzt werden und mit denen der Flugkörper 22 das Ziel 20 erfassen soll. Ebenfalls umfassen die Erfassungsunterstützungsdaten zumindest einen Ortspunkt, ab dem ein Erfassungsverfahren gewechselt werden soll.

    [0046] Fig. 2 zeigt ein Ablaufdiagramm eines Verfahrens zum Einweisen des Flugkörpers 22 auf das Ziel 20. Aus einer ersten Datenbank, die die Wissensbasis eines Führungssystems enthält, beispielsweise ein Einsatzlagebild, wird übergeordnete Lageinformation 40 abgerufen und einer Prozesseinheit 42 des Flugkörpereinweisungssystems 26 übergeben. Aus einer weiteren Datenbank, die alternativ ein Bestandteil der ersten Datenbank sein kann, werden Aufklärungsdaten 44 abgerufen, beispielsweise über das Einsatzgebiet, das darin enthaltene Zielgebiet 12 und/oder Merkmale des Ziels 20. Die übergeordnete Wissensbasis aus der Datenbank 40 kann hierbei ebenfalls Aufklärungsdaten beinhalten.

    [0047] Aus diesen oder anderen Informationen werden vom Flugkörpereinweisungssystem 26 oder einem anderen System Zieldaten 46 erzeugt, wie die Koordinaten des Zielgebiets 12 und ggf. des Ziels 20, die dem Flugkörper 22 vor oder nach einem Start aus der Trägerplattform 24 übermittelt werden. Anhand dieser Daten kann der Flugkörper 22 gestartet und in Richtung auf das Zielgebiet hin geführt werden.

    [0048] Aus den Aufklärungsdaten 44 werden von der Prozesseinheit 42 des Flugkörpereinweisungssystems 26 außerdem Erfassungsunterstützungsdaten 48 erzeugt. Diese können - je nach Daten - dem Flugkörper 22 auch noch nach seinem Start übergeben werden, da sie die erst später erfolgende Erfassung unterstützen. Zur Erzeugung der Erfassungsunterstützungsdaten 48 werden zusätzlich Flugkörperinformationen 50 über den Flugkörper 22 einbezogen werden. Diese Flugkörperinformation 50 enthält zweckmäßigerweise Information über die Art des Flugkörpers 22 und seine Sensoren, seine Prozesseinheit und deren Fähigkeiten, über den Suchkopf und dessen Optik, über den Gefechtskopf des Flugkörpers 22 und dessen Einsatzmöglichkeiten und dergleichen.

    [0049] Die hieraus abgeleitete Erfassungsunterstützungsdaten 48, die Zielmerkmale, ein Zielverhalten, eine Zielposition, einen Zielkontext, eine Lenkstrategie für den Flugkörper 22, und/oder Informationen zu Erfassungsbedingungen enthalten kann, werden einer weiteren Prozesseinheit 52 zugeführt, die Teil des Flugkörpers 22 ist. Die bodengebundene Prozesseinheit 42 und die Prozesseinheit 52 des Flugkörpers 22 bilden hierbei ein Prozessmittel des Flugkörpereinweisungssystems 26. Alternativ ist es auch möglich, dass die Aufklärungsdaten 44 an den Flugkörper 22 übergeben werden, und die Prozesseinheit 52 des Flugkörpers 22 hieraus Erfassungsunterstützungsdaten 48 ableitet, nach denen der Flugkörper 22 das Ziel 20 erfasst. Auch möglich ist es, dass Erfassungsunterstützungsdaten 48 direkt dem Flugkörper 22 übergeben werden zusammen mit Aufklärungsdaten, aus denen der Flugkörper 22 weitere Erfassungsunterstützungsdaten 48 erzeugt und die Zielerfassung und/oder Flugkörpersteuerung aus der Gesamtheit der Erfassungsunterstützungsdaten 48 erfolgt.

    [0050] Anhand der Erfassungsunterstützungsdaten 48 führt die Prozesseinheit 52 die Steuerung 54 des Flugkörpers 22 durch. Die Steuerung 54 kann die Steuerung von Aktuatoren zur Lenkung des Flugkörpers 22 umfassen, von Aktuatoren zum Steuern des Suchkopfs, von weiteren Aktuatoren zum Auslösen eines Gefechtskopfs, die Steuerung eines Auslösemodus des Gefechtskopfes und/oder die Wahl eines Erfassungsmodus zum Erfassen des Ziels 20 und weitere Steuerungsaktionen.

    Bezugszeichenliste



    [0051] 
    2
    Berg
    4
    Tal
    6
    Tal
    8
    Bergsattel
    10
    Wolke
    12
    Zielgebiet
    14
    Dorf
    16
    Objekt
    18
    Objekt
    20
    Ziel
    22
    Flugkörper
    24
    Trägerplattform
    26
    Flugkörpereinweisungssystem
    28
    Aufklärungssensor
    30
    Landmarke
    32
    Hügel
    34
    Anflugroute
    36
    Abstand
    38
    Fahrzeug
    40
    Lageinformationen
    42
    Prozesseinheit
    44
    Aufklärungsdaten
    46
    Zieldaten
    48
    Erfassungsunterstützungsdaten
    50
    Flugkörperinformationen
    52
    Prozesseinheit
    54
    Steuerung



    Ansprüche

    1. Verfahren zur Einweisung eines Flugkörpers (22) auf ein Ziel (20), bei dem Zieldaten (46), anhand derer der Flugkörper (22) auf das Ziel (20) steuerbar ist, zusammengestellt und an den Flugkörper (22) zur Ansteuerung auf das Ziel (20) gegeben werden, wobei Aufklärungsdaten (44) aus einem Aufklärungssensor (28) durch ein Flugkörpereinweisungssystem (26) zu Erfassungsunterstützungsdaten (48), die über die Zieldaten (46) hinausgehende Informationen zur Erfassung des Ziels (20) enthalten, verarbeitet und an den Flugkörper (22) gegeben werden, wobei

    a) die Aufklärungsdaten (44) Bildinformationen einer Umgebung des Ziels (20) enthalten und Sichtverhältnisse auf der Anflugroute (34) des Flugkörpers (22) auf das Ziel (20) beinhalten und

    b) die Erfassungsunterstützungsdaten (48) ein synthetisches Bild des Ziels (20) aus Sicht des anfliegenden Flugkörpers (22) enthalten und

    c) das synthetische Bild unter Berücksichtigung der Sichtverhältnisse erstellt wird.


     
    2. Verfahren nach Anspruch 1,
    wobei die Aufklärungsdaten (44) Informationen zu einer Erkennbarkeit des Ziels (20) enthalten und die Erfassungsunterstützungsdaten (48) Informationen über aktuelle Bedingungen einer Erfassung des Ziels (20) enthalten.
     
    3. Verfahren nach Anspruch 1 oder 2,
    wobei die Aufklärungsdaten (44) Informationen zu einem Umgebungsmerkmal (30) in der Umgebung des Ziels (20) enthalten und die Erfassungsunterstützungsdaten (48) eine Beziehungsinformation des Ziels (20) zum Umgebungsmerkmal (30) enthalten.
     
    4. Verfahren nach einem der vorhergehenden Ansprüche,
    wobei die Erfassungsunterstützungsdaten (48) ein Geländemodell einer Umgebung des Ziels (20) enthalten.
     
    5. Verfahren nach einem der vorhergehenden Ansprüche,
    wobei die Aufklärungsdaten (44) ein vor dem Anflug des Flugkörpers (20) auf das Ziel (20) erstelltes Vorabbild des Ziels (20) enthalten und die Erfassungsunterstützungsdaten (48) Informationen zu einer Beziehung des Vorabbilds mit einem Sichtbild des Ziels (20) enthalten, das sich dem auf das Ziel (20) anfliegenden Flugkörper (22) bietet.
     
    6. Verfahren nach einem der vorhergehenden Ansprüche,
    wobei die Aufklärungsdaten (44) Informationen zu einer Sicht auf das Ziel (20) enthalten und die Erfassungsunterstützungsdaten (48) Informationen darüber, welches unter mehreren möglichen Zielerfassungsverfahren des Flugkörpers (22) das am besten geeignete ist.
     
    7. Verfahren nach einem der vorhergehenden Ansprüche,
    wobei die Aufklärungsdaten (44) Informationen zu einer Sicht auf das Ziel (20) enthalten und die Erfassungsunterstützungsdaten (48) Informationen darüber, ob der Flugkörper (22) ausreichend gut über eigene Sensorik an das Ziel (20) heranführbar ist oder ob er mit Hilfe eines anderen Verfahrens in Richtung auf das Ziel (20) geführt werden muss.
     
    8. Verfahren nach einem der vorhergehenden Ansprüche,
    wobei die Aufklärungsdaten (44) mehrere Zielmerkmale aus optischen Informationen des Ziels (20) enthalten und die Erfassungsunterstützungsdaten (48) Informationen enthalten, welche der Zielmerkmale das aufgefasste Ziel (20) aufweisen muss.
     
    9. Flugkörpereinweisungssystem (26) mit einem Prozessmittel, das dazu vorbereitet ist,

    a) Zieldaten (46), anhand derer ein Flugkörper (22) auf ein Ziel (20) steuerbar ist, zusammenzustellen und an den Flugkörper (22) zur Ansteuerung auf das Ziel (20) zu übergeben, und

    b) Aufklärungsdaten (44) aus einem Aufklärungssensor (28) zu Erfassungsunterstützungsdaten (48), die über die Zieldaten (46) hinausgehende Informationen zur Erfassung des Ziels (20) enthalten, zu verarbeiten und an den Flugkörper (22) zu übergeben,
    wobei

    c) die Aufklärungsdaten (44) Bildinformationen einer Umgebung des Ziels (20) enthalten und Sichtverhältnissse auf der Anflugroute (34) des Flugkörpers (22) auf das Ziel (20) beinhalten,

    d) die Erfassungsunterstützungsdaten (48) ein synthetisches Bild des Ziels (20) aus Sicht des anfliegenden Flugkörpers enthalten und

    e) das synthetische Bild unter Berücksichtigung der Sichtverhältnisse erstellt wurde.


     
    10. Flugkörpereinweisungssystem nach Anspruch 9,
    wobei das Prozessmittel eine bodengebundene erste Prozesseinheit (42) und eine zweite Prozesseinheit (52) im Flugkörper (22) aufweist, wobei die erste Prozesseinheit (42) dazu vorbereitet ist, die Aufklärungsdaten (44) zu Erfassungsunterstützungsdaten (48) zu verarbeiten und zweite Prozesseinheit (52) dazu vorbereitet ist, den Flugkörper (22) unter Verwendung der Erfassungsunterstützungsdaten (48) auf das Ziel (20) hin zu steuern.
     


    Claims

    1. Method for guiding a missile (22) to a target (20), in which target data (46) on the basis of which the missile (22) is steerable to the target (20) are compiled and passed to the missile (22) for the purpose of heading for the target (20), wherein reconnaissance data (44) from a reconnaissance sensor (28) are processed by a missile guidance system (26) to produce detection assistance data (48), which contain information for detecting the target (20) beyond the target data (46), and are passed to the missile (22), wherein

    a) the reconnaissance data (44) contain image information of surroundings of the target (20) and include visibility on the approach route (34) of the missile (22) to the target (20), and

    b) the detection assistance data (48) contain a synthetic image of the target (20) from the point of view of the approaching missile (22), and

    c) the synthetic image is produced by taking into consideration the visibility.


     
    2. Method according to Claim 1,
    wherein the reconnaissance data (44) contain information concerning an identifiability of the target (20), and the detection assistance data (48) contain information about current conditions for detection of the target (20).
     
    3. Method according to Claim 1 or 2,
    wherein the reconnaissance data (44) contain information concerning a feature of the surroundings (30) in the surroundings of the target (20), and the detection assistance data (48) contain relationship information for the target (20) in relation to the feature of the surroundings (30).
     
    4. Method according to one of the preceding claims,
    wherein the detection assistance data (48) contain a terrain model of surroundings of the target (20).
     
    5. Method according to one of the preceding claims,
    wherein the reconnaissance data (44) contain a preimage of the target (20) produced prior to the approach of the missile (20) to the target (20), and the detection assistance data (48) contain information concerning a relationship of the preimage with a visual image of the target (20) that presents itself to the missile (22) approaching the target (20).
     
    6. Method according to one of the preceding claims,
    wherein the reconnaissance data (44) contain information concerning a view of the target (20), and the detection assistance data (48) contain information about which one among several possible target detection methods of the missile (22) is the best suited.
     
    7. Method according to one of the preceding claims,
    wherein the reconnaissance data (44) contain information concerning a view of the target (20), and the detection assistance data (48) contain information about whether the missile (22) is guidable to the target (20) sufficiently well by means of its own sensors or whether it needs to be guided in the direction of the target (20) using another method.
     
    8. Method according to one of the preceding claims,
    wherein the reconnaissance data (44) contain multiple target features from visual information of the target (20), and the detection assistance data (48) contain information regarding which of the target features the perceived target (20) must have.
     
    9. Missile guidance system (26) having a process means that is prepared

    a) to compile target data (46), on the basis of which a missile (22) is steerable to a target (20), and to hand over said target data to the missile (22) for the purpose of heading for the target (20), and

    b) to process reconnaissance data (44) from a reconnaissance sensor (28) to produce detection assistance data (48), which contain information for detecting the target (20) beyond the target data (46), and to hand them over to the missile (22),
    wherein

    c) the reconnaissance data (44) contain image information of surroundings of the target (20) and include visibility on the approach route (34) of the missile (22) to the target (20),

    d) the detection assistance data (48) contain a synthetic image of the target (20) from the point of view of the approaching missile, and

    e) the synthetic image was produced by taking into consideration the visibility.


     
    10. Missile guidance system according to Claim 9,
    wherein the process means has a ground-based first process unit (42) and a second process unit (52) in the missile (22), wherein the first process unit (42) is prepared to process the reconnaissance data (44) to produce detection assistance data (48), and the second process unit (52) is prepared to steer the missile (22) to the target (20) by using the detection assistance data (48).
     


    Revendications

    1. Procédé de pointage d'un missile (22) sur une cible (20), procédé dans lequel des données de cible (46), au moyen desquelles le missile (22) peut être guidé vers la cible (20), sont assemblées et transmises au missile (22) pour le guider vers la cible (20), des données de reconnaissance (44) en provenance d'un capteur de reconnaissance (28) étant traitées par un système de pointage de missile (26) pour obtenir des données d'aide à la détection (48) contenant des informations de détection de la cible (20) allant au-delà des données de cible (46) et étant transmises au missile (22),

    a) les données de reconnaissance (44) contenant des informations d'image d'un environnement de la cible (20) et comprenant des conditions de visibilité sur la route d'approche (34) du missile (22) sur la cible (20) et

    b) les données d'aide à la détection (48) comprenant une image de synthèse de la cible (20) telle que vue par le missile (22) en approche et

    c) l'image de synthèse étant créée avec prise en compte des conditions de visibilité.


     
    2. Procédé selon la revendication 1,
    les données de reconnaissance (44) comprenant des informations sur la capacité de reconnaissance de la cible (20) et les données d'aide à la détection (48) comprenant des informations sur les conditions actuelles de détection de la cible (20).
     
    3. Procédé selon la revendication 1 ou 2,
    les données de reconnaissance (44) comprenant des informations sur une caractéristique environnementale (30) dans l'environnement de la cible (20), et les données d'aide à la détection (48) comprenant une information relationnelle entre la cible (20) et la caractéristique environnementale (30).
     
    4. Procédé selon l'une des revendications précédentes,
    les données d'aide à la détection (48) comprenant un modèle de terrain d'un environnement de la cible (20).
     
    5. Procédé selon l'une des revendications précédentes,
    les données de reconnaissance (44) comprenant une pré-image de la cible (20) qui est réalisée avant l'approche du missile (20) vers la cible (20) et les données d'aide à la détection (48) comprenant des informations sur une relation de pré-image avec une image visuelle de la cible (20) qui s'offre au missile (22) approchant de la cible (20).
     
    6. Procédé selon l'une des revendications précédentes,
    les données de reconnaissance (44) comprenant des informations sur une vue de la cible (20), et les données d'aide à la détection (48) comprenant des informations sur lequel parmi une pluralité de procédés de détection de cible possibles du missile (22) est le plus approprié.
     
    7. Procédé selon l'une des revendications précédentes,
    les données de reconnaissance (44) comprenant des informations sur une vue de la cible (20) et des données d'aide à la détection (48) indiquant si le missile (22) présente une approche suffisamment bonne de la cible (20) par ses propres capteurs ou s'il doit être guidé vers la cible (20) à l'aide d'un autre procédé.
     
    8. Procédé selon l'une des revendications précédentes,
    les données de reconnaissance (44) contenant une pluralité de caractéristiques de cible constituées d'informations optiques de la cible (20), et les données d'aide à la détection (48) contenant des informations relatives aux caractéristiques de cible que la cible détectée (20) doit posséder.
     
    9. Système de pointage de missile (26) comprenant un agent de traitement préparé pour

    a) rassembler des données de cible (46) au moyen desquelles un missile (22) peut être guidé vers une cible (20) et les transmettre au missile (22) afin de le piloter vers la cible (20), et

    b) traiter des informations (44) en provenance d'un capteur de reconnaissance (28) pour obtenir des données d'aide à la détection (48) contenant des informations de détection de la cible (20) au-delà des données de cible (46) et pour les transférer au missile (22),

    c) les données de reconnaissance (44) contenant des informations d'image d'un environnement de la cible (20) et comprenant des conditions de visibilité sur la route d'approche (34) du missile (22) vers la cible (20),

    d) les données d'aide à la détection (48) comprenant une image de synthèse de la cible (20) telle que vue par le missile en approche, et

    e) l'image de synthèse ayant été créée avec prise en compte de conditions de visibilité.


     
    10. Système de pointage de missile selon la revendication 9,
    le moyen de traitement comprenant une première unité de traitement au sol (42) et une deuxième unité de traitement (52) dans le missile (22), la première unité de traitement (42) étant préparée pour traiter les données de reconnaissance (44) pour obtenir des données d'aide à la détection (48) et la deuxième unité de traitement (52) étant préparée pour guider le missile (22) vers la cible (20) à l'aide des données d'aide à la détection (48).
     




    Zeichnung











    Angeführte Verweise

    IN DER BESCHREIBUNG AUFGEFÜHRTE DOKUMENTE



    Diese Liste der vom Anmelder aufgeführten Dokumente wurde ausschließlich zur Information des Lesers aufgenommen und ist nicht Bestandteil des europäischen Patentdokumentes. Sie wurde mit größter Sorgfalt zusammengestellt; das EPA übernimmt jedoch keinerlei Haftung für etwaige Fehler oder Auslassungen.

    In der Beschreibung aufgeführte Patentdokumente