Gebiet der Erfindung
[0001] Die Erfindung betrifft ein System zur Bewegungskompensation zwischen zwei Objekten,
wobei zumindest eines der Objekte, wie beispielsweise ein Fahrzeug oder Wasserfahrzeug,
bewegbar ist. Des Weiteren betrifft die Erfindung ein Fahrzeug mit dem System und
eine feststehende Struktur mit dem System. Außerdem ist ein Verfahren für das System
vorgesehen.
Hintergrund der Erfindung
[0002] In der Offshore-Industrie, wie beispielsweise bei der Rohstoffförderung oder der
Windenergiegewinnung, fallen zahlreiche Operationen an Objekten an. Diese können beispielsweise
zwischen verschiedenen Schiffen oder Schiffen und feststehenden Strukturen oder Schiffen
und schwimmenden Strukturen anfallen. Als feststehende Struktur kann beispielsweise
eine Windenergieanlage oder eine feste Bohrplattform vorgesehen sein. Eine schwimmende
Struktur ist beispielsweise als schwimmende Bohrplattform oder als ein unter Wasser
an Seilen befindlicher Gegenstand ausgebildet. Bei den Operationen werden häufig Personen
und Güter von einem Objekt zum anderen transferiert. Hierzu ist es notwendig, dass
die Objekte miteinander verbunden werden, beispielsweise indem ein Schiff an eine
feste Bohrplattform andockt, wobei vorausgesetzt wird, dass weder Personen, noch Güter
verletzt oder beschädigt werden. Problematisch jedoch sind ungewollte und schwer oder
nicht vorhersagbare Bewegungen des Objekts oder der Objekte, beispielsweise aufgrund
der Wellenbewegung oder der Wetterbedingungen. Bei nicht optimalen Wetterbedingungen
steigt das Risiko, dass Personen oder Güter bei solchen Operationen verletzt oder
beschädigt werden, erheblich an. Um das Risiko zu senken oder zu vermeiden, werden
die Operationen üblicher Weise bei nicht optimalen Wetterbedingungen unterbrochen
oder verschoben. Wetterbedingte Verschiebungen oder Ausfälle führen zu erheblichen
finanziellen Einbußen. Somit besteht ein hohes Interesse an Systemen, die es erlauben,
auch Operationen unter schlechteren Bedingungen auszuführen.
Offenbarung der Erfindung
[0003] Demgegenüber liegt der Erfindung die Aufgabe zugrunde, ein System zu schaffen, mit
dem ein Objekt vorrichtungstechnisch einfach, kostengünstig und sicher an ein weiteres
Objekt andockbar ist. Des Weiteren liegt der Erfindung die Aufgabe zugrunde, ein Fahrzeug
zu schaffen, das vorrichtungstechnisch einfach, kostengünstig und sicher an ein Objekt
andockbar ist. Außerdem ist es die Aufgabe der Erfindung, eine feststehende Struktur
zu schaffen, an die vorrichtungstechnisch einfach, kostengünstig und sicher ein Objekt
andockbar ist. Des Weiteren ist es die Aufgabe der Erfindung, ein Verfahren zu schaffen,
um vorrichtungstechnisch einfach, kostengünstig und sicher ein Objekt an ein weiteres
Objekt anzudocken.
[0004] Die Aufgabe hinsichtlich des Systems wird gelöst gemäß den Merkmalen des Anspruchs
1, hinsichtlich des Fahrzeugs gemäß den Merkmalen des Anspruchs 10, hinsichtlich der
feststehenden Struktur gemäß den Merkmalen des Anspruchs 11 und hinsichtlich des Verfahrens
gemäß den Merkmalen des Anspruchs 12.
[0005] Vorteilhafte Weiterbildungen der Erfindung sind Gegenstand der Unteransprüche.
[0006] Erfindungsgemäß ist ein System, insbesondere zur Bewegungskompensation zwischen zwei
Objekten, vorgesehen. Das System dient dazu, einen Kontaktbereich des mit dem System
versehenen Objekts, insbesondere selbständig, an einen Zielbereich eines anderen Objekts
anzunähern und anschließend die Bereiche miteinander zu kontaktieren, wobei insbesondere
der Kontakt beibehalten werden soll. Alternativ können auch anschließend die Bereiche
in einer, insbesondere vorher bestimmbaren und festlegbaren, Relativposition zueinander
positioniert werden, beispielsweise auch mit einem Abstand. Vorzugsweise ist zumindest
eines der Objekte bewegbar, wobei es sich bei dem Objekt dann um ein Fahrzeug, insbesondere
um ein Wasserfahrzeug handeln kann. Das System hat des Weiteren vorzugsweise zumindest
einen Sensor, der bei dem mit dem System versehenen Objekt anordenbar ist. Dieses
Objekt kann ein Bauteil, beispielsweise eine Schiffsgangway, oder eine an einer Winde
befestigte Last, haben, das den Kontaktbereich aufweist. Der zumindest eine Sensor
ist bevorzugter Weise derart ausgestaltet, dass damit Sensorsignale oder Daten über
den Zielbereich des anderen, insbesondere des nicht diesen Sensor aufweisenden Objekts,
wie beispielsweise einer Bohrplattform, erfassbar sind. Des Weiteren kann zumindest
ein Aktor vorgesehen sein. Dieser kann dann das Bauteil und/oder das Objekt mit dem
Bauteil antreiben und bewegen, insbesondere um die Position des Kontaktbereichs zu
ändern. Hierdurch kann eine Bewegungskompensation zwischen den Bereichen erfolgen.
Alternativ oder zusätzlich kann hierdurch die Relativposition der Bereiche geändert
werden. Des Weiteren ist vorzugsweise eine Steuereinheit vorgesehen oder das System
ist mit einer Steuereinheit, beispielsweise über das Internet oder kabellos oder kabelgebunden,
verbunden. Die Steuereinheit ist vorzugsweise derart ausgestaltet, dass damit die
Informationen, insbesondere über einen geeigneten Algorithmus, bearbeitet werden,
um insbesondere Bewegungs- und/oder Positionsinformationen des Zielbereichs relativ
zum Kontaktbereich zu ermitteln. Der Aktor kann dann basierend auf dem von der Steuereinheit
bearbeiteten Informationen derart angesteuert sein, dass sich die Bereiche einander
annähern und sich anschließend kontaktieren oder anschließend die vorbestimmte Relativposition,
insbesondere einen Abstand oder relativen Winkel, beibehalten, und/oder dass die Bewegungskompensation
erfolgt. Weiterhin wäre es möglich, dass die Relativbewegung nicht vollständig kompensiert
wird, sondern nur soweit minimiert wird, dass die Operation sicher ausgeführt werden
kann. Zum Beispiel könnte bei bestehendem Kontakt geringe Winkeländerung zwischen
Gangway und anderem Schiff toleriert werden.
[0007] Mit anderen Worten kann eine Relativbewegung zwischen zwei Objekten, insbesondere
ständig, gemessen werden. Die Bewegungsinformation kann dann zur Kompensation der
Relativbewegung beim Andocken, beispielsweise einer Brücke oder eines anderen Elements
von dem einen an den anderen Körper genutzt werden, um die Zielposition zu treffen
und beizubehalten.
[0008] Diese Lösung hat den Vorteil, dass Operationen, beispielsweise zwischen zwei schwimmenden
Objekten oder Körpern, auch bei nicht optimalen Wetterbedingungen ausgeführt werden
können. Dies erfolgt vorzugsweise, indem die Relativbewegung beispielsweise zwischen
den Kontaktpunkten, beispielsweise zwischen einer Endseite einer Gangway und einer
Andockstelle, zwischen beiden Körpern bestimmt wird und dann kompensiert werden kann.
[0009] Vorteilhafter Weise kann das System nur auf einem der beiden Objekte oder Körper
installiert sein. Es sind dann keine Hilfsmittel oder Sensoren auf dem anderen Objekt,
beispielsweise auf dem anderen Schwimmkörper, nötig. Dies führt zu einer hohen Einsatz-Flexibilität,
da ein mit dem System ausgerüstetes Objekt beispielsweise an Objekte ohne entsprechende
Einrichtung andocken kann. Des Weiteren wird die Sicherheit bei Operationen zwischen
zwei Objekten, insbesondere zwischen zwei schwimmenden Körpern, erhöht. Eine manuelle
Kompensation der Relativbewegung im Stand der Technik ist praktisch nicht möglich,
so dass derzeit bei derartigen Operationen keine Kompensation stattfindet und immer
erhebliche Risiken in Kauf genommen werden müssen und Unfälle nicht ausgeschlossen
sind. Des Weiteren ist mit dem vorliegenden System eine schnelle Docking-Operation
durchführbar. Es ist mit dem erfindungsgemäßen System nicht notwendig, beispielsweise
für Operationen zwischen zwei schwimmenden Körpern, eine Relativbewegung zwischen
deren Kontaktstellen über eine Sensorik zu bestimmen, die auf beiden schwimmenden
Körpern vorgesehen ist. Es muss somit keine Sensorik auf beiden Körpern oder Objekten
installiert sein, die Daten austauschen. Bei dem vorliegenden erfindungsgemäßen System
ist es auch nicht notwendig, dass bei dem Objekt, dass keinen Sensor aufweist, Hilfsmittel
für den Sensor angebracht werden, wie beispielsweise Reflektoren für Laser, Radar
oder Marker für Kameras. Bei dem erfindungsgemäßen System ist somit vorteilhaft, dass
die Relativposition zwischen dem Zielbereich und dem Kontaktbereich ermittelbar ist.
Es wird somit nicht nur die Bewegung des Körpers bestimmt, auf dem das System installiert
ist. Würde nur die Bewegung dieses Körpers bestimmt werden, dann wäre nur eine absolute
Positionierung im Raum möglich, was insbesondere bei Operationen zwischen zwei bewegten
Objekten problematisch wäre.
[0010] Bei dem vorliegenden System kann somit eine relative Bewegung zwischen zwei Objekten,
beispielsweise zwischen zwei schwimmenden oder auch einem schwimmenden Objekt und
einem festen Objekt, ermittelt werden. Die Bestimmung der relativen Bewegung erfolgt
dabei nur von einem Objekt aus, womit bei dem anderen Objekt keine Hilfsmittel hierfür
notwendig sind. Es müssen somit am anderen Objekt keine Hilfsmittel angebracht werden
und es müssen keine Informationen vom anderen Objekt zum ersten Objekt kommuniziert
werden.
[0011] In weiterer Ausgestaltung der Erfindung werden Informationen in Form von Bewegungs-
und/oder Positionsinformationen über den Kontaktbereich des Bauteils des Objekts erfasst
und/oder festgelegt und/oder der Steuereinheit zu bestimmten Zeitpunkten oder Ereignissen
oder kontinuierlich gemeldet. Dies ist vorteilhaft, um die Relativposition zwischen
dem Kontaktbereich und dem Zielbereich einfach zu ermitteln.
[0012] Vorzugsweise kann ein Auswahl-Algorithmus vorgesehen sein. Dieser ist beispielsweise
derart ausgebildet, dass aus von dem zumindest einem Sensor erfassten Bereichen ein
Zielbereich über die Steuereinheit, insbesondere automatisch, auswählbar ist. Im Anschluss
kann dann der Zielbereich verfolgt werden. Nähert sich beispielsweise das Objekt mit
dem Kontaktbereich an das weitere Objekt an, so kann das Objekt mit dem Kontaktbereich
über den Auswahl-Algorithmus selbständig einen Zielbereich an dem anderen Objekt auswählen
und dann im Anschluss die benötigten Informationen erfassen, um die Bewegungskompensation
und/oder die Annäherung der Bereiche zu ermöglichen.
[0013] Bei einer weiteren bevorzugten Ausführungsform der Erfindung kann ein Eingabemittel
vorgesehen sein. Dieses ist vorzugsweise derart ausgestaltet, dass damit von dem zumindest
einen Sensor erfassten Bereichen ein Zielbereich manuell, insbesondere über einen
Bediener, auswählbar ist und vorzugsweise im Anschluss verfolgt werden kann. Somit
kann alternativ oder zusätzlich zur automatischen Auswahl auch eine manuelle Auswahl
des Zielbereichs vorgesehen sein. Ein derartiges Eingabemittel ist vorteilhaft, beispielsweise,
wenn sich ein Bediener des Objekts mit dem Kontaktbereich nicht auf eine reine automatische
Zielbereichsauswahl verlassen möchte. Ist beides möglich, also eine automatische oder
manuelle Zielauswahl, so kann der Bediener bei Bedarf, beispielsweise in schwierigen
Situationen, auf die manuelle Zielbereichsauswahl zurückgreifen.
[0014] In weiterer Ausgestaltung der Erfindung ist vorzugsweise ein Verfolgungs-Algorithmus
vorgesehen. Dieser kann derart ausgestaltet sein, dass über diesen anhand der von
dem zumindest einem Sensor erfassten Informationen der, insbesondere der ausgewählte,
Zielbereich verfolgt ist. Somit muss ein Bediener nach der Zielbereichsauswahl diesen
Zielbereich nicht manuell verfolgen, sondern die Verfolgung erfolgt vorteilhafter
Weise automatisch. Es ist denkbar, dass der ausgewählte Zielbereich markiert ist und
in einer Anzeige angezeigt werden kann.
[0015] Mit Vorteil ist ein Positionsbestimmungs-Algorithmus vorgesehen, der derart ausgestaltet
sein kann, dass über diesen Bewegungs- und/oder Positionsinformationen des, insbesondere
ausgewählten und/oder verfolgten, Zielbereichs ermittelt sind. Somit kann dann einfach
die Relativposition und -bewegung zum Kontaktbereich berechnet werden.
[0016] Vorzugsweise ist des Weiteren ein Kompensations-Algorithmus vorgesehen, der derart
ausgestaltet ist, dass die Bereiche, also der Zielbereich und der Kontaktbereich,
nach einer ungewollten Relativverschiebung oder -drehung, ausgehend von einer aktuellen
Relativposition, wieder in diese Relativposition zurückgeführt werden oder weiter
zueinander angenähert werden. Somit kann über den Kompensations-Algorithmus insbesondere
die Bewegungskompensation ausgeführt werden. Bei einer Bewegungskompensation würden
vorzugsweise der Kontaktbereich und Zielbereich in einer festen Relativ-Position zueinander
stehen, obwohl sich das Objekt, insbesondere wellenbedingt, bewegt.
[0017] Wie vorstehende bereits angeführt, kann vorgesehen sein, dass eine Ermittlung oder
Festlegung der Informationen in Form von Bewegungs- und/oder Positionsinformationen
des Kontaktbereichs erfolgt. Aus den Informationen über den Zielbereich und aus der
Information über den Kontaktbereich kann dann eine Relativbewegung und/oder eine Relativposition
ermittelt werden. Die Informationen des Kontaktbereichs können beispielsweise beim
Positionsbestimmungs-Algorithmus verwendet sein und gleichzeitig oder nach oder vor
der Ermittlung der Informationen für den Zielbereich erfasst werden.
[0018] In weiterer Ausgestaltung der Erfindung ist vorzugsweise eines der Objekte eine feststehende
Struktur und das andere Objekt bewegbar, insbesondere in Form eines Fahrzeugs. Denkbar
wäre auch, dass beide Objekte bewegbar sind. Bei dem Fahrzeug handelt es sich vorzugsweise
um ein Luftfahrzeug oder um ein wassergebundenes Fahrzeug oder um ein landgebundenes
Fahrzeug. Als feststehende Struktur ist beispielsweise eine Offshore-Windturbine oder
eine feste Bohrplattform vorgesehen. Als wassergebundenes Fahrzeug kann ein Schiff
eine schwimmende Plattform oder eine Boje vorgesehen sein. Das erfindungsgemäße System
ist dabei entweder auf der feststehenden Struktur oder auf dem bewegbaren Objekt angeordnet.
[0019] In weiterer Ausgestaltung der Erfindung ist das Bauteil eine über eine Winde und
einen Kranarm bewegbare oder schwebbare Last. Der Kontaktbereich ist vorzugsweise
hierbei eine unterseitige Auflagefläche der Last. Der Zielbereich kann eine Ablagefläche
für die Last am anderen Objekt sein. Alternativ ist denkbar, dass das Bauteil ein
Kranarm oder eine Zugangsbrücke oder -treppe oder eine Gangway eines Wasserfahrzeugs
ist. Der Kontaktbereich ist vorzugsweise dann eine Anlagefläche davon, die in Kontakt
mit dem anderen Objekt gebracht werden soll oder nahe an das Objekt herangeführt werden
soll.
[0020] Denkbar wäre auch, dass das Bauteil ein Bauteil der Winde ist, wie beispielsweise
ein Verbindungselement, wie beispielsweise ein Kranhaken für die Last. Ist die Bewegungskompensation
für die Winde vorgesehen, so kann beispielsweise die Hubbewegung des Fahrzeugs, insbesondere
des Wasserfahrzeugs, in der Endposition des Seils, wo sich beispielsweise der Kranhaken
befindet, kompensiert werden. Das heißt, der Kranhaken würde im Wesentlichen an einer
festen Position im Raum stehen, obwohl sich das Fahrzeug wellenbedingt bewegt.
[0021] Bei einer bewegungskompensierten Schiffsgangway könnte das Ende der Gangway über
die Bewegungskompensation des Systems bewegungskompensiert sein. Hierdurch kann das
Ende der Schiffsgangway trotz Schiffsbewegung an einer festen Position im Raum positioniert
werden, womit ermöglicht ist, dass es zum Zielbereich geführt werden kann, um beispielsweise
an einem Windrad anzudocken.
[0022] Vorzugsweise ist der zumindest eine Aktor oder sind eine Mehrzahl von Aktoren derart
ausgestaltet, dass der Kontaktbereich des Bauteils in eine, zwei oder drei translatorische
Richtung/en und/oder in eine, zwei oder drei rotatorische Richtung/en bewegbar ist.
Somit ist denkbar, dass ein Teil oder alle Bewegungen kompensiert werden können. Je
nach Anwendung wird dann eine bestimmte Anzahl oder Ausgestaltung des Aktors oder
der Aktoren eingesetzt, um den Kontaktbereich in gewünschte Richtungen zu bewegen.
Es hat sich gezeigt, dass beispielsweise bei einer Winde mit der am Seil befindlichen
Last gute Ergebnisse erzielbar sind, wenn nur translatorische relative Hubbewegungen
in vertikaler Richtung über die Bewegungskompensation des Systems kompensiert werden.
Die rotatorischen und die restlichen translatorischen Bewegungen können dann unberücksichtigt
bleiben, wobei die entsprechenden Bewegungen zwischen dem Kontaktbereich und dem Zielbereich
möglich sind und toleriert werden. Mit anderen Worten kann beispielsweise beim Bauteil
in Form der Last diese über den Aktor in Form der Winde in Schwerkraftrichtung bewegbar
sein, um eine Bewegungskompensation durchzuführen.
[0023] In weiterer Ausgestaltung der Erfindung kann das Bauteil des bewegbaren Objekts relativ
zu diesem mit dem zumindest einen oder einem weiteren Aktor bewegbar sein. In Abhängigkeit
der über den zumindest einen Sensor erfassten Informationen kann das Bauteil derart
über diesen zumindest einen Aktor relativ zu seinem Objekt bewegbar sein, dass sich
der Kontakt- und Zielbereich einander annähern und/oder dass die Bereiche einen vorbestimmten
Abstand oder einen Kontakt beibehalten und/oder dass eine Bewegungskompensation erfolgt.
[0024] In einer bevorzugten Ausführungsform der Erfindung ist der Sensor oder der Sensor
in Kombination mit dem Auswahl-Algorithmus vorzugsweise derart ausgestaltet, dass
- wie obenstehend bereits angeführt - beim Zielbereich keine Hilfsmittel notwendig
sind, um diesen zu erfassen. Somit sind keine Anpassungen beim Objekt mit dem Zielbereich
notwendig. Beispielsweise müssen beim Zielbereich keine Hilfsmittel oder zusätzliche
Sensorik verwendet werden, damit der Sensor den Zielbereich erfassen kann. Es sind
dann beispielsweise keine Motion Reference Units (MRU) oder festinstallierte Referenzmesspunkte
zur Positionsbestimmung erforderlich, wie beispielsweise Reflektoren für Radarsensoren
oder Laser. Somit ist es nicht notwendig, Referenzmesspunkte zu vermessen und aufwendig
an die Steuereinheit zu melden.
[0025] Als Sensor kann beispielsweise ein, insbesondere 3D, bildgebender Sensor vorgesehen
sein. Alternativ oder zusätzlich kann der Sensor oder ein weiterer Sensor als Kamera
ausgestaltet sein. Hier eignet sich beispielsweise eine Monochrom-Kamera oder eine
Farb-Kamera oder eine Stereo-Kamera oder eine Infrarot-Kamera oder eine Time-Off-Flight
(TOF) Kamera. Alternativ oder zusätzlich kann der Sensor oder ein weiterer Sensor
als Light-Detection-And-Ranging (LIDAR) Sensor ausgestaltet sein. Des Weiteren ist
denkbar, alternativ oder zusätzlich, als Sensor einen Radarsensor und/oder einen Ultraschallsensor
und/oder einen Intertialsensor Sensor, wie beispielsweise eine Motion-Reference-Unit
(MRU), vorzusehen. Bevorzugter Weise kann ein Messbereich des Sensors oder der Sensoren
über einen oder jeweils einen Verstellaktor verstellbar sein. Der Verstellaktor ist
beispielsweise durch die Steuereinheit oder den Bediener steuerbar. Über den Vestellaktor
ist der Sensor flexibel zum Zielbereich ausrichtbar. Dies kann beispielsweise automatisch
erfolgen und/oder es erfolgt eine Positionierung, insbesondere eine Grobpositionierung,
über den Bediener. Denkbar ist auch, dass bei einer Positionsveränderung zwischen
dem Zielbereich und dem Kontaktbereich der Sensor dem Zielbereich automatisch durch
entsprechende Ansteuerung des Verstellaktors folgt.
[0026] Der Sensor ist beispielsweise am bewegbaren Bauteil angebracht. Er kann beispielsweise
zusammen mit dem Bauteil und/oder unabhängig vom Bauteil über den Verstellaktor bewegt
werden. Eine Bewegung des Sensors zusammen mit dem Bauteil hat den Vorteil, dass bei
einer Bewegung des Bauteils mit seinem Kontaktbereich hin zum Zielbereich der Sensor
beispielsweise ebenfalls näher an den Zielbereich herangeführt werden kann. Bei Verwendung
von Sensoren auf dem Objekt ist es notwendig die Bewegung/Position der Kontaktstelle
des Bauteils aufwändig mithilfe der kinematischen Daten des Bauteils zu berechnen.
Diese Berechnung entfällt oder vereinfacht sich, je näher die Sensorik oder der Sensor
an dem Kontaktbereich angebracht ist.
[0027] Bei einem bevorzugten Ausführungsbeispiel ist am bewegbaren Bauteil, insbesondere
in Form eines Auslegers, der Sensor in Form eines LIDAR-Sensors befestigt. Insbesondere
ist der Sensor stirnseitig, also beispielsweise an einem Endabschnitt oder einer Spitze
des Auslegers, angeordnet und somit beispielsweise nahe am Kontaktbereich oder benachbart
zum Kontaktbereich. Außerdem ist der Sensor hierdurch vorteilhafterweise in einer
exponierten Position, was zu einem freien Messbereich führt.
[0028] Alternativ oder zusätzlich kann zumindest ein Sensor oder ein weiterer Sensor und/oder
ein Sensorpaar am Objekt mit dem Bauteil und somit vorzugsweise nicht am bewegbaren
Bauteil befestigt sein. Als Sensor ist hier beispielsweise eine Kamera, insbesondere
eine Pan-Tilt-Zoom (PTZ) Überwachungskamera vorgesehen. Ist ein Sensorpaar angeordnet,
so kann neben der Kamera ein damit, insbesondere mechanisch, verbundener LIDAR-Sensor
eingesetzt sein. Vorzugsweise ist die Anordnung des Sensors oder der Sensoren am Objekt
derart vorgesehen, dass in dieser Position der Zielbereich trotz Bewegung oder Wellenbewegung
des Objekts, stets im Messbereich vorgesehen ist. Dies wird insbesondere durch die
PTZ Überwachungskamera sichergestellt. Ist der LIDAR-Sensor mechanisch mit der Kamera
verbunden, so wird auch dieser entsprechend der Kamera mitbewegt, beispielsweise über
einen Verstellaktor, womit nur ein Verstellaktor notwendig ist. Hierdurch ist auch
dessen Messbereich den Anforderungen entsprechend erweitert. Der Sensor oder das Sensorpaar
sind beispielsweise an einer bewegbaren Plattform angeordnet, über die das Bauteil
um eine Hochachse des Fahrzeugs oder der Struktur bewegbar ist. Der Sensor oder das
Sensorpaar können dann beispielsweise zusammen mit der Plattform über einen Aktor
oder Verstellaktor bewegt werden.
[0029] Vorzugsweise ist neben dem Sensor oder dem Sensorpaar am Objekt ein weiterer Sensor
vorgesehen, der insbesondere zur automatischen Erfassung oder bei der automatischen
Auswahl des Zielbereichs vorgesehen ist. Der weitere Sensor ist beispielsweise an
der Plattform befestigt oder am Fahrzeug oder der Struktur, also vorzugsweise nicht
am Bauteil.
[0030] Der Sensor oder ein Teil der Sensoren oder alle Sensoren sind vorzugsweise intrinsisch
und/oder extrinsisch kalibriert. Bei der intrinsischen Kalibrierung erfolgt beispielsweise
eine Kalibrierung eines Sensors in Form einer Kamera zur zugeordneten Optik. Des Weiteren,
falls mehrere Sensoren vorgesehen sind, werden diese oder ein Teil von diesen vorzugsweise
gegeneinander kalibriert. Durch die Kalibrierungen kann eine Koordinatentransformation
zwischen Sensor-Koordinatensystemen ermöglicht sein, damit die Steuereinheit die gewünschten
Informationen einfach ermitteln kann. Beim, insbesondere gleichzeitigen, Einsatz mehrerer
bildgebender Sensoren, werden die einzelnen Bilder (Kameras)/Punktwolken (Lidar) im
Algorithmus an bestimmten Punkten zusammengeführt und/oder fusioniert. Gründe dafür
können u.a. gegenseitige Plausibilisierung, Schaffung von Redundanz für Sensorausfall
oder temporäre Okklusion oder Erhöhung der Stabilität der Algorithmen sein. Für eine
sinnvolle Zusammenführung sollte die Relativposition (3 Translationen, 3 Rotationen)
zwischen den Koordinatensystemen der bildgebenen Sensoren bekannt sein. Dies wird
durch die extrinsische Kalibrierung gewährleistet.
[0031] Bei einer bevorzugten Lösung kann ein Eingabemittel oder ein weiteres Eingabemittel
für den zumindest einen Aktor und/oder für den zumindest einen Verstellaktor vorgesehen
sein. Bei dem Eingabemittel handelt es sich beispielsweise um einen Joystick. Das
Eingabemittel kann derart ausgestaltet sein, dass damit über einen Bediener das den
Kontaktbereich aufweisende Bauteil und/oder der zumindest eine Sensor bezüglich des
Zielbereichs, insbesondere vorab, positionierbar ist. Somit ist auf einfache Weise
beispielsweise eine Grobpositionierung durch einen Bediener möglich, bevor eine automatische
Bewegungskompensation und/oder Annäherung der Bereiche erfolgt.
[0032] In weiterer Ausgestaltung der Erfindung ist denkbar, eine Anzeige oder ein Display
vorzusehen. Auf diesem können dann beispielsweise mögliche von dem zumindest einen
Sensor erfasste Zielbereiche dargestellt sein. Insbesondere kann ein von dem Sensor
von einer Kamera erfasstes Bild dargestellt werden. Über ein oder das Eingabemittel
kann der Bediener anhand der Anzeige einen Zielbereich auswählen. Des Weiteren ist
denkbar, dass über die Anzeige anhand der von dem zumindest einen Sensor erfassten
Informationen eine Position oder 3D-Position, des, insbesondere ausgewählten, Zielbereichs
dargestellt ist.
[0033] Erfindungsgemäß ist ein Fahrzeug mit dem System gemäß einem oder mehreren der vorhergehenden
Aspekte vorgesehen. Das Fahrzeug kann hierbei als Objekt mit dem Sensor eingesetzt
sein.
[0034] Erfindungsgemäß ist eine feststehende Struktur vorgesehen, an die ein Fahrzeug, insbesondere
ein Wasserfahrzeug, andockbar ist. Die Struktur kann dann das System gemäß einem oder
mehrerer der vorhergehenden Aspekte aufweisen. Die Struktur kann dann als Objekt mit
dem Sensor eingesetzt sein. Denkbar ist dabei, dass die Struktur das bewegbare Bauteil
hat.
[0035] Erfindungsgemäß ist ein Verfahren mit einem System gemäß einem oder mehreren der
vorhergehende Aspekte vorgesehen, das folgende Schritte aufweist:
- Erfassen von Sensorsignalen des zumindest einen Sensors,
- Auswahl des Zielbereichs anhand der erfassten Sensorsignale,
- Ermittlung der Informationen in Form von relativen Bewegungs- und/oder Positionsinformationen
zwischen dem ausgewählten Zielbereich und dem Kontaktbereich des Bauteils oder des
Objekts, insbesondere über den Positionsbestimmungs-Algorithmus,
- Ansteuerung des zumindest einen Aktors basierend auf den ermittelten Informationen
derart, dass sich der Kontaktbereich und der Zielbereich einander annähern und/oder
dass die Relativ-Bewegungskompensation oder die Bewegungskompensation, insbesondere
über den Kompensations-Algorithmus, erfolgt.
[0036] Diese Lösung hat den Vorteil, dass auf einfache Weise eine Bewegungskompensation
zwischen den Bereichen und/oder auf einfache Weise eine Annäherung der Bereiche ermöglicht
ist. Die Kompensation kann beispielsweise durch eine entsprechende Ansteuerung des
Kranarms, der Gangway oder der Winde erfolgen, mit deren Hilfe der Kontakt zum anderen
Objekt aufgebaut wird. Es sind somit Operationen zwischen beispielsweise zwei schwimmenden
oder auch einem schwimmenden und einem festen Körper auf einfache Weise ermöglicht.
[0037] In weiterer Ausgestaltung des Verfahrens können, beispielsweise nach der Ansteuerung
des Aktors zur Initiierung einer relativen Bewegung zwischen den Bereichen, folgende
Schritte folgen:
- Erfassen von Sensorsignalen des zumindest einen Sensors.
- Verfolgen oder Tracken oder Wiederfinden des gewählten Zielbereichs in den Sensorsignalen,
insbesondere anhand des Verfolgungs-Algorithmus, insbesondere über die Steuereinheit.
Somit muss vorteilhafter Weise nicht erneut manuell der Zielbereich ausgewählt werden.
- Ermittlung der Informationen in Form von Bewegungs- und/oder Positionsinformationen
des ausgewählten Zielbereichs anhand der Sensorsignale des zumindest einen Sensors,
insbesondere über den Positionsbestimmungs-Algorithmus.
- Ansteuerung des zumindest einen Aktors basierend auf den ermittelten Informationen
derart, dass sich der Kontaktbereich und der Zielbereich einander annähern und/oder
dass die Bewegungskompensation erfolgt. Diese Schritte können so oft wiederholt werden,
bis die Bereiche kontaktiert sind oder in einem vorbestimmten Abstand zueinander angeordnet
sind.
[0038] Bei der Verfolgung oder beim Wiederfinden des ausgewählten Zielbereichs wird mit
anderen Worten der Zielbereich mit einem geeigneten Algorithmus, insbesondere mit
dem Verfolgungs-Algorithmus, getrackt und die Positionsveränderung fortlaufend verfolgt.
Dies kann beispielsweise mit einer oder mehreren der folgenden Methoden ausgeführt
werden: Kalman-Filter, Partikelfilter, merkmalbasierte Methoden, regionenbasierte
Methoden, konturbasierte Methoden, modellbasierte Methoden.
[0039] Vorzugsweise werden Informationen oder Lageinformationen kontinuierlich der Steuereinheit
zur Regelung des zumindest einen Aktors, insbesondere für das bewegbare Bauteil, zugeführt,
um die Bewegungskompensation, insbesondere bei manueller Assistenzfunktion oder automatisierter
Kontaktherstellung, zu realisieren.
[0040] In weiterer Ausgestaltung des Verfahrens können bei der Ermittlung der Informationen
in Form der Bewegungs- und/oder Positionsinformationen des ausgewählten Zielbereichs,
insbesondere über den Positionsbestimmungs-Algorithmus, die Sensorsignale von einer
Mehrzahl von Sensoren eingesetzt sein. Dies ist vorzugsweise insbesondere dann der
Fall, wenn die Entfernung zwischen dem Zielbereich und dem Kontaktbereich einen bestimmten
Schwellenwert übersteigt und/oder die Sensorsignale eines Sensors zu ungenau sind.
Beispielsweise wird zunächst der Sensor oder das Sensorpaar am Objekt und nicht am
Bauteil eingesetzt, wobei es sich beispielsweise um die Kamera oder um die Kamera
und den LIDAR-Sensor handelt. Unter bestimmten Bedingungen kann dann bei Bedarf zusätzlich
der Sensor am Bauteil verwendet werden, bei dem es sich vorzugsweise um den LIDAR-Sensor
handelt.
In weiterer Ausgestaltung der Erfindung kann, falls die ermittelten Informationen
des ausgewählten Zielbereichs zu ungenau sind, vorgesehen sein, dass dem Bediener
dies, insbesondere in der Anzeige, mitgeteilt wird. Im Anschluss kann ein neuer Zielbereich
manuell oder automatisch ausgewählt werden. Es ist denkbar, dass der Bediener die
automatische Auswahl initiiert.
[0041] Vorzugsweise wird der Abstand zwischen dem Kontaktbereich und dem Zielbereich überwacht,
beispielsweise kontinuierlich oder beispielsweise nach einer jeweiligen Ansteuerung
des zumindest einen Aktors. Ab einem vorbestimmten Abstand oder bei Kontakt der Bereiche
kann dann das Verfahren beendet werden. Das heißt beispielsweise, wenn die relative
Entfernung der Bereiche einen vorher definierten Schwellwert unterschritten haben,
dann kann der Kontakt als hergestellt betrachtet werden. Die Steuerung kann dann beispielsweise
an eine allgemeine Bewegungskompensation des Fahrzeugs übergeben werden.
[0042] Vorzugsweise können der Kontaktbereich und der Zielbereich wahlweise manuell über
das Eingabemittel durch einen Bediener angenähert werden oder automatisch über die
Steuereinheit angenähert werden. Es ist beispielsweise denkbar, dass in unkritischen
und einfachen Situationen der Bediener manuell die Bereiche einander annähert oder
in die Annäherung bei Bedarf eingreift.
[0043] In weiterer Ausgestaltung der Erfindung kann die Auswahl des Zielbereichs am anderen
Objekt entweder manuell über den Bediener oder automatisch über die Steuereinheit
erfolgen. Bei der manuellen Auswahl kann der Bediener zunächst dafür sorgen, dass
der Zielbereich im Sichtbereich der Sensoren vorgesehen ist. Hierfür kann er zumindest
den einen Aktor und/oder den zumindest einen Verstellaktor ansteuern, um den zumindest
einen Sensor entsprechend auszurichten. Bei der manuellen Auswahl können dem Bediener
vorzugsweise die vom Sensor erfassten Sensorsignale, insbesondere bildhaft, dargestellt
sein. Dies kann beispielsweise in Form eines Kamerabilds und/oder in Form einer LIDAR-Punktewolke
und/oder in Form eines Radarbilds erfolgen. Anhand der dargestellten Informationen
kann der Bediener den Zielbereich auswählen, beispielsweise über das Eingabemittel.
Wie vorstehend bereits erläutert handelt es sich bei dem Eingabemittel um einen Joystick
oder denkbar wäre auch ein berührungsempfindliches Display (Touchscreen). Wie vorstehend
erläutert, kann dann nach der Auswahl des Zielbereichs basierend auf den Sensorsignalen
eine Ermittlung der Informationen bezüglich des ausgewählten Zielbereichs, insbesondere
über den Positionsbestimmungs-Algorithmus, erfolgen. Mit anderen Worten kann eine
3D-Lage des Zielbereichs anhand geeigneter Sensordaten bestimmt werden und vorzugsweise
dem Bediener angezeigt werden, insbesondere über die Anzeige. Beispielsweise kann
eine sogenannte Sensorfusion zwischen Stereo-Kamera-Daten und der LIDAR-Punktewolke
erfolgen.
[0044] Bei der automatischen Auswahl des Zielbereichs kann der Auswahl-Algorithmus eingesetzt
sein. Dieser ist vorzugsweise derart ausgestaltet, dass aus den Sensorsignalen oder
Sensordaten der Zielbereich ermittelbar ist. Als Sensor eignet sich vorzugsweise eine
Surround-View-Kamerasystem oder Sensoren mit einem großen Öffnungswinkel. Als Auswahl-Algorithmus
kann eine oder mehrere der folgenden Methoden eingesetzt sein: Iterative-Closest-Point
(ICP), RANSAC, Template-Matching, Segmentierungsmethoden wie Otsus, K-Means-Clustering,
Watershed, Grab-Cut-Algorithmus. Im Anschluss an die vollautomatische Auswahl des
Zielbereichs kann dann, wie vorstehend bereits erläutert, die Bestimmung der Informationen
in Form der Bewegungs- und/oder Positionsinformation des ausgewählten Zielbereichs,
insbesondere über den Positionsbestimmungs-Algorithmus, erfolgen, vorzugsweise relativ
zum Kontaktbereich. Mit anderen Worten kann die 3D-Lage des Zielbereichs anhand geeigneter
Sensordaten bestimmt werden und dem Bediener angezeigt werden.
[0045] Vorzugsweise können die vom Sensor oder von den Sensoren erfassten Daten auf der
Anzeige visuell oder bildhaft dargestellt sein. Der ausgewählte Zielbereich kann hierbei
beispielsweise markiert sein. Des Weiteren kann in der Anzeige, wie vorstehend bereits
angeführt, die aktuelle Position der 3D-Lage des Zielbereichs dargestellt sein.
[0046] Zur Positionsbestimmung des Zielbereichs, insbesondere über den Positionsbestimmungs-Algorithmus,
werden vorzugsweise die Informationen des Sensors am Objekt, also nicht des am Bauteil
befestigten Sensors, verwendet. Der Sensor ist hierbei vorzugsweise in Form der Kamera
ausgestaltet. Als Information kann ein Template-Kamerabild eingesetzt werden. Somit
kann vorgesehen sein, dass beim Positionsbestimmungs-Algorithmus die Sensorsignale
des Sensors in Form der Kamera eingesetzt sind. Mit dem Positionsbestimmungs-Algorithmus
der Kamera kann dann, insbesondere zum Zeitpunkt der Auswahl des Zielbereichs, ein
Template-Kamerabild für den Zielbereich erzeugt werden. Vorzugsweise kann beim Positionsbestimmungs-Algorithmus
zumindest folgender Schritt vorgesehen sein:
- Suche des Zielbereichs anhand eines Template-Bildes des Zielbereichs im aktuellen
Kamerabild. Es kann vorgesehen sein, dass beim Positionsbestimmungs-Algorithmus, beispielsweise
wenn die Entfernung zwischen dem Kontaktbereich und dem Zielbereich einen bestimmten
Wert überschreitet, die Sensordaten des Sensors am Bauteil, beispielsweise einem LIDAR-Sensor,
zusätzlich zur Positionsbestimmung des Zielbereichs eingesetzt werden können. Ist
der Zielbereich in den Sensorsignalen, insbesondere im Kamerabild, nicht oder nur
mit einer Genauigkeit ermittelbar, die unterhalb einer vorbestimmten Genauigkeitsgrenze
liegt, beispielsweise nur einen geringen Kontrast aufweist, kann beim Positionsbestimmungs-Algorithmus
vorgesehen sein, dass dies dem Bediener mitgeteilt wird und dieser einen neuen Zielbereich
auswählt. Alternativ wäre denkbar, dass automatisch ein neuer Zielbereich ausgewählt
wird, insbesondere, ohne dass dies dem Bediener mitgeteilt wird.
[0047] In weiterer Ausgestaltung der Erfindung kann vorgesehen sein, dass der Verfolgungs-Algorithmus
die Sensordaten zweier Sensoren nutzt, womit der Zielbereich vorteilhafter Weise sicher
verfolgt werden kann. Als Sensoren eignen sich beispielsweise der Sensor (Kamera)
oder das Sensorpaar am Objekt und nicht am Bauteil und der Sensor (LIDAR-Sensor) am
Bauteil. Mit dem Verfolgungs-Algorithmus kann vorzugsweise die Position des Zielbereichs
in den aktuellen Sensordaten über einen Filter, insbesondere über einen Kalman-Filter,
verfolgt werden. Über den Filter kann vorzugsweise basierend auf der aktuellen Position
des Zielbereichs die zukünftige Position berechnet oder geschätzt werden, oder es
kann über den Filter basierend auf der letzten bekannten Position die aktuelle Position
berechnet oder geschätzt werden.
[0048] Es ist offenbart, dass eine Relativbewegung zwischen zwei Objekten ständig gemessen
wird. Die Bewegungsinformation wird zur Kompensation der Bewegung beim Andocken einer
Brücke oder eines anderen Elements von dem einen an den anderen Körper genutzt, um
eine Zielposition zu treffen und beizubehalten.
Kurze Beschreibung der Zeichnungen
[0049] Bevorzugte Ausführungsbeispiele der Erfindung werden im Folgenden anhand schematischer
Zeichnungen näher erläutert. Es zeigen:
Fig. 1a bis 1d jeweils zwei Objekte, die jeweils als Fahrzeug oder Struktur ausgebildet
sind, gemäß einem jeweiligen Ausführungsbeispiel, wobei jeweils eines der Objekte
mit einem erfindungsgemäßen System ausgestattet ist,
Fig. 2 in einer schematischen Darstellung ein Wasserfahrzeug mit dem System gemäß
einem weiteren Ausführungsbeispiel und ein Wasserfahrzeug mit einem Zielbereich,
Fig. 3 in einer schematischen Darstellung ein Wasserfahrzeug mit dem System gemäß
einem weiteren Ausführungsbeispiel zusammen mit einem Wasserfahrzeug mit einem Zielbereich,
Fig. 4 in einem Ablaufdiagramm ein Verfahren mit dem System gemäß einem ersten Ausführungsbeispiel
und
Fig. 5 in einem Ablaufdiagramm ein Verfahren mit dem System gemäß einem zweiten Ausführungsbeispiel.
[0050] Fig. 1a zeigt ein Objekt in Form eines schwimmenden Körpers, bei dem es sich um ein
Wasserfahrzeug 1 handelt. Des Weiteren ist als Objekt eine feststehende Struktur 2
dargestellt, bei der es sich beispielsweise um eine Offshore-Windturbine oder feste
Bohrplattform handelt. Das Wasserfahrzeug 1 weist ein Bauteil in Form einer Gangway
4 auf. Diese soll dabei an einen Andockbereich 6 der Struktur 2 andocken. Die Gangway
4 ist dabei über einen nicht dargestellten Aktor verschwenkbar, so dass ein freistehender
stirnseitiger Endabschnitt 8 höhenverstellbar ist. Des Weiteren ist die Gangway 4
über einen Aktor um eine Hochachse des Wasserfahrzeugs 1 drehbar. Ein erfindungsgemäßes
System zur Bewegungskompensation und zur Annäherung des Endabschnitts 8 an den Andockbereich
6 ist beim Wasserfahrzeug 1 vorgesehen.
[0051] Gemäß Fig. 1b ist ebenfalls ein Objekt in Form eines Wasserfahrzeugs 10 gezeigt.
Des Weiteren ist ein Objekt in Form einer feststehenden Struktur 12 dargestellt. Im
Unterschied zur Fig. 1a weist nicht das Wasserfahrzeug 10, sondern die Struktur 12
die bewegbare Gangway 4 auf. Das Wasserfahrzeug 10 weist dabei den Andockbereich 6
auf. Das erfindungsgemäße System zur Bewegungskompensation und zur Annäherung der
Gangway 4 an den Andockbereich 6 ist dabei bei der Struktur 12 vorgesehen.
[0052] Gemäß Fig. 1c ist ein erstes Objekt in Form eines Wasserfahrzeugs 14 und ein zweites
Objekt in Form eines Wasserfahrzeugs 16 dargestellt. Das Wasserfahrzeug 14 weist einen
Kranarm 18 auf, der drehbar ist, damit sein freies Ende höhenverstellbar ist, und
der vorzugsweise um eine Hochachse des Wasserfahrzeugs 14 bewegbar ist. Der Kranarm
14 wirkt mit einer (nicht dargestellten) Winde für ein Seil 20 zusammen, an dessen
Ende eine Last 22 über einen Kranhaken befestigt ist. Die Last 22 soll dabei auf das
Wasserfahrzeug 16 abgeladen werden. Hierzu hat das Wasserfahrzeug 14 das System zur
Bewegungskompensation und zur Annäherung der Last 22 an das Wasserfahrzeug 16. Zumindest
ein (nicht dargestellter) Sensor kann hierbei beispielsweise am freien Endabschnitt,
also am vom Wasserfahrzeug 14 entfernten Endabschnitt, des Kranarms 18 vorgesehen
sein. Dieser kann einen Zielbereich am Wasserfahrzeug 16 erfassen. Ein Kontaktbereich
ist beispielsweise bei der Last 22 vorgesehen.
[0053] Fig. 1d zeigt neben dem Wasserfahrzeug 10 mit dem Andockbereich 6 das Wasserfahrzeug
1 mit der Gangway 4. Das Wasserfahrzeug 1 weist hierbei das System zur Bewegungskombination
und zur Annäherung der Gangway 4 an den Andockbereich 6 auf.
[0054] Gemäß den Figuren 1a bis 1d ist ersichtlich, dass das System zur Bewegungskompensation
bei Operationen zwischen einem Wasserfahrzeug und einer feststehenden Struktur oder
bei Operationen zwischen zwei Wasserfahrzeugen einsetzbar ist. Vorteilhafterweise
ist jeweils nur notwendig, dass jeweils eines der Objekte aus einer jeweiligen Figur
1a bis 1b das System aufweist, während beim entsprechend anderen Objekt keinerlei
Anpassungen für das System vorgenommen werden müssen. Das System wird also nur auf
einem der Objekte installiert und ermöglicht diesem dann die mechanische Kontaktaufnahme
zu einer Vielzahl anderer schwimmender oder feststehender Körper. Um Schäden bei oder
während der Kontaktherstellung zu vermeiden und um den Kontakt schadenfrei über einen
längeren Zeitraum aufrechterhalten zu können. Es können mit dem System beispielsweise
durch Wind und Wellen hervorgerufene Bewegungen der Wasserfahrzeuge 1, 10, 14, 16
berücksichtigt werden und bei der Kontaktherstellung des Kontaktbereichs mit dem Zielbereich
durch das System kompensiert werden. Dies erfolgt beispielsweise durch Verstellung
der Position der Gangway 4 oder des Kranarms 18 oder der Seillänge des Seils 20.
[0055] Mit dem System aus der jeweiligen Fig. 1a bis 1d wird eine Relativbewegung zwischen
den zwei Objekten, insbesondere zwischen dem Kontaktbereich und dem Zielbereich, ständig
gemessen. Die Bewegungsinformation wird dann zur Kompensation der Bewegung beim Andocken
der Gangway 4 oder Brücke oder eines anderen Elements von dem Einen an das andere
Objekt genutzt, um eine Zielposition zu treffen und beizubehalten.
[0056] Für das System kann ein voll-automatisches und/oder ein halb-automatisches Verfahren
vorgesehen sein. In Fig. 2 ist dabei eine Anordnung für das halb-automatische Verfahren
dargestellt und in Fig. 3 ist eine Anordnung für das voll-automatische Verfahren gezeigt.
[0057] In Fig. 2 ist das Wasserfahrzeug 1 mit der Gangway 4 oder Brücke dargestellt. Des
Weiteren ist ein Objekt in Form eines Wasserfahrzeugs 24 gezeigt, das einen Andockbereich
6 hat. Stirnseitig der Gangway 4, also an deren freien Ende, ist ein Sensor 26 in
Form eines LIDAR-Sensors angeordnet und befestigt. Des Weiteren ist ein Sensorpaar
28 vorgesehen, das nicht an der Gangway 4, sondern direkt am Wasserfahrzeug 1 befestigt
ist. Beispielsweise ist das Sensorpaar 28 an einer um eine Hochachse des Wasserfahrzeugs
1 drehbarer Plattform angeordnet, an der die Gangway 4 bewegbar gelagert ist. Das
Sensorpaar 28 weist eine Kamera, insbesondere in Form einer Pan-Tilt-Zoom (PTZ) Kamera,
und einen LIDAR-Sensor auf. Die Gangway hat endseitig einen Kontaktbereich 30, der
zum Andocken an das Wasserfahrzeug 24 in Kontakt mit einem Zielbereich 32 gebracht
werden soll. Eine Anordnung des Sensorpaars 28 am Wasserfahrzeug 1 erfolgt dabei vorzugsweise
derart, dass bis zu einer bestimmten Wellenbewegung oder bei jeglicher Wellenbewegung
der Zielbereich 32 erfassbar bleibt. Dies wird durch die PTZ-Kamera sichergestellt.
Denkbar wäre auch die Wellenbewegung oder sonstige Bewegungen mit einer Bewegungskompensation
für das Sensorpaar 28 zumindest teilweise auszugleichen. Das Sensorpaars 28 ist mechanisch
fest verbunden und kann beispielsweise über einen Verstellaktor gemeinsam bewegt werden.
Durch die mechanische Verbindung ist beispielsweise der LIDAR-Sensor mit der Kamera
verbunden und sein Sichtfeld ist hierdurch entsprechend den Anforderungen erweitert.
[0058] Die Sensoren 26, 28 sind intrinsisch, extrinsisch und gegeneinander kalibriert. Hierdurch
kann eine Koordinatentransformation zwischen den Sensor-Koordinatensystemen ermöglicht
werden, wobei K
B1 das Koordinaten-System des ersten Sensors des Sensorpaars 28 ist, K
B2 das Koordinaten-System des zweiten Sensors des Sensorpaars 28 ist und K
A das Koordinaten-System des Sensors 26 ist. Die Koordinatentransformation kann mit
folgenden üblichen Formeln erfolgen:

wobei T eine Transformationsmatrix ist. Bei der üblichen Verwendung homogener Koordinaten
ist die Transformationsmatrix T eine 4x4 Matrix mit einer Subrotationsmatrix R, die
die Rotation zwischen den Koordinatensystemen beschreibt, und der Subtranslationsmatrix
t, die die Translation zwischen den Koordinatensystemen beschreibt.
Mit Hilfe der Transformationssmatrix

kann beispielsweise die Darstellung eines Vektors bezüglich des Koordinatensystems
K
B1 in eine Darstellung bezüglich des Koordinatenystems K
B2 überführt werden:

[0059] Mit Aktoren 34, die in Fig. 2 schematisch mit einem Block dargestellt sind, kann
die Gangway 4 gedreht werden, so dass die Höhe des Kontaktbereichs 30 veränderbar
ist und um eine Hochachse 36 des Wasserfahrzeugs 1 drehbar ist. Die Aktoren 34 sind
über eine Steuereinheit 37 steuerbar.
[0060] Anhand der Fig. 4 wird das Verfahren für das System aus Fig. 2 erläutert, um die
Bereiche 30 und 32 bis zum Kontakt einander anzunähern und eine Bewegungskompensation
einer Relativbewegung dieser Bereiche 30, 32 durchzuführen. Im Schritt 36 sorgt ein
Bediener dafür, dass der Zielbereich 32 aus Fig. 2 sich im Sichtbereich der Sensoren
26 und 28 befindet. Dies kann dadurch erfolgen, dass über die Aktoren 34 das Sensorpaar
26 zusammen mit der Gangway 4 bewegt wird, beispielsweise über die Plattform, und/oder
das Wasserfahrzeug 1 durch seinen Antrieb bewegt wird und/oder dass für das Sensorpaar
28 und/oder für den Sensor 26 ein Verstellaktor oder jeweils ein Verstellaktor vorgesehen
ist, über den/die diese/r bewegbar ist/sind. Eine manuelle Eingabe der Positionsänderung
für die Sensoren 26, 28 erfolgt beispielsweise mit Hilfe eines Joysticks und/oder
einer Tastaturkonsole und/oder eines Touchscreens.
[0061] Im Schritt 38 werden die Sensorsignale oder Sensordaten der Sensoren 26, 28 erfasst.
Die Sensordaten der PTZ-Kamera des Sensorpaars 28 werden als Kamerabild
IBermittelt. Die Sensordaten des LIDAR-Sensors des Sensorpaars 28 werden mit einer LIDAR-Daten-Signatur
DB erfasst. Des Weiteren werden die Sensordaten des LIDAR-Sensors (Sensor 26) mit einer
LIDAR-Daten-Signatur
DA erfasst.
[0062] Im Schritt 40 erfolgt die Visualisierung am Bildschirm. Hierbei werden dem Bediener
die Sensorsignale der Szene bildhaft dargestellt. Dazu wird das Bild der PTZ-Kamera
des Sensorpaars 28 mit den LIDAR-Punktewolken der LIDAR-Sensoren (Sensorpaar 28 und
26) überlagert auf einem Display oder Monitor dargestellt.
[0063] Im Schritt 42 wählt dann der Bediener anhand der auf dem Monitor dargestellten Sensorsignale
IB,
DB und
DA einen Zielbereich aus, wobei es sich beispielsweise bei dem Monitor um einen Touchscreen
handelt. Nach der Auswahl des Zielbereichs werden dann in diesem Schritt 42 zu dem
Zielbereich ein Template-Kamerabild

der PTZ-Kamera (Sensorpaar 28) und LIDAR-Daten-Signaturen

und

der LIDAR-Sensoren (Sensorpaar 28 und Sensor 26) erzeugt, die den Zielbereich charakterisieren.
Der ausgewählte Zielbereich wird dann im Monitor mit einer Markierung, beispielsweise
einer Bounding-Box, markiert.
[0064] Im nächsten Schritt 44 erfolgt, dann mit dem Positionsbestimmungs-Algorithmus die
Bestimmung der Informationen in Form von Bewegungs- und Positionsinformationen des
Zielbereichs 32 relativ zum Kontaktbereich 30. Mit anderen Worten wird eine 3D-Lage
des Zielbereichs anhand der Sensorsignale oder Sensordaten der Sensoren 26 und 28
bestimmt und dem Bediener angezeigt. Zunächst erfolgt die Bestimmung der 3D-Lage anhand
der PTZ-Kamera des Sensorpaars 28. Es erfolgt ein sogenanntes Template-Matching, das
eine laterale Position des Zielbereichs im erfassten Bild
IB detektiert, wobei folgende Formel verwendet wird:

[0065] Das Template-Bild ist in der Regel kleiner als das aktuelle Kamerabild. Beim Template-Matching
wird als Moving-Window an jeder möglichen Position über das Kamerabild gelegt und
die Korrelation berechnet.
u' und
ν' sind hierbei die beiden Pixelkoordinaten der erfassten Bilder.
u und
ν bezeichnen die a priori unbekannten (lateralen) Verschiebungen in den beiden Pixelkoordinaten
zwischen Bildausschnitt und Template-Bild. Ziel ist es nun, Werte für u und v zu bestimmen,
so dass sich eine möglichst große Übereinstimmung zwischen Bildausschnitt und Template-Bild
ergibt. Der Grad der Übereinstimmung wird mathematisch durch die Korrelation ausgedrückt,
die durch geeignete Wahl von u und v zu maximieren ist. Die Werte von u und v, die
die Korrelation maximieren werden u
0 und v
0 genannt. Sie geben an, wo sich das Template-Bild bzw. der Zielbereich im Kamerabild
befinden oder anders ausgedrückt, sie beschreiben die Position
r0 des Zielbereichs im Kamerabild. Die Position
r0 ergibt sich also wie folgt:

u
0 und v
0 sind also die Werte für u und v in obiger Formel für R, für die die Korrelation R
maximal wird.
[0066] Aus einer Koordinatentransformation kann dann die zum Zielbereich zugeordnete Bildpunktmenge

:

in 3D ausgedrückt werden:

Anschließend kann die 3D-Lage des Zielbereichs mit Hilfe des Random Sample Consensus
(RANSAC) oder durch ein Iterative-Closest-Point (ICP) Algorithmus bestimmt werden.
Falls eine relative Entfernung zwischen dem Kontaktbereich 30 und dem Zielbereich
32 über einem bestimmten Schwellenwert liegt, werden vorzugsweise die Daten
DA des Sensors 26 zur genaueren Lagebestimmung zusätzlich verwendet. Falls der ausgewählte
Zielbereich in den erfassten Sensorsignalen nur einen geringen Kontrast aufweist,
so dass die Genauigkeit der Positionsbestimmung nur ungenau erfolgen kann, dann wird
dem Bediener die unzuverlässige Messung signalisiert, und er kann eine neue Stelle
markieren, was durch den Pfeil 46 in Fig. 4 gezeigt ist, womit im Anschluss wieder
der Schritt 44 ausgeführt wird.
[0067] Nach dem Schritt 44, d. h., wenn die Bewegungs- und Positionsinformationen des ausgewählten
Zielbereichs über den Positionsbestimmungs-Algorithmus mit einer ausreichenden Genauigkeit
ermittelt worden sind, folgt Schritt 48. Hierbei werden die Bewegungs- und/oder Positionsinformationen
fortwährend der Steuereinheit 37 zugeführt, die entsprechend die Aktoren 34 ansteuert.
Diese werden dabei derart angesteuert, dass der Kontaktbereich 30 in Richtung des
Zielbereichs 32 bewegt wird. Hierbei wird eine vorher definierte Strecke zurückgelegt
und im Anschluss eine erneute Aufnahme der Sensorsignale der Sensoren 26 und 28 getriggert,
was durch den Schritt 50 gezeigt ist. In Schritt 50 ist somit vorgesehen, dass die
Sensoren 26 und 28 die Sensorsignale
IB,
DB und
DA aufnehmen.
[0068] Im anschließenden Schritt 52 erfolgt ein Verfolgen oder Wiederfinden des ausgewählten
Zielbereichs 32 in den Sensorsignalen
IB,
DB und
DA anhand eines Verfolgungs-Algorithmus über die Steuereinheit 37. Dies erfolgt vorzugsweise
mit einem Recursive-Least-Square (RLS) Algorithmus. Dieser ist ein Satz von mathematischen
Gleichungen, der eine rechnerisch effiziente, insbesondere rekursive, Abschätzung
des Zustands eines Prozesses darstellen. Hierbei wird der mittlere quadratische Fehler
minimiert. Die aktuelle gemessene Position
rt zum Zeitpunkt
t dient als Eingangswert zur Schätzung der zukünftigen Position
rt+1 verwendet. Bei der Position
rt handelt es sich um die zuletzt bestimmte Positionsinformation des Zielbereichs, die
initial in Schritt 44 ermittelt wurde und im folgenden Schritt 54 erneut ermittelt
wird, was untenstehend näher erläutert wird. Die Schätzung des zukünftigen Wertes
rt+1 basiert auf einem Recursive-Least-Square (RLS) Algorithmus. Dies ist beispielsweise
in dem
Buch: "Recursive Least Squares; Statistical Digital Processing and Modelling; von
Monson H. Hayes, ISBN 0-471-59431-8 offenbart. Ein derartig umgesetzter Verfolgungs-Algorithmus weist eine äußerst schnelle
Konvergenz auf. Denkbar wäre auch für den Verfolgungs-Algorithmus einen Least-Mean-Square
(LMS) Algorithmus einzusetzen, der einfachere mathematische Operationen und einen
geringeren Rechenressourcenbedarf aufweist. Zur Schätzung des Werts
rt+1 wird vorzugesweise ein lineares Modell verwendet:

Hierbei ist ein Messdaten-Vektor

aus N Messungen bis zum Zeitpunkt
t gebildet und Θ
t sind Koeffizienten. Zunächst wird dann der sogenannte Kalman-Verstärkungsvektor berechnet:

Hierbei ist λ(0 ≤ λ < 1) der sogenannte Forgetting Factor.
Pt ist die inverse Korrelationsmatrix der Messdaten. Ein A-priori-fehler
∈ zwischen dem aktuellen Messwert
rt und dem geschätzten Wert wird anschließend mit folgender Formel berechnet:

Die Koeffizienten Θ
t werden anhand der folgenden Gleichung ermittelt:

Des Weiteren wird eine inverse Korrelationsmatrix
Pt anhand folgender Formel ermittelt:

Anschließend erfolgt die Schätzung der Positionsinformation des Zielbereichs zum
Zeitpunkt
t + 1 anhand der oben genannten Gleichung:

Es muss somit keine erneute Auswahl des Zielbereichs erfolgen, sondern der Zielbereich
wurde anhand der Sensorsignale und dem Verfolgungs-Algorithmus getrackt. Alternativ
kann anstatt des Recurcsive Least Squares Ansatzes beispielsweise ein Kaiman-Filter
verwendet werden.
[0069] Nachdem in Schritt 52 der Zielbereich verfolgt bzw. in den Sensorsignalen wiedergefunden
wurde, werden im Folgeschritt 54 die Informationen in Form von Bewegungs- und Positionsinformationen
des verfolgten Zielbereichs anhand der Sensorsignale
IB,
DB und
DA anhand der Sensoren 26 und 28 ermittelt. Die Vorgehensweise entspricht dabei derjenigen
in Schritt 44.
[0070] Wenn dann im Schritt 54 beispielsweise die Positionsinformationen des Zielbereichs
ermittelt wird, kann festgestellt werden, wie groß der Abstand zwischen dem Kontaktbereich
30 und dem Zielbereich 32 ist. Hat der Kontaktbereich 30 den Zielbereich 32 noch nicht
erreicht, dann wird das Verfahren ab Schritt 48 erneut durchgeführt, was durch den
Pfeil 56 gezeigt ist. Ist die Kontaktstelle erreicht, dann folgt nach dem Schritt
54 der Schritt 58. Das heißt, wenn eine relative Entfernung zwischen dem Kontaktbereich
30 und dem Zielbereich 32 einen vorher definierten Schwellenwert unterschritten hat,
dann wird der Kontakt zwischen diesen Bereichen als hergestellt betrachtet. Die Steuerung
wird dann an die allgemeine Bewegungskompensation des Objekts, in diesem Fall des
Wasserfahrzeugs 1, übergeben.
[0071] Wie vorstehend bereits angeführt, ist mit dem erfindungsgemäßen System auch ein voll-automatisches
Verfahren zur Bewegungskompensation und zur Zusammenführung zweier Bereiche möglich,
was im Folgenden näher erläutert ist. Gemäß Fig. 3 ist im Unterschied zur Fig. 2 beim
Wasserfahrzeug 1 ein weiterer Sensor 60 vorgesehen. Hierbei handelt es sich um einen
scannenden Sensor mit einem vergleichsweise großen Öffnungswinkel. Beispielsweise
kann ein LIDAR-Sensor eingesetzt sein. Mit dem Sensor 60 kann dann großflächig eine
Umgebung gescannt werden, wobei dies vorzugsweise in einer vergleichsweise hohen Auflösung
erfolgt. Eine Aufnahmegeschwindigkeit spielt dann eine untergeordnete Rolle. Die Sensoren
26 und 60 und das Sensorpaar 28 sind dabei intrinsisch, extrinsisch und gegeneinander
kalibriert, womit eine Koordinatentransformation zwischen den einzelnen Sensor-Koordinatensystemen
ermöglicht ist, wobei
KC das Koordinaten-System des Sensors 60 ist. Die Koordinatentransformation kann mit
folgenden üblichen Formeln erfolgen:

[0072] Im Folgenden wird das voll-automatische Verfahren mit dem System aus Fig. 3 anhand
der Fig. 5 näher erläutert. Gemäß einem Schritt 62 ist in der Fig. 5 vorgesehen, dass
der Sensor 60 Sensorsignale aufnimmt. Dies erfolgt in Form der Daten
DC. Im folgenden Schritt 64 erfolgt die Identifizierung eines potentiellen Zielbereichs.
Dies wird anhand einer Korrelation der Messdaten
DC mit einer zuvor vorbestimmten Template-Datenbank mit möglichen Szenen durchgeführt:

Im folgenden Schritt 66 erfolgt dann die Ausrichtung des Sensors 26 und des Sensorpaars
28 hin zum Zielbereich 32.
[0073] Der gemäß Fig. 5 folgende Schritt 68 entspricht dem Schritt 38 aus Fig. 4, wobei
Sensorsignale erfasst werden. Der folgende Schritt 70 entspricht dem Schritt 44 aus
Fig. 4. Das heißt, es werden die Bewegungs- und/oder Positionsinformationen des ausgewählten
Zielbereichs ermittelt. Ist dies nicht möglich, so wird das Verfahren ausgehend von
Schritt 62 wiederholt, was durch den Pfeil 72 gekennzeichnet ist. Sind die gewünschten
Informationen bestimmt, so folgen nach dem Schritt 70 die Schritte 74, 76, 78, 80
und 82, die den Schritten 48, 50, 52, 54 und 58 aus Fig. 4 entsprechen.
[0074] Somit kann festgestellt werden, dass bei dem voll-automatischen Verfahren der Zielbereich
32, also die Andockstelle, selbst durch das Verfahren identifiziert wird, beispielsweise
mit einer Objekterkennung. Dagegen wird der Zielbereich beim halb-automatischen Verfahren
vom Bediener anhand der Sensordaten vorgegeben.
Bezugszeichenliste
[0075]
1; 10; 14; 16; 24 Wasserfahrzeug
2; 12 Struktur
4 Gangway
6 Andockbereich
8 Endabschnitt
18 Kranarm
20 Seil
22 Last
26, 28; 60 Sensor
30 Kontaktbereich
32 Zielbereich
34 Aktoren
36, 38, 40, 42, 44, 48, 50, 52, 54, 58, 62, 64, 66, 68, 70, 74 - 82 Schritt
37 Steuereinheit
46, 56, 72 Pfeil
1. System, um einen Kontaktbereich eines Objekts (1) des Systems an einen Zielbereich
(32) eines anderen Objekts (24) anzunähern, damit sich die Bereiche (30, 32) anschließend
kontaktieren oder damit die Bereiche (30, 32) in einer Relativposition zueinander
positioniert sind, wobei zumindest eines der Objekte (1, 10, 16, 14, 24) bewegbar
ist, und wobei das System zumindest einen Sensor (26, 28, 60) hat, der bei dem Objekt
(1) des Systems anordenbar ist, wobei dieses Objekt (1) ein Bauteil (4) mit dem Kontaktbereich
(30) aufweist, wobei eine Steuereinheit (37) vorgesehen ist, die derart ausgebildet
ist, dass damit Informationen in Form von Bewegungs- und/oder Positionsinformationen
über den Zielbereich (32) des anderen Objekts (24) relativ zum Kontaktbereich (30)
anhand von Sensorsignalen des zumindest einen Sensors (26, 28, 60) ermittelbar sind,
wobei zumindest ein Aktor (34) vorgesehen ist und der Bauteil (4) und/oder das Objekt
(1) mit dem Bauteil (4) über den Aktor (34) bewegbar ist/sind, um eine Bewegungskompensation
zwischen den Bereichen (30, 32) vorzusehen und/oder um die Relativposition der Bereiche
(30, 32) zueinander zu ändern, und wobei der Aktor (34) basierend auf den über die
Steuereinheit (37) verarbeiteten Informationen derart ansteuerbar ist, dass sich die
Bereiche (30, 32) einander annähern und sich anschließend kontaktieren oder anschließend
die vorbestimmte Relativposition beibehalten und/oder dass die Bewegungskompensation
erfolgt.
2. System nach Anspruch 1, wobei ein Auswahl-Algorithmus vorgesehen ist, der derart ausgestaltet
ist, das aus den von dem zumindest einem Sensor (26, 28, 60) erfassten Sensorsignalen
ein Zielbereich (32) automatisch ausgewählt ist, und/oder wobei ein Verfolgungs-Algorithmus
vorgesehen ist, der derart ausgestaltet ist, dass über diesen anhand der von dem zumindest
einen Sensor (26, 28, 60) erfassten Sensorsignale der Zielbereich (32) verfolgt ist,
und/oder wobei ein Positionsbestimmungs-Algorithmus vorgesehen ist, der derart ausgestaltet
ist, dass über diesen Bewegungs- und/oder Positionsinformationen des Zielbereichs
basierend auf den Sensorsignalen der Sensoren (26, 28, 60) ermittelt sind, und/oder
wobei ein Kompensations-Algorithmus vorgesehen ist, der derart ausgestaltet ist, dass
der Kontaktbereich (30) und/oder der Zielbereich (32) nach einer ungewollten Relativverschiebung
ausgehend von einer aktuellen Relativposition wieder in diese Relativposition zurückgeführt
werden.
3. System nach Anspruch 1 oder 2, wobei eines der Objekte eine feststehende Struktur
(2, 12) und das andere Objekt (1, 10, 14, 16, 24) bewegbar ist oder wobei beide Objekte
(10, 10, 14, 16, 24) bewegbar sind.
4. System nach einem der Ansprüche 1 bis 3, wobei das Bauteil eine über eine Winde (20)
bewegbare Last (22) ist und der Kontaktbereich eine unterseitige Auflagefläche der
Last (22) oder wobei das Bauteil ein Kranarm oder eine Zugangsbrücke (4) ist.
5. System nach einem der vorhergehenden Ansprüche, wobei der Sensor (26) am Bauteil (4)
befestigt ist.
6. System nach einem der vorhergehenden Ansprüche, wobei der Sensor (26) als Light-Detection-and-Ranging
(LIDAR) Sensor ausgebildet ist.
7. System nach einem der vorhergehenden Ansprüche, wobei der Sensor (28) oder ein weiterer
Sensor (28) oder ein Sensorpaar (28) am Objekt (1) und nicht am bewegbaren Bauteil
(4) befestigt ist.
8. System nach Anspruch 7, wobei der Sensor (28) oder der weitere Sensor (28) eine Kamera
ist oder wobei das Sensorpaar (28) eine Kamera und einen Light-Detection-and-Ranging
(LIDAR) Sensor aufweist.
9. System nach Anspruch 7 oder 8, wobei neben dem Sensor (28) oder dem Sensorpaar (28)
am Objekt (1) ein weiterer Sensor (60) zur automatischen Erfassung des Zielbereichs
(32) vorgesehen ist.
10. Fahrzeug mit dem System gemäß einem der vorhergehenden Ansprüche, wobei dieses als
Objekt mit dem Sensor (26, 28, 60) eingesetzt ist.
11. Feststehende Struktur, an die ein Fahrzeug andockbar ist, wobei die Struktur (2, 12)
das System gemäß einem Ansprüche 1 bis 9 aufweist, und wobei die Struktur (2, 12)
als Objekt mit dem Sensor (26, 28, 60) eingesetzt ist.
12. Verfahren mit einem System gemäß einem der Ansprüche 1 bis 9 mit den Schritten:
- Erfassen von Sensorsignalen des zumindest einen Sensors (26, 28, 60),
- Auswahl des Zielbereichs (32) anhand der Sensorsignale,
- Ermittlung der Informationen in Form von Bewegungs- und/oder Positionsinformationen
des ausgewählten Zielbereichs,
- Ansteuerung des zumindest einen Aktors (34) basierend auf den ermittelten Informationen
derart, dass sich der Kontaktbereich (30) und der Zielbereich (32) einander annähern
und/oder dass die Bewegungskompensation erfolgt.
13. Verfahren nach Anspruch 12, wobei nach der Ansteuerung des zumindest einen Aktors
(34) und der Bewegung des Kontaktbereichs (30) folgende Schritte folgen:
- Erfassen von Sensorsignalen des zumindest einen Sensors (26, 28, 60),
- Verfolgen des ausgewählten Zielbereichs (32) in den Sensorsignalen,
- Ermittlung der Informationen in Form von Bewegungs- und/oder Positionsinformationen
des ausgewählten Zielbereichs (32) anhand der Sensorsignale des zumindest einen Sensors
(26, 28, 60),
- Ansteuern des zumindest einen Aktors (34) basierend auf den ermittelten Informationen
derart, dass sich der Kontaktbereich (30) und der Zielbereich (32) einander annähern
und/oder dass die Bewegungskompensation erfolgt.
14. Verfahren nach Anspruch 12 oder 13, wobei bei der Ermittlung der Informationen in
Form von Bewegungs- und/oder Positionsinformationen des ausgewählten Zielbereichs
(32), falls die Entfernung zwischen diesen Bereichen einen bestimmten Schwellenwert
übersteigt, die Sensorsignale von einer Mehrzahl von Sensoren (26, 28, 60) verwendet
werden.
15. Verfahren nach einem der Ansprüche 12 bis 14, wobei die Auswahl des Zielbereichs (32)
manuell über einen Bediener oder automatisch über die Steuereinheit (37) erfolgt.