Technisches Gebiet
[0001] Die Erfindung betrifft ein Verfahren zur Klassifizierung einer Überwachungssituation
innerhalb eines Überwachungsbereiches bezüglich ihrer Normalität anhand einer Bildsequenz,
welche zumindest ein Bild dieser Situation umfasst.
Stand der Technik
[0002] Bei der sicherheitstechnischen Überwachung von Anlagen und Räumen mittels Videokameras
werden die aufgenommenen Bilder auf einem Monitor dargestellt, welcher durch einen
Bewacher kontrolliert wird. Um die Kosten der Überwachung möglichst gering halten
zu können, werden meistens mehrere Kameras umschaltbar auf einen oder einige wenige
gemeinsame Monitore geschaltet. Die Umschaltung von den Bildern einer Kamera zu den
Bildern einer anderen Kamera erfolgt dabei in vorgegebenen Zyklen oder selektiv, beispielsweise
bei der Entdeckung einer Bewegung.
[0003] Erfolgt keine Umschaltung der Bilder, wird ein Bewacher bei der Überwachung dieser
Bilder mit der Zeit unweigerlich ermüden und die Videobilder nur noch oberflächlich
oder sporadisch betrachten. Wird indessen bei der Detektion jeder Bewegung auf das
jeweilige Videobild umgeschaltet, lässt die Aufmerksamkeit des Bewachers praktisch
ebenso schnell nach, da die weitaus überwiegende Mehrheit der detektierten Bewegungen
keine Alarmsituation kennzeichnen.
[0004] Aus der WO98/56182 ist ein Verfahren zur automatischen Video-Überwachung bekannt,
bei welchem die einzelnen Bilder analysiert und aus einer Vielzahl solcher Bilder
ein statistischer "Normal-Wert" gebildet wird. Mittels eines Vergleichs eines aktuellen
Bildes mit dem statistischen "Normal-Wert" werden ausserordentliche Situationen erkannt,
ohne dass von vornherein festgelegt werden muss, was in einer bestimmten Überwachungssituation
als ausserordentlich zu gelten hat.
[0005] Alarmsituationen lassen sich häufig anhand der Bewegung innerhalb des Überwachungsbereiches
erkennen. Durch die ungenügende oder gar fehlende Berücksichtigung der Bewegung im
Überwachungsbereich können Alarmsituationen nicht oder nur ungenau erkannt werden.
Dies hat zur Folge, dass die Umschaltung der Bilder von verschiedenen Kameras entweder
zu häufig oder zu selten geschieht. Im ersten Fall ignoriert der Bewacher die Umschaltung
schon bald und im zweiten Fall werden Alarmsituationen übersehen.
Darstellung der Erfindung
[0006] Aufgabe der Erfindung ist es, ein Verfahren der eingangs genannten Art anzugeben,
mit welchem sich insbesondere eine verlässliche Klassifizierung von Situationen im
Überwachungsbereich in ordentliche oder ausserordentliche Situationen durchführen
lässt.
[0007] Die Lösung der Aufgabe ist durch die Merkmale des Anspruchs 1 definiert. Gemäss der
Erfindung erfolgt die Klassifizierung von Überwachungssituationen innerhalb eines
Überwachungsbereiches bezüglich ihrer Normalität anhand einer Bildsequenz, welche
zumindest ein Bild der Überwachungssituation umfasst. Aus der Bildsequenz sowie aus
Informationen über eine vorgegebene oder berechnete Segmentierung des Überwachungsbereiches
in zumindest zwei Segmente wird ein Featurevektor generiert. Anhand dieses Featurevektors
wird die Bildsequenz klassifiziert. Unter Berücksichtigung des Featurevektors wird
die Segmentierung des Überwachungsbereiches bzw. der Bilder des Überwachungsbereiches
neu berechnet und nachfolgende Bildsequenzen mit den neu berechneten Informationen
verarbeitet.
[0008] Das erfindungsgemässe Verfahren ermöglicht eine einfache und effiziente Überwachung
eines beliebigen Überwachungsbereiches, beispielsweise eines Bankfoyers mit mehreren
Schaltern und/oder Geldbezugs-Automaten, indem ausserordentliche Situationen zuverlässiger
erkannt, klassifiziert und einem Bewacher signalisiert werden können. Es ist in mehrfacher
Hinsicht flexibel, da einerseits die Klassifizierungskriterien nicht von vornherein
festgelegt, sondern anhand realer Situationen bestimmt werden und sich damit ändernden
Bedingungen anpassen können und andererseits modular implementiert und damit einfach
an wechselnde Überwachungssituationen angepasst werden kann.
[0009] Mittels einer beliebigen Anzahl von Bildbearbeitungs-Modulen wird aus der Bildsequenz
vorzugsweise eines oder mehrere Featurebilder berechnet. Ein Featurebild wird hinsichtlich
einem bestimmten Klassifizierungskriterium, beispielsweise "Ort der registrierten
Bewegungen", "Gesamtmenge an Bewegung in einer bestimmten Bildregion" oder "Vorhandensein/Nichtvorhandensein
von Kanten in einem Bild" berechnet. Aus einem Featurebild wird anschliessend mit
einer ebenfalls beliebigen Anzahl von Featuresammel-Modulen ein sogenannter Bildvektor
generiert, welcher eine Mehrzahl von Komponenten umfasst, wobei jede Komponente einen
charakteristischen Wert hinsichtlich dem gewählten Feature aufweist.
[0010] Wahlweise können bei der Bildung der Bildvektoren auch die Bildvektoren anderer Featuresammel-Module
berücksichtigt werden. Selbstverständlich können auch mehrere Featurebilder zur Generierung
eines Bildvektors verwendet werden und/oder ein Featurebild wird bei der Generierung
mehrerer Bildvektoren berücksichtigt.
[0011] Die Bildvektoren der verschiedenen Featuresammel-Module werden zum Featurevektor
zusammengefügt. Für den Fall, dass nur ein Featuresammel-Modul vorhanden ist, ist
der Featurevektor identisch mit dem Bildvektor dieses Moduls.
[0012] Bei einer bevorzugten Ausführungsform der Erfindung wird aus dem Featurevektor vor
der Klassifizierung typischerweise eine Mehrzahl von Teilvektoren extrahiert, welche
anschliessend jeweils einzeln mit je einem Klassifizierungsmodul klassifiziert werden,
indem mit jedem Klassifizierungsmodul ein Klassifizierungsresultat bestimmt wird.
Es ist aber auch möglich, dass aus dem Featurevektor nur ein Teilvektor extrahiert
wird, der alle Komponenten des Featurevektors enthält, d.h. dass der Featurevektor
als Ganzes mit einem einzigen Klassifizierungsmodul klassifiziert wird.
[0013] Sind mehrere Klassifizierungsmodule vorhanden, d.h. werden mehrere Klassifizierungsresultate
bestimmt, werden diese Resultate zur Klassifizierung der Bildsequenz bzw. der entsprechenden
Überwachungssituation auf geeignete Art und Weise miteinander verknüpft. Typischerweise
erfolgt diese Verknüpfung gemäss einem Satz von Regeln, welche auf vorhandenem Wissen
basieren.
[0014] In einer bevorzugten Ausführungsform der Erfindung wird ein Featurebild bestimmt,
indem zumindest zwei Bilder der Bildsequenz miteinander verglichen werden. Das Resultat
dieses Vergleichs besteht aus einer Vielzahl einzelner Bewegungspunkte, welche zunächst
einer Datenreduktion unterworfen werden, indem jeweils eine Mehrzahl von Bewegungspunkten
gemäss vorgegebenen Kriterien zu sogenannten Blobs zusammengefasst werden. Dieser
Vorgang wird Blobbing genannt. Nach der Bearbeitung mehrerer Bilder erhält man also
eine "Karte" des Überwachungsbereiches mit einer Vielzahl von Blobs, welche entsprechend
der detektierten Bewegungen innerhalb des Überwachungsbereiches verteilt sind. Um
einen Blob zu beschreiben, wird aus den zugehörigen Bewegungspunkten eine Art Zentrum,
d.h. seine Position und eine Gewichtung berechnet.
[0015] Die Segmentierung erfolgt hierbei vorzugsweise durch Unterteilung des Überwachungsbereiches
in zumindest zwei Regionen. Dazu werden die Blobs mit einem Clustering Algorithmus
in eine Mehrzahl von Clustern mit jeweils unterschiedlicher aber mehr oder weniger
homogener Bewegungsdichte aufgeteilt. Dieses Clustering ermöglicht eine einfachere
Klassifizierung der untersuchten Bildsequenz in ordentliche und ausserordentliche
Situationen, indem die Erkennung von ausserordentlichen Situationen nicht durch Beurteilung
der Gesamtsituation, sondern durch Untersuchung jeweils einer einzelnen bzw. einiger
weniger Regionen gleichzeitig erfolgen kann.
[0016] Die Anzahl der Komponenten des Bildvektors eines solchermassen berechneten Featurebildes
ist gleich der Anzahl Regionen, die aus dem Clustering resultiert. Eine Komponente
wird dabei berechnet als Summe der Gewichtungen aller Blobs einer Region.
[0017] Um aus den beiden zeitlich verschobenen Bildern der Bildsequenz die Bewegungspunkte
zu bestimmen, wird vorzugsweise eine Differenz der beiden Bilder berechnet. Jedes
Bild besteht jeweils aus einer Vielzahl von Pixeln, welche z.B. von der Auflösung
der Videokamera abhängt. Bei einer horizontalen Auflösung von x Pixeln und einer vertikalen
Auflösung von y Pixeln ergibt sich eine Gesamtzahl von x*y Pixeln, wobei jedem Pixel
ein der Helligkeit des abzubildenden Bildpunktes entsprechender Grauwert zugeordnet
ist. Die einzelnen Pixel des Differenzbildes werden berechnet, indem jeweils der Betrag
der Differenz der Grauwerte der entsprechenden Pixel der beiden Bilder gebildet wird.
Ist diese Differenz verschieden von Null, gilt das entsprechende Pixel des Differenzbildes
als Bewegungspunkt. Um das in realen Systemen unvermeidliche Rauschen zu berücksichtigen,
kann z.B. festgelegt werden, dass nur diejenigen Pixel des Differenzbildes als Bewegungspunkte
gelten, deren Betrag der Differenz grösser als eine vorgegebene Schranke ist.
[0018] Die Kriterien, nach welchen die einzelnen Bewegungspunkte einem Blob zugeteilt werden,
leiten sich ab aus dem Abstand eines Bewegungspunktes zum Blob. Ein Bewegungspunkt
wird beispielsweise demjenigen Blob zugeordnet, der bereits mindestens einen Bewegungspunkt
umfasst, von welchem der neue Bewegungspunkt maximal n Pixel entfernt ist. Ist n gleich
1 heisst das beispielsweise: Ein Blob umfasst alle Bewegungspunkte, welche direkte
Nachbarn eines bereits diesem Blob zugeteilten Bewegungspunktes sind.
[0019] Jeder Blob umfasst somit eine Mehrzahl von Bewegungspunkten, aus denen sich seine
Position und seine Gewichtung bestimmen lassen. Die Position des Blobs wird vorzugsweise
als Schwerpunkt der vom Blob umfassten Bewegungspunkte, und die Gewichtung des Blobs
als Grösse eines Rechteckes berechnet, wobei das Rechteck gebildet wird durch horizontale
und vertikale Tangenten an den Blob, d.h. durch die Schnittmenge derjenigen Zeilen
und Spalten des Bildes, welche zumindest einen Bewegungspunkt dieses Blobs enthalten.
Die Gewichtung des Blobs wird somit am Umriss bzw. an der Fläche gemessen und nicht
an der Anzahl der Bewegungspunkte. Im letzteren Fall hätte bei identischem Bewegungsverlauf
nämlich ein karierter Pullover eine immens grössere Gewichtung als ein uni-farbener
Pullover, da er nicht nur an den Rändern des Pullovers, sondern auch auf seiner ganzen
Fläche Bewegungspunkte hervorruft. Eine solch ungleiche Gewichtung ist jedoch nicht
erwünscht.
[0020] Entscheidend für die weitere Verarbeitung und Auswertung der Daten ist der Clustering
Vorgang. Das Clustering hat zum Ziel, Regionen des Überwachungsbereiches bzw. des
Differenzbildes zu identifizieren, innerhalb denen die detektierten Bewegungen, d.h.
die Blobs, in etwa gleichartig sind. Idealerweise entsprechen diese Regionen realen
Teilbereichen des Überwachungsbereiches. Beispielsweise Regionen wie "neben dem Fenster",
"vor dem Geldbezugs-Automaten", "bei der Türe" etc. Die Bewegungsdichte, d.h. die
Blob-Dichte ist in etwa homogen, wobei jede Region eine spezifische Bewegungsdichte
aufweist. Das Resultat des Clusterings ist eine Aufteilung des Überwachungsbereiches
in eine Anzahl N von Regionen, wobei N grösser oder gleich eins ist.
[0021] Bei einer bevorzugten Ausführungsform der Erfindung erfolgt die Bildung der Regionen,
indem zunächst für jede Region ein Knoten und eine Standardabweichung bestimmt wird.
Danach wird jeder Blob gemäss vorgegebenen Kriterien genau einer Region zugeordnet
und nach der Zuordnung eines Blobs zu einer Region wird sowohl der Knoten als auch
die Standardabweichung dieser Region neu bestimmt. Die Neubestimmung beider Parameter
erfolgt in Abhängigkeit des Blobs, d.h. seiner Position und seiner Gewichtung, des
bisherigen Knotens, der bisherigen Standardabweichung und der Knoten anderer Regionen.
[0022] Das Kriterium zur Zuordnung eines Blobs zu einer bestimmten Region ist eine Pseudo-Distanz
zwischen einem Blob und dem Knoten einer Region. Die Pseudo-Distanz wird vorteilhafterweise
berechnet als Funktion der Gewichtung des Blobs, der geometrischen Position des Knotens
und des Blobs, d.h. des geometrischen Abstandes des Blobs zum Knoten sowie der Standardabweichung
der Region. Vor der Zuordnung wird also zunächst die Pseudo-Distanz von einem Blob
zum Knoten jeder Region berechnet und der Blob danach derjenigen Region zugeordnet,
zu deren Knoten er die kleinste Pseudo-Distanz aufweist.
[0023] Eine weitere bevorzugte Ausführungsform der Erfindung besteht darin, dass das Verfahren
unterteilt wird in eine Trainingsphase und eine Überwachungsphase, wobei sich die
beiden Phasen überlappen oder auch mehrere Male abwechseln können.
[0024] Während der Überwachungsphase wird die Auswertung des Featurevektors bzw. eines Teilvektors
davon mit einem oder mehreren Klassifizierungsmodulen durchgeführt. Die Auswertung
erfolgt entweder mit den Absolutwerten der entsprechenden Komponenten oder mit Werten,
die relativ zu anderen Komponenten-Werten berechnet werden. Aufgrund der Klassifizierung
der zugrundeliegenden Bildsequenz erfolgt, wenn nötig, eine Signalisierung dieser
Bildsequenz als ausserordentlich. Sie wird beispielsweise auf einen von einem Bewacher
kontrollierten Bildschirm geschaltet, damit er die entsprechende Situation beurteilen
kann, oder die Aufmerksamkeit des Bewachers wird mit beliebigen anderen Mitteln auf
die beurteilte Situation gelenkt.
[0025] Vorzugsweise erfolgt eine Klassifizierung eines Teilvektors des Featurevektors, welcher
anhand der Pseudo-Distanzen eines Blobs erstellt wurde. Dieses Feature könnte z.B.
"Bewegung ausserhalb des normalen Aktivitätsgebietes" genannt werden. Während der
Überwachungsphase wird mit einem entsprechenden Klassifizierungsmodul festgestellt,
ob die kürzeste Pseudo-Distanz eines Blobs, d.h. die Pseudo-Distanz zum Knoten derjenigen
Region, der er zugewiesen wurde, eine vorgegebene Maximaldistanz überschreitet. Trifft
dies zu, wird die entsprechende Bildsequenz als ausserordentlich klassifiziert und
entsprechend der Weiterverarbeitung der einzelnen Klassifizierungsresultate auch als
Alarmsituation signalisiert, wenn dies vorgesehen ist.
[0026] Eine weitere vorteilhafte Klassifizierung betrifft ein Feature "Gesamt-Bewegungsmenge
in einer Region". Mit dem entsprechenden Featuresammel-Modul wird während der Trainingsphase
für jedes Differenzbild ein Bildvektor generiert. Der Wert einer Komponente wird berechnet
als die Summe der Gewichtung aller Blobs einer Region. Mit dem entsprechenden Klassifizierungsmodul
wird der zugehörige Teilvektor jedes resultierenden Featurevektors analysiert und
für jede Komponente dieses Teilvektors wird ein Limit bestimmt. Dieses Limit wird
für jede Komponente (d.h. für jede Region) derart bestimmt, dass ein bestimmter Prozentsatz
der bisher berechneten Werte dieser Komponente kleiner oder gleich dem Limit ist.
Mit diesen Limits lässt sich eine weitere bevorzugte Klassifizierung realisieren.
[0027] Während der Überwachungsphase wird mit einem Klassifizierungsmodul "Gesamt-Bewegungsmenge
in einer einzelnen Region" eine Bildsequenz als ausserordentlich klassifiziert, wenn
eine Komponente des resultierenden Featurevektors das Limit dieser Komponente übersteigt.
[0028] Vorzugsweise wird für jedes Kreuzprodukt zweier Komponenten des Featurevektors ebenfalls
ein Limit, hier ein Produktlimit bestimmt. Analog zur Bestimmung der Limits für eine
einzelne Komponente wird dieses Limit für je zwei Komponenten (d.h. für je zwei Regionen)
derart bestimmt, dass ein vorgegebener Prozentsatz aller zuvor berechneten Produkte
der beiden Komponenten kleiner oder gleich dem Produktlimit ist. Andererseits wird,
wiederum während der Überwachungsphase, mit einem weiteren Klassifizierungsmodul "Gesamt-Bewegungsmenge
in zwei Regionen gleichzeitig" eine Bildsequenz als ausserordentlich klassifiziert,
wenn das Produkt zweier Komponenten des resultierenden Featurevektors das entsprechende
Produktlimit übersteigt.
[0029] Ein weiteres Beispiel für eine Klassifizierungsmöglichkeit wäre ein Modul "statische
Objekte", bei welchem die Bildsequenz anhand eines Features "statische Objekte im
Überwachungsbereich" klassifiziert wird. Beispielsweise anhand der Zeitspanne, während
der ein Objekt als " vorhanden " oder auch "nicht vorhanden" erkannt wird. Dieses
Feature könnte z.B. mit dem bereits erwähnten Featuresammel-Modul "Vorhandensein/Nichtvorhandensein
von Kanten in einem Bild" generiert werden.
[0030] Indem die Beurteilung der Situationen, d.h. Bildsequenzen, anhand mehrerer Kriterien,
z.B. dem Vorkommen von Bewegung an ungewöhnlichen Orten oder anhand der Menge an Bewegung
in einer einzelnen Region und/oder in einem Paar von Regionen erfolgt, ermöglicht
es das erfindungsgemässe Verfahren, die Erkennung ausserordentlicher Situationen in
einem meist komplexen Überwachungsbereich, wo häufig gleichzeitig an verschiedenen
Orten korrelierte oder unkorrelierte Bewegung stattfindet, wesentlich zu vereinfachen.
[0031] Angewendet wird das erfindungsgemässe Verfahren beispielsweise bei der Überwachung
öffentlich zugänglicher Bereiche wie Schalterhallen oder Fahrgasträumen in öffentlichen
Transportmitteln. Es eignet sich insbesondere zur Überwachung eines Foyers einer Bank.
[0032] Eine Überwachungsanordnung zur Durchführung des erfindungsgemässen Verfahrens, d.h.
zur Klassifizierung einer Überwachungssituation innerhalb eines Überwachungsbereiches
bezüglich ihrer Normalität anhand einer Bildsequenz, umfasst neben mindestens einem
Bildaufnahmegerät, wie beispielsweise einer Videokamera, eine Klassifiziervorrichtung
mit einem Bildeingang und einem Klassifizierungsausgang sowie eine Alarmvorrichtung.
Mit Hilfe der Videokamera, welche mit dem Bildeingang der Klassifiziervorrichtung
verbunden ist, werden in beliebigen oder regelmässigen Abständen Bilder des Überwachungsbereiches
aufgenommen und an die Klassifiziervorrichtung weitergegeben. Diese weist Mittel zur
Generierung eines Featurevektors aus zumindest einem Bild, zur Segmentierung des Überwachungsbereiches
sowie zur Klassifizierung des Featurevektors bezüglich der Normalität der entsprechenden
Bildsequenz auf. Damit Bildsequenzen, welche als ausserordentlich bzw. abnormal klassifiziert
wurden, dem Bewacher auch als solche signalisiert werden können, ist der Klassifizierungsausgang
mit der Alarmvorrichtung, beispielsweise einem Monitor zur Darstellung der entsprechenden
Situation oder einem Lautsprecher zur Aussendung eines akustischen Warnsignals verbunden.
[0033] Aus der nachfolgenden Detailbeschreibung und der Gesamtheit der Patentansprüche ergeben
sich weitere vorteilhafte Ausführungsformen und Merkmalskombinationen der Erfindung.
Kurze Beschreibung der Zeichnungen
[0034] Die zur Erläuterung des Ausführungsbeispiels verwendeten Zeichnungen zeigen:
- Fig. 1
- Eine schematische Darstellung der generellen Struktur eines erfindungsgemässen Überwachungssystems;
- Fig. 2
- ein Blockschema des erfindungsgemässen Verfahrens;
- Fig. 3
- eine schematische Darstellung der Vorgänge beim Clustering und
- Fig. 4
- ein Diagramm zur Darstellung der Korrelation der Bewegungsmenge in zwei Regionen für
verschiedene Parameterwerte.
[0035] Grundsätzlich sind in den Figuren gleiche Teile mit gleichen Bezugszeichen versehen.
Wege zur Ausführung der Erfindung
[0036] Anhand der Figur 1 wird zunächst die generelle Struktur eines erfindungsgemässen
Überwachungssystems 1 dargelegt. Dieses besteht aus drei Subsystemen, einem Bild/Feature-Subsystem
2, einem Klassifizierungs-Subsystem 3 und einem Segmentierungs-Subsystem 4. Das Überwachungssystem
1 besitzt einen Bildeingang 5 und einen Klassifizierungsausgang 6. Über den Bildeingang
5 empfängt das Überwachungssystem 1 eine Bildsequenz, welche beispielsweise von einer
Videokamera aufgenommen wurde. Im Bild/Feature-Subsystem 2 wird die Bildsequenz mit
mehreren Bildbearbeitungs-Modulen 7.1 bis 7.3 verarbeitet und daraus zumindest ein
Featurebild pro Bildbearbeitungs-Modul 7.1 bis 7.3 erstellt. Aus den Featurebildern
werden daraufhin mit einer Mehrzahl von Featuresammel-Modulen 8.1 bis 8.3 die gewünschten
Features aus der Bildsequenz extrahiert und daraus je ein Bildvektor gebildet. Schliesslich
werden die einzelnen Bildvektoren zu einem Featurevektor 9 zusammengesetzt, welcher
am Ausgang des Bild/Feature-Subsystems 2 ausgegeben wird. Er dient den beiden anderen
Subsystemen als Eingang.
[0037] Einerseits wird er vom Segmentierungs-Subsystem 4 zur Segmentierung des Überwachungsbereiches
verwendet. Die Segmentierung in eine Mehrzahl von Clustern, d.h. Regionen erfolgt
anhand der extrahierten Features mit einem Clustering Algorithmus. Die Information
über die Segmentierung des Überwachungsbereiches wird dem Bild/Feature-Subsystem 2
als weiterer Eingang zur Verfügung gestellt. Dieses Subsystem berücksichtigt diese
Information bei der Generierung der Featurebilder und des Featurevektors 9.
[0038] Andererseits wird der Featurevektor 9 im Klassifizierungs-Subsystem 3 in einen oder
mehrere Teilvektoren zerlegt, wobei die Teilvektoren mit den Bildvektoren des Bild/Feature-Subsystems
2 übereinstimmen können, aber nicht müssen. Jeder Teilvektor wird mit einem eigenen
Klassifizierungsmodul 10.1, 10.2, 10.3 ausgewertet und klassifiziert, indem jedes
Klassifizierungsmodul 10.1, 10.2, 10.3 ein separates Klassifizierungsresultat produziert.
In einer Verknüpfungseinheit 11 werden die Klassifizierungsresultate der einzelnen
Teilvektoren des Featurevektors 9 zum Klassifizierungsausgang 6, dem Ausgangssignal
des Klassifizierungs-Subsystems 3 verknüpft. Die Verknüpfungseinheit 11 kann aus einer
Art UND- oder ODER-Gatter bestehen oder die Klassifizierungsresultate der Klassifizierungsmodule
10.1, 10.2, 10.3 werden nach komplexen, auf Wissen über das Überwachungssystem basierenden,
Regeln miteinander verknüpft.
[0039] Anhand einer konkreten Überwachungssituation, nämlich anhand der Überwachung eines
Bankfoyers mit einer Videokamera, soll das erfindungsgemässe Verfahren genauer erläutert
werden.
[0040] Figur 2 zeigt in einem Blockschema den Verfahrensablauf am Beispiel des Features
"Gesamt-Bewegungsmenge". Eine Videokamera liefert die zu verarbeitende Bildsequenz
12, welche jeweils aus zwei Bildern besteht. Jedes Bild der Bildsequenz hat eine optische
Auflösung von n1 * n2 Pixeln und die Farben werden als Grauwerte einer bestimmten
Auflösung wiedergegeben.
[0041] In einem ersten Schritt Bewegungs-Detektion 13 wird aus jeweils zwei aufeinanderfolgenden
Bildern der Bildsequenz 12 ein Featurebild ermittelt. Das Featurebild wird als eine
n1 * n2 Bildmatrix dargestellt. Pro Einzelbild werden dazu die Grauwerte der Pixel
je in einer n1*n2 Bildmatrix BM1 bzw. BM2 abgespeichert und anschliessend wird eine
Differenzmatrix DM der beiden Bildmatrizen gebildet. Hierzu werden die Elemente von
DM jeweils als Differenz der entsprechenden Elemente von BM1 und BM2 berechnet. Anschliessend
wird das Featurebild, d.h. die Feature-Bildmatrix ermittelt, indem überall dort, wo
diese Differenz grösser als Null bzw. grösser als ein bestimmter Schwellwert ist,
eine eins und überall sonst eine Null eingetragen wird. Der Schwellwert ist entweder
fest einstellbar oder er wird in Abhängigkeit der Bildinformation adaptiert. So erhält
man das Featurebild, dessen Elemente jeweils den Wert Null oder Eins aufweisen. Die
Matrixelemente mit dem Wert Eins werden als Bewegungspunkte bezeichnet, da sie alle
Punkte des Überwachungsbereiches, d.h. Pixel des entsprechenden Bildes, kennzeichnen,
bei denen sich der Grauwert zwischen den beiden Bildaufnahme-Zeitpunkten verändert
hat.
[0042] In einem weiteren Verfahrensschritt Blobbing 14 werden die einzelnen Bewegungspunkte
des Featurebildes zu sogenannten Blobs zusammengefasst. Im vorliegenden Beispiel gehören
all jene Bewegungspunkte zu einem bestimmten Blob, welche direkte Nachbarn eines anderen
Bewegungspunktes sind, welcher bereits als "zu diesem Blob gehörend" qualifiziert
wurde. Mit anderen Worten: Ein Blob ist ein zusammenhängendes Gebiet von Bewegungspunkten
(bzw. Matrixelementen der Feature-Bildmatrix), welches auch Löcher, d.h. einzelne
oder mehrere Pixel (bzw. Matrixelemente) mit Wert Null, aufweisen kann. Die definierenden
Eigenschaften eines Blobs sind seine Position und seine Gewichtung. Die Position eines
Blobs wird bestimmt als Schwerpunkt der zum Blob gehörenden Bewegungspunkte. Seine
Gewichtung dagegen als Grösse eines Rechtecks, wobei das Rechteck gebildet wird durch
horizontale bzw. vertikale Tangenten an den Blob. Für eine Matrix ausgedrückt heisst
das: Die Gewichtung eines Blobs entspricht der Grösse der kleinstmöglichen Teilmatrix
der Feature-Bildmatrix, welche alle Bewegungspunkte dieses Blobs umfasst. Das Blobbing
14 liefert als Resultat eine Blob-Liste 15, d.h. eine Liste aller Blobs mit der jeweiligen
Position und Gewichtung.
[0043] Im nächsten Schritt Clustering 16 werden die einzelnen Blobs zu sogenannten Clustern
zusammengefasst. Der Überwachungsbereich wird somit in eine Mehrzahl von Regionen
mit einem inneren Zusammenhang segmentiert. Die derart identifizierten Regionen weisen
z.B. eine homogene Dichte an Bewegung auf und entsprechen häufig realen Bildbereichen
wie etwa einem Bereich "neben dem Fenster" oder "vor dem Geldbezugs-Automaten".
[0044] Das Clustering 16 erfolgt mittels eines inkrementellen Verfahrens. Startpunkt dieses
Verfahrens sind zwei Regionen mit je einem Knoten und einer Standardabweichung. Der
Knoten wie auch die Standardabweichung sind frei wählbar und können aufgrund gewisser
Vorkenntnisse oder aber rein zufällig gewählt werden. Nach dem Blobbing 14 eines Differenzbildes
werden die Blobs einzeln für das Clustering berücksichtigt. Dabei wird ein Blob zunächst
derjenigen Region zugeordnet, zu deren Knoten, dem sogenannten Siegerknoten, er die
geringste Pseudo-Distanz aufweist. Die Pseudo-Distanz zwischen einem Knoten und einem
Blob darf jedoch nicht geometrisch als Abstand verstanden werden, sondern als ein
Distanzmass, bei dessen Berechnung nicht nur dieser Abstand, sondern auch die Gewichtung
des Blobs sowie der Wert der Standardabweichung berücksichtigt werden. Zwischen dem
Siegerknoten und einem weiteren Knoten, zu dem der Blob die zweitgeringste Pseudo-Distanz
aufweist, wird eine Verbindung eingeführt. Knoten, die derart verbunden sind, werden
als Nachbarn bezeichnet. Abhängig von der Position und der Gewichtung des Blobs, vom
aktuellen Knoten und der Standardabweichung sowie den Knoten anderer Regionen wird
danach der Knoten und die Standardabweichung der Siegerregion neu berechnet.
[0045] Übersteigt die Pseudo-Distanz zwischen dem Blob und dem Siegerknoten eine Maximal-Pseudo-Distanz,
wird der Blob als Fehlerblob bezeichnet und es werden zusätzlich zwei Fehlerwerte
eingeführt bzw. adaptiert, wenn diese schon existieren. Einerseits ein zu jeder Region
gehörender Lokalfehler mit einem Wert und einer Position und andererseits ein Globalfehler,
bei dem nur der Wert zählt. Wird der Wert des Globalfehlers zu gross, wird eine neue
Region eingeführt, deren Knoten an der Position des Lokalfehlers liegt und dessen
Standardabweichung anhand der Fehlerblobs ermittelt wird. Während einer Trainingsphase
werden nun die Blobs einer Mehrzahl von Differenzbildern einer nach dem andern für
das Clustering berücksichtigt und einer Region zugeordnet, womit sich nach und nach
die verschiedenen Regionen herausbilden.
[0046] Das Clustering 16 wird im folgenden anhand der Figur 2 etwas detaillierter erläutert.
Dargestellt sind in einem zweidimensionalen Vektorraum zwei bereits identifizierte
Regionen 26 und 27 mit je einem Knoten 20 bzw. 21, wobei der Knoten 20 der Region
26 als S bezeichnet wird. Ferner ist der Lokalfehler 22 der Region 26 dargestellt.
Er befindet sich an einer Art Schwerpunkt aller bisherigen Fehlerblobs dieser Region
26. Kommt ein neuer Blob 23 X mit Koordinaten (x
x,x
y) und Gewichtung x
g hinzu, wird zunächst je die Pseudo-Distanz d(X,S) vom neuen Blob zu den einzelnen
Knoten mit den Koordinaten (s
x,s
y) berechnet gemäss der Formel

wobei (σ
x,σ
y) die Koordinaten der Standardabweichung der Region 26 sind. (σ
x,σ
y) entsprechen der Standardabweichung in x- bzw. y-Richtung der Pseudo-Distanzen dieser
Region 26. Der Blob 23 wird derjenigen Region zugeteilt, zu deren Knoten er die geringste
Pseudo-Distanz aufweist. In diesem Fall ist dies die Region 26 mit dem Knoten 20 als
Siegerknoten. Zum Knoten 21 weist der Blob die zweitgeringste Pseudo-Distanz auf,
weshalb zwischen den beiden Knoten 20 und 21 eine topologische Verbindung 29 eingeführt
wird. Danach wird der Knoten 20 und die Varianz σ der Region 26, der Siegerregion,
neu berechnet. Der Knoten S 20 wird korrigiert gemäss Formel

wobei ε
a ein vorgegebener Anziehungskoeffizient und ε
r ein Abstossungskoeffizient ist, der berechnet wird gemäss Formel

mit

wobei (n
x,n
y) die Koordinaten eines Nachbarn N des Knotens S sind und mit dem "*" das Skalarprodukt
zweier Vektoren bezeichnet wird.
[0047] Die Varianz σ
2 der Region 26 wird neu berechnet gemäss Formel

wobei ε ein vorgegebener Korrekturkoeffizient und die Koordinaten (η
x,η
y) berechnet werden gemäss

[0048] Damit erhält man die korrigierte Region 28 mit dem korrigierten Knoten 24. Ist, wie
in diesem Beispiel angenommen, die Pseudo-Distanz des Blobs X 23 zum Knoten 20 grösser
als die vorgegebene Maximal-Pseudo-Distanz, werden auch die Position L
P des Lokalfehlers 22 sowie die Werte L
W des Lokal- und G
W des Globalfehlers korrigiert. Der Wert beider Fehler wird erhöht um einen Wert D,
der berechnet wird gemäss

und die Position L
Pneu des korrigierten Lokalfehlers 25 wird aus der alten Position L
P berechnet gemäss

[0049] Nach einer bestimmten Anzahl von Verfahrenszyklen, d.h. nach einer bestimmten Anzahl
verarbeiteter Blobs, wird der Wert G
W des Globalfehlers überprüft. Ist er grösser als eine vorgegebene Schranke, wird an
der Position desjenigen Lokalfehlers mit dem grössten Wert ein neuer Knoten eingeführt.
Die Schranke für den Globalfehler wird beispielsweise bestimmt in Abhängigkeit der
angenommenen Gaussverteilungen der Blobs um die Knoten.
[0050] Zwischen den einzelnen Zyklen können beim Clustering auch weitere Massnahmen durchgeführt
werden. Beispielsweise kann eine topologische Verbindung erneuert werden, indem ihr
"Alter", d.h. die Zeitspanne seit ihrer Einführung, auf Null zurückgesetzt wird. Dies
erfolgt im Hinblick auf eine weitere Massnahme, bei der diejenigen topologischen Verbindungen,
deren Alter höher als ein vordefiniertes Maximalalter ist, gelöscht werden. Schliesslich
können Knoten, welche keine topologischen Verbindungen zu einem anderen Knoten aufweisen,
ebenfalls gelöscht werden.
[0051] Zurück zu Figur 2. Nach dem Clustering 16 wird die Information über die identifizierten
Regionen mit ihren Knoten und Standardabweichungen sowie den zugehörigen Blobs als
Topology Map in einem nächsten Verfahrensschritt Feature Extraction 17 weiterverarbeitet.
Im Schritt Feature Extraction 17 wird für jede Region separat die Bewegungsmenge,
d.h. die Summe der Gewichtung aller Blobs dieser Region errechnet. Bei N Regionen
wird daraus ein Bildvektor F der Länge N mit F=(F
1,F
2,F
3,...,F
N) gebildet, indem jeweils die Bewegungsmenge einer Region einer der N Komponenten
von F zugewiesen wird. In diesem Beispiel wird angenommen, dass die Bildsequenz nur
bezüglich diesem einen Feature klassifiziert wird, weshalb dieser Bildvektor auch
gleich dem Featurevektor 9 entspricht.
[0052] Im letzten Verfahrensschritt Classifier 18 wird dieser Featurevektor 9 klassifiziert,
d.h. es wird geprüft, ob die dem Featurevektor 9 entsprechende Bildsequenz 12 des
Überwachungsbereiches eine ordentliche oder eine ausserordentliche Situation im Überwachungsbereich
kennzeichnet.
[0053] Das zu lösende Problem ist also folgendes: Gegeben sind in einem N-dimensionalen
Hyperraum eine Mehrzahl von Punkten bzw. Vektoren, deren Komponenten alle grösser
oder gleich Null sind (man schaut also quasi nur den ersten Quadranten des Hyperraumes
an, weil die Summe der Gewichtung der Blobs einer Region immer grösser oder gleich
Null ist). Gesucht ist ein als ordentlich zu bezeichnendes Gebiet in der Nähe des
Ursprungs, welches begrenzt wird durch eine Art Niveaufläche, wobei die Wahrscheinlichkeit,
dass ein Punkt ausserhalb dieser Niveaufläche liegt, gleich einer vorgegebenen Maximalwahrscheinlichkeit
P* ist. Somit ist die Wahrscheinlichkeit, dass ein Punkt innerhalb der Niveaufläche
liegt 1-P*. Die Niveaufläche ist für einen gegebenen Wert c definiert als der Ort
aller Punkte, für welche eine Wahrscheinlichkeitsdichte-Funktion p(F) den Wert c besitzt.
Zu Bestimmen ist also ein als ordentlich zu bezeichnendes Gebiet des Hyperraumes,
innerhalb dem ein bestimmter Prozentsatz aller Punkte bzw. Vektoren liegt.
[0054] Es wird angenommen, dass die Wahrscheinlichkeitsdichte-Funktion p(F) folgende allgemeine
Form aufweist:

wobei K eine Konstante ist, F
T den transponierten Vektor von F bezeichnet und A eine symmetrische N*N Matrix mit
Elementen grösser oder gleich Null ist. Für eine solche Wahrscheinlichkeitsdichte-Funktion
haben die Niveauflächen die Form

[0055] Für den Fall N=2, d.h. wenn man immer nur 2 Regionen gleichzeitig untersucht, ergibt
sich:

und daraus

mit

[0056] In Abhängigkeit der Koeffizienten a
ij bzw. deren Beziehung untereinander hat die Niveaukurve, welche gebildet wird durch
alle Punkte F=(F
1,F
2), welche die Gleichung (XIII) erfüllen, eine andere Form. Anhand der Kurvenform wiederum
kann eine Aussage über die Korrelation von F
1 und F
2, d.h. die Korrelation von Bewegung innerhalb der beiden Regionen gemacht werden.
[0057] Figur 3 zeigt in einem Diagramm für verschiedene Werte resp. Beziehungen der Koeffizienten
a
ij den Verlauf der 2-dimensionalen "Niveauflächen", d.h. der Niveaukurven, welche das
ordentliche vom ausserordentlichen Gebiet des durch F
1 und F
2 aufgespannten 2-dimensionalen "Hyperraumes" trennen. Auf der Abszisse sind die Werte
für F
1 und auf der Ordinate die Werte für F
2 aufgetragen.
- i) a122 < a11·a22:
- Die entsprechende Niveaukurve 31 ist ein elliptischer Bogen und p(F) definiert eine
2-dimensionale Gaussverteilung. Übertragen auf das reale System heisst das, dass die
beiden Regionen statistisch unabhängig voneinander sind, d.h. die Präsenz von Bewegung
in einer Region beeinflusst die Wahrscheinlichkeit von gleichzeitiger Bewegung in
der anderen Region nicht. (Die genauen Werte der Koeffizienten sind: a11=3; a22=2,5; c=2; a12=0,005.)
- ii) a122 = a11·a22:
- Die entsprechende Niveaukurve 32 ist ein Stück einer Geraden. D.h., dass die Bewegung
innerhalb der beiden Regionen stark korreliert ist. Die beiden Regionen könnten vielleicht
sogar zu einer einzigen Region zusammengefasst werden. (Die genauen Werte der Koeffizienten
sind: a11=3; a22=

; c=2; a12=0,005.)
- iii) a122 > a11 · a22:
- In diesem Fall ist die Niveaukurve 33 ein hyperbolischer Bogen. Die Regionen sind
somit anti-korreliert. Je grösser also die Präsenz von Bewegung in einer Region, desto
kleiner ist die Wahrscheinlichkeit von Bewegung in der anderen Region. (Die genauen
Werte der Koeffizienten sind: a11=3; a22=2,5; c=2; a12=30.)
[0058] Ähnliches lässt sich auch für die Fälle N ≥ 2 herleiten. Um die Sache aber etwas
zu vereinfachen, wird eine weitere Annäherung gemacht. Die N-dimensionale Niveaufläche
p(F) lässt sich approximieren durch die konvexe Hüllkurve der Projektionen von p(F)
auf die Koordinatenflächen. Im vorliegenden Beispiel heisst das: Unter der Annahme,
dass die Vektoren (F
1,F
2,0), (F
1,0,F
3) und (0,F
2,F
3) alle jeweils eine ordentliche Situation (in den Koordinatenflächen) kennzeichnen,
dann kennzeichnet auch der Vektor (F
1,F
2,F
3) im 3-dimensionalen Gebiet eine ordentliche Situation.
[0059] Das vorgängig formulierte Problem das es zu lösen gilt, kann demnach umformuliert
werden zu: Gesucht ist für jedes Paar von Regionen die Niveaukurve in der entsprechenden
Koordinatenebene, welche das Gebiet begrenzt, innerhalb welchem die Punkte bzw. Vektoren
mit der Wahrscheinlichkeit 1-P* zu liegen kommen. Eine brauchbare Approximation der
entsprechenden Gleichung (XII) für p(F) ist

was nichts anderes bedeutet, als dass jeweils unabhängig von den anderen Komponenten
einerseits ein Limit für jede Komponente einzeln und andererseits ein Produktlimit
für das Kreuzprodukt von je zwei Komponenten von F (d.h. für jedes Element der Matrix
X = F·F
T) gefunden werden muss. Die Produktlimits der einzelnen Komponenten werden in der
entsprechenden Zeile und Spalte einer N*N Limit-Matrix, und die Limits für eine Komponente
in der Hauptdiagonalen dieser Limit-Matrix eingetragen (entweder das Limit selber
oder das Quadrat des entsprechenden Limits).
[0060] Liegt der Wert einer neu berechneten Komponente (bzw. dessen Quadrat) oder eines
neu berechneten Kreuzproduktes über dem entsprechenden Wert der aktuellen Limit-Matrix,
wird dieser Wert erhöht um ein bestimmtes Mass dL. Ist die Komponente bzw. das Kreuzprodukt
jedoch kleiner, wird das aktuelle Limit reduziert um P* ·dL. Als Startwert für ein
Limit kann der zuerst berechnete Wert einer Komponente eines Featurevektors bzw. eines
Kreuzprodukts der entsprechenden Komponenten verwendet werden.
[0061] Der eben beschriebene Classifier kann immer dann angewendet werden, wenn das zu klassifizierende
Feature ein Vektor mit nicht-negativen Komponenten ist und es nur zwei Klassen, eine
in der Nähe des Ursprungs des Feature-Raumes und eine für den Rest des Feature-Raumes
gibt, in welche der Vektor eingeteilt werden kann.
[0062] Anstatt die Blobs der Blob-Liste 15 im Schritt Clustering 16 zu verarbeiten, wie
das zur Bildung der Topology Map geschieht, kann die Blob-Liste 15 auch direkt im
Schritt Feature Extraction 17 verarbeitet werden. Es ist auch möglich, dass die Blob-Liste
15 sowohl mit dem Schritt Clustering 16, als auch direkt mit dem Schritt Feature Extraction
17 weiterverarbeitet wird. Dadurch kann eine Bildsequenz 12 anhand der daraus resultierenden
Blobs einerseits als ordentlich oder ausserordentlich erkannt werden und gleichzeitig
kann mit den Blobs dieser Bildsequenz 12 auch gleich eine Adaption der Topology Map
vorgenommen werden.
[0063] Zusammenfassend ist festzustellen, dass es das vorliegende Verfahren erlaubt, ausserordentliche
von ordentlichen Situationen in einem Überwachungsbereich anhand von Bewegungsinformation
zu unterscheiden, indem zunächst eine Mehrzahl von mathematischen Modellen des Überwachungsbereiches
erstellt wird, wobei ein Modell jeweils nur für einen Teil des Überwachungsbereiches
gültig ist und die Situationen anschliessend für jedes Modell separat bzw. für je
ein Paar von Modellen analysiert und beurteilt werden.
1. Verfahren zur Klassifizierung einer Überwachungssituation innerhalb eines Überwachungsbereiches
bezüglich ihrer Normalität anhand einer Bildsequenz, welche zumindest ein Bild der
Überwachungssituation umfasst, dadurch gekennzeichnet, dass aus der Bildsequenz und
aus Informationen über eine Segmentierung des Überwachungsbereiches in zumindest zwei
Segmente ein Featurevektor generiert und die Bildsequenz anhand des Featurevektors
klassifiziert wird, wobei die Segmentierung des Überwachungsbereiches unter Berücksichtigung
dieses Featurevektors neu berechnet wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass aus der Bildsequenz zumindest
ein Featurebild berechnet, aus zumindest einem Featurebild mindestens ein Bildvektor
generiert und der Featurevektor einem Bildvektor gleichgesetzt oder aus zumindest
zwei Bildvektoren zusammengesetzt wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass aus dem Featurevektor
eine Mehrzahl von Teilvektoren extrahiert, für jeden Teilvektor separat ein Klassifizierungsresultat
bestimmt und die Klassifizierung der Überwachungssituation durch eine Verknüpfung
der Klassifizierungsresultate durchgeführt wird.
4. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass das zumindest eine Featurebild
bestimmt wird, indem durch Vergleich zumindest zweier Bilder der Bildsequenz eine
Mehrzahl von Bewegungspunkten gebildet und die Bewegungspunkte mittels Blobbing auf
eine Mehrzahl von eine Position und eine Gewichtung aufweisende Blobs reduziert werden,
die Segmentierung des Überwachungsbereiches erfolgt, indem dieser mittels Clustering
anhand der Blobs in zumindest zwei Regionen unterschiedlicher Bewegungsdichte unterteilt
wird und eine Komponente des entsprechenden Bildvektors gebildet wird als Summe der
Gewichtungen aller Blobs einer Region.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass aus den beiden Bildern ein
Differenzbild berechnet wird, wobei ein Pixel des Differenzbildes bestimmt wird, indem
ein Betrag einer Differenz der entsprechenden Pixel der beiden Bilder gebildet wird
und die Bewegungspunkte denjenigen Pixeln des Differenzbildes entsprechen, deren Wert
eine vorgegebene Schranke übersteigt, dass alle Bewegungspunkte, welche einen vorgegebenen
Abstand zu einem Blob nicht überschreiten, diesem Blob zugewiesen werden und die Position
des Blobs als Schwerpunkt der ihm zugewiesenen Bewegungspunkte und seine Gewichtung
als Grösse eines Rechtecks bestimmt wird, welches durch eine Schnittmenge derjenigen
Zeilen und Spalten des Differenzbildes gebildet wird, die zumindest einen der dem
Blob zugewiesenen Bewegungspunkte enthalten.
6. Verfahren nach Anspruch 4 oder 5, dadurch gekennzeichnet, dass für jede Region ein
Knoten und eine Standardabweichung bestimmt, jeder Blob genau einer Region zugeordnet
und nach einer Zuordnung eines Blobs zu einer Region der Knoten und die Standardabweichung
dieser Region in Abhängigkeit des Blobs, des bisherigen Knotens, der bisherigen Standardabweichung
und der Knoten anderer Regionen neu bestimmt wird.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Zuordnung eines Blobs
zu einer Region erfolgt, indem eine Pseudo-Distanz zwischen dem Blob und dem Knoten
jeder Region bestimmt wird, wobei die Pseudo-Distanz abhängig ist von der Gewichtung
und der Position des Blobs sowie von der Standardabweichung und dem Knoten der Region
und dass der Blob derjenigen Region zugeordnet wird, zu deren Knoten er die kleinste
Pseudo-Distanz aufweist.
8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass in einer Überwachungsphase
eine Situation als ausserordentlich klassifiziert wird, wenn die Pseudo-Distanz eines
Blobs zum Knoten derjenigen Region, der er zugewiesen wurde, eine vorgegebene Maximaldistanz
überschreitet.
9. Verfahren nach einem der Ansprüche 2 bis 8, dadurch gekennzeichnet, dass in einer
Trainingsphase ein Limit für eine Komponente des Featurevektors derart bestimmt wird,
dass ein vorgegebener Prozentsatz aller zuvor berechneten Werte dieser Komponente
kleiner oder gleich dem Limit ist.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass in einer Überwachungsphase
eine Situation als ausserordentlich klassifiziert wird, wenn eine Komponente des Featurevektors
grösser oder gleich dem Limit für diese Komponente ist.
11. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass in einer Trainingsphase
ein Produktlimit für zwei Komponenten des Featurevektors derart bestimmt wird, dass
ein vorgegebener Prozentsatz aller zuvor berechneten Produkte der beiden Komponenten
kleiner oder gleich dem Produktlimit ist und in einer Überwachungsphase eine Situation
als ausserordentlich klassifiziert wird, wenn ein Produkt dieser beiden Komponenten
des Featurevektors grösser oder gleich dem Produktlimit dieser beiden Komponenten
ist.
12. Anwendung des Verfahrens nach einem der Ansprüche 1 bis 11 zur Überwachung eines öffentlich
zugänglichen Bereichs, insbesondere eines Foyers einer Bank.
13. Überwachungsanordnung zur Klassifizierung einer Überwachungssituation innerhalb eines
Überwachungsbereiches bezüglich ihrer Normalität anhand einer Bildsequenz welche zumindest
ein Bild dieser Situation umfasst, dadurch gekennzeichnet, dass die Überwachungsanordnung
zumindest ein Bildaufnahmegerät zur Aufnahme der Bildsequenz, eine Klassifiziervorrichtung
mit einem Bildeingang und einem Klassifizierungsausgang und zumindest eine Alarmvorrichtung
zur Alarmierung einer als ausserordentlich klassifizierten Bildsequenz umfasst, wobei
das Bildaufnahmegerät mit dem Bildeingang der Klassifiziervorrichtung und deren Klassifizierungsausgang
mit der Alarmvorrichtung verbunden ist und die Klassifiziervorrichtung Mittel zur
Generierung eines Featurevektors, zur Segmentierung des Überwachungsbereiches sowie
zur Klassifizierung des Featurevektors bezüglich der Normalität der Bildsequenz aufweist.