(19)
(11) EP 1 087 351 A1

(12) EUROPÄISCHE PATENTANMELDUNG

(43) Veröffentlichungstag:
28.03.2001  Patentblatt  2001/13

(21) Anmeldenummer: 99810863.3

(22) Anmeldetag:  24.09.1999
(51) Internationale Patentklassifikation (IPC)7G08B 13/194
(84) Benannte Vertragsstaaten:
AT BE CH CY DE DK ES FI FR GB GR IE IT LI LU MC NL PT SE
Benannte Erstreckungsstaaten:
AL LT LV MK RO SI

(71) Anmelder: Ascom Systec AG
5506 Mägenwil (CH)

(72) Erfinder:
  • Mattone, Raffaella
    00179 Roma (IT)

(74) Vertreter: Roshardt, Werner Alfred, Dipl.-Phys. 
Keller & Partner Patentanwälte AG Schmiedenplatz 5 Postfach
3000 Bern 7
3000 Bern 7 (CH)

   


(54) Verfahren zur Klassifizierung einer Ueberwachungssituation anhand einer Bildsequenz


(57) Bei einem Überwachungssystem (1) zur Klassifizierung einer Überwachungssituation in einem Überwachungsbereich wird in einem Bild/Feature-Subsystem (2) aus einer mit Hilfe einer Videokamera aufgenommenen Bildsequenz und aus vorgegebenen oder zuvor berechneten Informationen über eine Segmentierung des Überwachungsbereiches ein Featurevektor (9) generiert. Mit einem Klassifizierungs-Subsystem (3) wird die Bildsequenz anhand des Featurevektors (9) bezüglich ihrer Normalität klassifiziert und ein entsprechendes Klassifizierungsresultat über den Klassifizierungsausgang des Überwachungssystems (1) ausgegeben. Für die Verarbeitung nachfolgender Bildsequenzen wird die Segmentierung mit einem Segmentierungs-Subsystem (4) nach jedem ermittelten Featurevektor neu berechnet.




Beschreibung

Technisches Gebiet



[0001] Die Erfindung betrifft ein Verfahren zur Klassifizierung einer Überwachungssituation innerhalb eines Überwachungsbereiches bezüglich ihrer Normalität anhand einer Bildsequenz, welche zumindest ein Bild dieser Situation umfasst.

Stand der Technik



[0002] Bei der sicherheitstechnischen Überwachung von Anlagen und Räumen mittels Videokameras werden die aufgenommenen Bilder auf einem Monitor dargestellt, welcher durch einen Bewacher kontrolliert wird. Um die Kosten der Überwachung möglichst gering halten zu können, werden meistens mehrere Kameras umschaltbar auf einen oder einige wenige gemeinsame Monitore geschaltet. Die Umschaltung von den Bildern einer Kamera zu den Bildern einer anderen Kamera erfolgt dabei in vorgegebenen Zyklen oder selektiv, beispielsweise bei der Entdeckung einer Bewegung.

[0003] Erfolgt keine Umschaltung der Bilder, wird ein Bewacher bei der Überwachung dieser Bilder mit der Zeit unweigerlich ermüden und die Videobilder nur noch oberflächlich oder sporadisch betrachten. Wird indessen bei der Detektion jeder Bewegung auf das jeweilige Videobild umgeschaltet, lässt die Aufmerksamkeit des Bewachers praktisch ebenso schnell nach, da die weitaus überwiegende Mehrheit der detektierten Bewegungen keine Alarmsituation kennzeichnen.

[0004] Aus der WO98/56182 ist ein Verfahren zur automatischen Video-Überwachung bekannt, bei welchem die einzelnen Bilder analysiert und aus einer Vielzahl solcher Bilder ein statistischer "Normal-Wert" gebildet wird. Mittels eines Vergleichs eines aktuellen Bildes mit dem statistischen "Normal-Wert" werden ausserordentliche Situationen erkannt, ohne dass von vornherein festgelegt werden muss, was in einer bestimmten Überwachungssituation als ausserordentlich zu gelten hat.

[0005] Alarmsituationen lassen sich häufig anhand der Bewegung innerhalb des Überwachungsbereiches erkennen. Durch die ungenügende oder gar fehlende Berücksichtigung der Bewegung im Überwachungsbereich können Alarmsituationen nicht oder nur ungenau erkannt werden. Dies hat zur Folge, dass die Umschaltung der Bilder von verschiedenen Kameras entweder zu häufig oder zu selten geschieht. Im ersten Fall ignoriert der Bewacher die Umschaltung schon bald und im zweiten Fall werden Alarmsituationen übersehen.

Darstellung der Erfindung



[0006] Aufgabe der Erfindung ist es, ein Verfahren der eingangs genannten Art anzugeben, mit welchem sich insbesondere eine verlässliche Klassifizierung von Situationen im Überwachungsbereich in ordentliche oder ausserordentliche Situationen durchführen lässt.

[0007] Die Lösung der Aufgabe ist durch die Merkmale des Anspruchs 1 definiert. Gemäss der Erfindung erfolgt die Klassifizierung von Überwachungssituationen innerhalb eines Überwachungsbereiches bezüglich ihrer Normalität anhand einer Bildsequenz, welche zumindest ein Bild der Überwachungssituation umfasst. Aus der Bildsequenz sowie aus Informationen über eine vorgegebene oder berechnete Segmentierung des Überwachungsbereiches in zumindest zwei Segmente wird ein Featurevektor generiert. Anhand dieses Featurevektors wird die Bildsequenz klassifiziert. Unter Berücksichtigung des Featurevektors wird die Segmentierung des Überwachungsbereiches bzw. der Bilder des Überwachungsbereiches neu berechnet und nachfolgende Bildsequenzen mit den neu berechneten Informationen verarbeitet.

[0008] Das erfindungsgemässe Verfahren ermöglicht eine einfache und effiziente Überwachung eines beliebigen Überwachungsbereiches, beispielsweise eines Bankfoyers mit mehreren Schaltern und/oder Geldbezugs-Automaten, indem ausserordentliche Situationen zuverlässiger erkannt, klassifiziert und einem Bewacher signalisiert werden können. Es ist in mehrfacher Hinsicht flexibel, da einerseits die Klassifizierungskriterien nicht von vornherein festgelegt, sondern anhand realer Situationen bestimmt werden und sich damit ändernden Bedingungen anpassen können und andererseits modular implementiert und damit einfach an wechselnde Überwachungssituationen angepasst werden kann.

[0009] Mittels einer beliebigen Anzahl von Bildbearbeitungs-Modulen wird aus der Bildsequenz vorzugsweise eines oder mehrere Featurebilder berechnet. Ein Featurebild wird hinsichtlich einem bestimmten Klassifizierungskriterium, beispielsweise "Ort der registrierten Bewegungen", "Gesamtmenge an Bewegung in einer bestimmten Bildregion" oder "Vorhandensein/Nichtvorhandensein von Kanten in einem Bild" berechnet. Aus einem Featurebild wird anschliessend mit einer ebenfalls beliebigen Anzahl von Featuresammel-Modulen ein sogenannter Bildvektor generiert, welcher eine Mehrzahl von Komponenten umfasst, wobei jede Komponente einen charakteristischen Wert hinsichtlich dem gewählten Feature aufweist.

[0010] Wahlweise können bei der Bildung der Bildvektoren auch die Bildvektoren anderer Featuresammel-Module berücksichtigt werden. Selbstverständlich können auch mehrere Featurebilder zur Generierung eines Bildvektors verwendet werden und/oder ein Featurebild wird bei der Generierung mehrerer Bildvektoren berücksichtigt.

[0011] Die Bildvektoren der verschiedenen Featuresammel-Module werden zum Featurevektor zusammengefügt. Für den Fall, dass nur ein Featuresammel-Modul vorhanden ist, ist der Featurevektor identisch mit dem Bildvektor dieses Moduls.

[0012] Bei einer bevorzugten Ausführungsform der Erfindung wird aus dem Featurevektor vor der Klassifizierung typischerweise eine Mehrzahl von Teilvektoren extrahiert, welche anschliessend jeweils einzeln mit je einem Klassifizierungsmodul klassifiziert werden, indem mit jedem Klassifizierungsmodul ein Klassifizierungsresultat bestimmt wird. Es ist aber auch möglich, dass aus dem Featurevektor nur ein Teilvektor extrahiert wird, der alle Komponenten des Featurevektors enthält, d.h. dass der Featurevektor als Ganzes mit einem einzigen Klassifizierungsmodul klassifiziert wird.

[0013] Sind mehrere Klassifizierungsmodule vorhanden, d.h. werden mehrere Klassifizierungsresultate bestimmt, werden diese Resultate zur Klassifizierung der Bildsequenz bzw. der entsprechenden Überwachungssituation auf geeignete Art und Weise miteinander verknüpft. Typischerweise erfolgt diese Verknüpfung gemäss einem Satz von Regeln, welche auf vorhandenem Wissen basieren.

[0014] In einer bevorzugten Ausführungsform der Erfindung wird ein Featurebild bestimmt, indem zumindest zwei Bilder der Bildsequenz miteinander verglichen werden. Das Resultat dieses Vergleichs besteht aus einer Vielzahl einzelner Bewegungspunkte, welche zunächst einer Datenreduktion unterworfen werden, indem jeweils eine Mehrzahl von Bewegungspunkten gemäss vorgegebenen Kriterien zu sogenannten Blobs zusammengefasst werden. Dieser Vorgang wird Blobbing genannt. Nach der Bearbeitung mehrerer Bilder erhält man also eine "Karte" des Überwachungsbereiches mit einer Vielzahl von Blobs, welche entsprechend der detektierten Bewegungen innerhalb des Überwachungsbereiches verteilt sind. Um einen Blob zu beschreiben, wird aus den zugehörigen Bewegungspunkten eine Art Zentrum, d.h. seine Position und eine Gewichtung berechnet.

[0015] Die Segmentierung erfolgt hierbei vorzugsweise durch Unterteilung des Überwachungsbereiches in zumindest zwei Regionen. Dazu werden die Blobs mit einem Clustering Algorithmus in eine Mehrzahl von Clustern mit jeweils unterschiedlicher aber mehr oder weniger homogener Bewegungsdichte aufgeteilt. Dieses Clustering ermöglicht eine einfachere Klassifizierung der untersuchten Bildsequenz in ordentliche und ausserordentliche Situationen, indem die Erkennung von ausserordentlichen Situationen nicht durch Beurteilung der Gesamtsituation, sondern durch Untersuchung jeweils einer einzelnen bzw. einiger weniger Regionen gleichzeitig erfolgen kann.

[0016] Die Anzahl der Komponenten des Bildvektors eines solchermassen berechneten Featurebildes ist gleich der Anzahl Regionen, die aus dem Clustering resultiert. Eine Komponente wird dabei berechnet als Summe der Gewichtungen aller Blobs einer Region.

[0017] Um aus den beiden zeitlich verschobenen Bildern der Bildsequenz die Bewegungspunkte zu bestimmen, wird vorzugsweise eine Differenz der beiden Bilder berechnet. Jedes Bild besteht jeweils aus einer Vielzahl von Pixeln, welche z.B. von der Auflösung der Videokamera abhängt. Bei einer horizontalen Auflösung von x Pixeln und einer vertikalen Auflösung von y Pixeln ergibt sich eine Gesamtzahl von x*y Pixeln, wobei jedem Pixel ein der Helligkeit des abzubildenden Bildpunktes entsprechender Grauwert zugeordnet ist. Die einzelnen Pixel des Differenzbildes werden berechnet, indem jeweils der Betrag der Differenz der Grauwerte der entsprechenden Pixel der beiden Bilder gebildet wird. Ist diese Differenz verschieden von Null, gilt das entsprechende Pixel des Differenzbildes als Bewegungspunkt. Um das in realen Systemen unvermeidliche Rauschen zu berücksichtigen, kann z.B. festgelegt werden, dass nur diejenigen Pixel des Differenzbildes als Bewegungspunkte gelten, deren Betrag der Differenz grösser als eine vorgegebene Schranke ist.

[0018] Die Kriterien, nach welchen die einzelnen Bewegungspunkte einem Blob zugeteilt werden, leiten sich ab aus dem Abstand eines Bewegungspunktes zum Blob. Ein Bewegungspunkt wird beispielsweise demjenigen Blob zugeordnet, der bereits mindestens einen Bewegungspunkt umfasst, von welchem der neue Bewegungspunkt maximal n Pixel entfernt ist. Ist n gleich 1 heisst das beispielsweise: Ein Blob umfasst alle Bewegungspunkte, welche direkte Nachbarn eines bereits diesem Blob zugeteilten Bewegungspunktes sind.

[0019] Jeder Blob umfasst somit eine Mehrzahl von Bewegungspunkten, aus denen sich seine Position und seine Gewichtung bestimmen lassen. Die Position des Blobs wird vorzugsweise als Schwerpunkt der vom Blob umfassten Bewegungspunkte, und die Gewichtung des Blobs als Grösse eines Rechteckes berechnet, wobei das Rechteck gebildet wird durch horizontale und vertikale Tangenten an den Blob, d.h. durch die Schnittmenge derjenigen Zeilen und Spalten des Bildes, welche zumindest einen Bewegungspunkt dieses Blobs enthalten. Die Gewichtung des Blobs wird somit am Umriss bzw. an der Fläche gemessen und nicht an der Anzahl der Bewegungspunkte. Im letzteren Fall hätte bei identischem Bewegungsverlauf nämlich ein karierter Pullover eine immens grössere Gewichtung als ein uni-farbener Pullover, da er nicht nur an den Rändern des Pullovers, sondern auch auf seiner ganzen Fläche Bewegungspunkte hervorruft. Eine solch ungleiche Gewichtung ist jedoch nicht erwünscht.

[0020] Entscheidend für die weitere Verarbeitung und Auswertung der Daten ist der Clustering Vorgang. Das Clustering hat zum Ziel, Regionen des Überwachungsbereiches bzw. des Differenzbildes zu identifizieren, innerhalb denen die detektierten Bewegungen, d.h. die Blobs, in etwa gleichartig sind. Idealerweise entsprechen diese Regionen realen Teilbereichen des Überwachungsbereiches. Beispielsweise Regionen wie "neben dem Fenster", "vor dem Geldbezugs-Automaten", "bei der Türe" etc. Die Bewegungsdichte, d.h. die Blob-Dichte ist in etwa homogen, wobei jede Region eine spezifische Bewegungsdichte aufweist. Das Resultat des Clusterings ist eine Aufteilung des Überwachungsbereiches in eine Anzahl N von Regionen, wobei N grösser oder gleich eins ist.

[0021] Bei einer bevorzugten Ausführungsform der Erfindung erfolgt die Bildung der Regionen, indem zunächst für jede Region ein Knoten und eine Standardabweichung bestimmt wird. Danach wird jeder Blob gemäss vorgegebenen Kriterien genau einer Region zugeordnet und nach der Zuordnung eines Blobs zu einer Region wird sowohl der Knoten als auch die Standardabweichung dieser Region neu bestimmt. Die Neubestimmung beider Parameter erfolgt in Abhängigkeit des Blobs, d.h. seiner Position und seiner Gewichtung, des bisherigen Knotens, der bisherigen Standardabweichung und der Knoten anderer Regionen.

[0022] Das Kriterium zur Zuordnung eines Blobs zu einer bestimmten Region ist eine Pseudo-Distanz zwischen einem Blob und dem Knoten einer Region. Die Pseudo-Distanz wird vorteilhafterweise berechnet als Funktion der Gewichtung des Blobs, der geometrischen Position des Knotens und des Blobs, d.h. des geometrischen Abstandes des Blobs zum Knoten sowie der Standardabweichung der Region. Vor der Zuordnung wird also zunächst die Pseudo-Distanz von einem Blob zum Knoten jeder Region berechnet und der Blob danach derjenigen Region zugeordnet, zu deren Knoten er die kleinste Pseudo-Distanz aufweist.

[0023] Eine weitere bevorzugte Ausführungsform der Erfindung besteht darin, dass das Verfahren unterteilt wird in eine Trainingsphase und eine Überwachungsphase, wobei sich die beiden Phasen überlappen oder auch mehrere Male abwechseln können.

[0024] Während der Überwachungsphase wird die Auswertung des Featurevektors bzw. eines Teilvektors davon mit einem oder mehreren Klassifizierungsmodulen durchgeführt. Die Auswertung erfolgt entweder mit den Absolutwerten der entsprechenden Komponenten oder mit Werten, die relativ zu anderen Komponenten-Werten berechnet werden. Aufgrund der Klassifizierung der zugrundeliegenden Bildsequenz erfolgt, wenn nötig, eine Signalisierung dieser Bildsequenz als ausserordentlich. Sie wird beispielsweise auf einen von einem Bewacher kontrollierten Bildschirm geschaltet, damit er die entsprechende Situation beurteilen kann, oder die Aufmerksamkeit des Bewachers wird mit beliebigen anderen Mitteln auf die beurteilte Situation gelenkt.

[0025] Vorzugsweise erfolgt eine Klassifizierung eines Teilvektors des Featurevektors, welcher anhand der Pseudo-Distanzen eines Blobs erstellt wurde. Dieses Feature könnte z.B. "Bewegung ausserhalb des normalen Aktivitätsgebietes" genannt werden. Während der Überwachungsphase wird mit einem entsprechenden Klassifizierungsmodul festgestellt, ob die kürzeste Pseudo-Distanz eines Blobs, d.h. die Pseudo-Distanz zum Knoten derjenigen Region, der er zugewiesen wurde, eine vorgegebene Maximaldistanz überschreitet. Trifft dies zu, wird die entsprechende Bildsequenz als ausserordentlich klassifiziert und entsprechend der Weiterverarbeitung der einzelnen Klassifizierungsresultate auch als Alarmsituation signalisiert, wenn dies vorgesehen ist.

[0026] Eine weitere vorteilhafte Klassifizierung betrifft ein Feature "Gesamt-Bewegungsmenge in einer Region". Mit dem entsprechenden Featuresammel-Modul wird während der Trainingsphase für jedes Differenzbild ein Bildvektor generiert. Der Wert einer Komponente wird berechnet als die Summe der Gewichtung aller Blobs einer Region. Mit dem entsprechenden Klassifizierungsmodul wird der zugehörige Teilvektor jedes resultierenden Featurevektors analysiert und für jede Komponente dieses Teilvektors wird ein Limit bestimmt. Dieses Limit wird für jede Komponente (d.h. für jede Region) derart bestimmt, dass ein bestimmter Prozentsatz der bisher berechneten Werte dieser Komponente kleiner oder gleich dem Limit ist. Mit diesen Limits lässt sich eine weitere bevorzugte Klassifizierung realisieren.

[0027] Während der Überwachungsphase wird mit einem Klassifizierungsmodul "Gesamt-Bewegungsmenge in einer einzelnen Region" eine Bildsequenz als ausserordentlich klassifiziert, wenn eine Komponente des resultierenden Featurevektors das Limit dieser Komponente übersteigt.

[0028] Vorzugsweise wird für jedes Kreuzprodukt zweier Komponenten des Featurevektors ebenfalls ein Limit, hier ein Produktlimit bestimmt. Analog zur Bestimmung der Limits für eine einzelne Komponente wird dieses Limit für je zwei Komponenten (d.h. für je zwei Regionen) derart bestimmt, dass ein vorgegebener Prozentsatz aller zuvor berechneten Produkte der beiden Komponenten kleiner oder gleich dem Produktlimit ist. Andererseits wird, wiederum während der Überwachungsphase, mit einem weiteren Klassifizierungsmodul "Gesamt-Bewegungsmenge in zwei Regionen gleichzeitig" eine Bildsequenz als ausserordentlich klassifiziert, wenn das Produkt zweier Komponenten des resultierenden Featurevektors das entsprechende Produktlimit übersteigt.

[0029] Ein weiteres Beispiel für eine Klassifizierungsmöglichkeit wäre ein Modul "statische Objekte", bei welchem die Bildsequenz anhand eines Features "statische Objekte im Überwachungsbereich" klassifiziert wird. Beispielsweise anhand der Zeitspanne, während der ein Objekt als " vorhanden " oder auch "nicht vorhanden" erkannt wird. Dieses Feature könnte z.B. mit dem bereits erwähnten Featuresammel-Modul "Vorhandensein/Nichtvorhandensein von Kanten in einem Bild" generiert werden.

[0030] Indem die Beurteilung der Situationen, d.h. Bildsequenzen, anhand mehrerer Kriterien, z.B. dem Vorkommen von Bewegung an ungewöhnlichen Orten oder anhand der Menge an Bewegung in einer einzelnen Region und/oder in einem Paar von Regionen erfolgt, ermöglicht es das erfindungsgemässe Verfahren, die Erkennung ausserordentlicher Situationen in einem meist komplexen Überwachungsbereich, wo häufig gleichzeitig an verschiedenen Orten korrelierte oder unkorrelierte Bewegung stattfindet, wesentlich zu vereinfachen.

[0031] Angewendet wird das erfindungsgemässe Verfahren beispielsweise bei der Überwachung öffentlich zugänglicher Bereiche wie Schalterhallen oder Fahrgasträumen in öffentlichen Transportmitteln. Es eignet sich insbesondere zur Überwachung eines Foyers einer Bank.

[0032] Eine Überwachungsanordnung zur Durchführung des erfindungsgemässen Verfahrens, d.h. zur Klassifizierung einer Überwachungssituation innerhalb eines Überwachungsbereiches bezüglich ihrer Normalität anhand einer Bildsequenz, umfasst neben mindestens einem Bildaufnahmegerät, wie beispielsweise einer Videokamera, eine Klassifiziervorrichtung mit einem Bildeingang und einem Klassifizierungsausgang sowie eine Alarmvorrichtung. Mit Hilfe der Videokamera, welche mit dem Bildeingang der Klassifiziervorrichtung verbunden ist, werden in beliebigen oder regelmässigen Abständen Bilder des Überwachungsbereiches aufgenommen und an die Klassifiziervorrichtung weitergegeben. Diese weist Mittel zur Generierung eines Featurevektors aus zumindest einem Bild, zur Segmentierung des Überwachungsbereiches sowie zur Klassifizierung des Featurevektors bezüglich der Normalität der entsprechenden Bildsequenz auf. Damit Bildsequenzen, welche als ausserordentlich bzw. abnormal klassifiziert wurden, dem Bewacher auch als solche signalisiert werden können, ist der Klassifizierungsausgang mit der Alarmvorrichtung, beispielsweise einem Monitor zur Darstellung der entsprechenden Situation oder einem Lautsprecher zur Aussendung eines akustischen Warnsignals verbunden.

[0033] Aus der nachfolgenden Detailbeschreibung und der Gesamtheit der Patentansprüche ergeben sich weitere vorteilhafte Ausführungsformen und Merkmalskombinationen der Erfindung.

Kurze Beschreibung der Zeichnungen



[0034] Die zur Erläuterung des Ausführungsbeispiels verwendeten Zeichnungen zeigen:
Fig. 1
Eine schematische Darstellung der generellen Struktur eines erfindungsgemässen Überwachungssystems;
Fig. 2
ein Blockschema des erfindungsgemässen Verfahrens;
Fig. 3
eine schematische Darstellung der Vorgänge beim Clustering und
Fig. 4
ein Diagramm zur Darstellung der Korrelation der Bewegungsmenge in zwei Regionen für verschiedene Parameterwerte.


[0035] Grundsätzlich sind in den Figuren gleiche Teile mit gleichen Bezugszeichen versehen.

Wege zur Ausführung der Erfindung



[0036] Anhand der Figur 1 wird zunächst die generelle Struktur eines erfindungsgemässen Überwachungssystems 1 dargelegt. Dieses besteht aus drei Subsystemen, einem Bild/Feature-Subsystem 2, einem Klassifizierungs-Subsystem 3 und einem Segmentierungs-Subsystem 4. Das Überwachungssystem 1 besitzt einen Bildeingang 5 und einen Klassifizierungsausgang 6. Über den Bildeingang 5 empfängt das Überwachungssystem 1 eine Bildsequenz, welche beispielsweise von einer Videokamera aufgenommen wurde. Im Bild/Feature-Subsystem 2 wird die Bildsequenz mit mehreren Bildbearbeitungs-Modulen 7.1 bis 7.3 verarbeitet und daraus zumindest ein Featurebild pro Bildbearbeitungs-Modul 7.1 bis 7.3 erstellt. Aus den Featurebildern werden daraufhin mit einer Mehrzahl von Featuresammel-Modulen 8.1 bis 8.3 die gewünschten Features aus der Bildsequenz extrahiert und daraus je ein Bildvektor gebildet. Schliesslich werden die einzelnen Bildvektoren zu einem Featurevektor 9 zusammengesetzt, welcher am Ausgang des Bild/Feature-Subsystems 2 ausgegeben wird. Er dient den beiden anderen Subsystemen als Eingang.

[0037] Einerseits wird er vom Segmentierungs-Subsystem 4 zur Segmentierung des Überwachungsbereiches verwendet. Die Segmentierung in eine Mehrzahl von Clustern, d.h. Regionen erfolgt anhand der extrahierten Features mit einem Clustering Algorithmus. Die Information über die Segmentierung des Überwachungsbereiches wird dem Bild/Feature-Subsystem 2 als weiterer Eingang zur Verfügung gestellt. Dieses Subsystem berücksichtigt diese Information bei der Generierung der Featurebilder und des Featurevektors 9.

[0038] Andererseits wird der Featurevektor 9 im Klassifizierungs-Subsystem 3 in einen oder mehrere Teilvektoren zerlegt, wobei die Teilvektoren mit den Bildvektoren des Bild/Feature-Subsystems 2 übereinstimmen können, aber nicht müssen. Jeder Teilvektor wird mit einem eigenen Klassifizierungsmodul 10.1, 10.2, 10.3 ausgewertet und klassifiziert, indem jedes Klassifizierungsmodul 10.1, 10.2, 10.3 ein separates Klassifizierungsresultat produziert. In einer Verknüpfungseinheit 11 werden die Klassifizierungsresultate der einzelnen Teilvektoren des Featurevektors 9 zum Klassifizierungsausgang 6, dem Ausgangssignal des Klassifizierungs-Subsystems 3 verknüpft. Die Verknüpfungseinheit 11 kann aus einer Art UND- oder ODER-Gatter bestehen oder die Klassifizierungsresultate der Klassifizierungsmodule 10.1, 10.2, 10.3 werden nach komplexen, auf Wissen über das Überwachungssystem basierenden, Regeln miteinander verknüpft.

[0039] Anhand einer konkreten Überwachungssituation, nämlich anhand der Überwachung eines Bankfoyers mit einer Videokamera, soll das erfindungsgemässe Verfahren genauer erläutert werden.

[0040] Figur 2 zeigt in einem Blockschema den Verfahrensablauf am Beispiel des Features "Gesamt-Bewegungsmenge". Eine Videokamera liefert die zu verarbeitende Bildsequenz 12, welche jeweils aus zwei Bildern besteht. Jedes Bild der Bildsequenz hat eine optische Auflösung von n1 * n2 Pixeln und die Farben werden als Grauwerte einer bestimmten Auflösung wiedergegeben.

[0041] In einem ersten Schritt Bewegungs-Detektion 13 wird aus jeweils zwei aufeinanderfolgenden Bildern der Bildsequenz 12 ein Featurebild ermittelt. Das Featurebild wird als eine n1 * n2 Bildmatrix dargestellt. Pro Einzelbild werden dazu die Grauwerte der Pixel je in einer n1*n2 Bildmatrix BM1 bzw. BM2 abgespeichert und anschliessend wird eine Differenzmatrix DM der beiden Bildmatrizen gebildet. Hierzu werden die Elemente von DM jeweils als Differenz der entsprechenden Elemente von BM1 und BM2 berechnet. Anschliessend wird das Featurebild, d.h. die Feature-Bildmatrix ermittelt, indem überall dort, wo diese Differenz grösser als Null bzw. grösser als ein bestimmter Schwellwert ist, eine eins und überall sonst eine Null eingetragen wird. Der Schwellwert ist entweder fest einstellbar oder er wird in Abhängigkeit der Bildinformation adaptiert. So erhält man das Featurebild, dessen Elemente jeweils den Wert Null oder Eins aufweisen. Die Matrixelemente mit dem Wert Eins werden als Bewegungspunkte bezeichnet, da sie alle Punkte des Überwachungsbereiches, d.h. Pixel des entsprechenden Bildes, kennzeichnen, bei denen sich der Grauwert zwischen den beiden Bildaufnahme-Zeitpunkten verändert hat.

[0042] In einem weiteren Verfahrensschritt Blobbing 14 werden die einzelnen Bewegungspunkte des Featurebildes zu sogenannten Blobs zusammengefasst. Im vorliegenden Beispiel gehören all jene Bewegungspunkte zu einem bestimmten Blob, welche direkte Nachbarn eines anderen Bewegungspunktes sind, welcher bereits als "zu diesem Blob gehörend" qualifiziert wurde. Mit anderen Worten: Ein Blob ist ein zusammenhängendes Gebiet von Bewegungspunkten (bzw. Matrixelementen der Feature-Bildmatrix), welches auch Löcher, d.h. einzelne oder mehrere Pixel (bzw. Matrixelemente) mit Wert Null, aufweisen kann. Die definierenden Eigenschaften eines Blobs sind seine Position und seine Gewichtung. Die Position eines Blobs wird bestimmt als Schwerpunkt der zum Blob gehörenden Bewegungspunkte. Seine Gewichtung dagegen als Grösse eines Rechtecks, wobei das Rechteck gebildet wird durch horizontale bzw. vertikale Tangenten an den Blob. Für eine Matrix ausgedrückt heisst das: Die Gewichtung eines Blobs entspricht der Grösse der kleinstmöglichen Teilmatrix der Feature-Bildmatrix, welche alle Bewegungspunkte dieses Blobs umfasst. Das Blobbing 14 liefert als Resultat eine Blob-Liste 15, d.h. eine Liste aller Blobs mit der jeweiligen Position und Gewichtung.

[0043] Im nächsten Schritt Clustering 16 werden die einzelnen Blobs zu sogenannten Clustern zusammengefasst. Der Überwachungsbereich wird somit in eine Mehrzahl von Regionen mit einem inneren Zusammenhang segmentiert. Die derart identifizierten Regionen weisen z.B. eine homogene Dichte an Bewegung auf und entsprechen häufig realen Bildbereichen wie etwa einem Bereich "neben dem Fenster" oder "vor dem Geldbezugs-Automaten".

[0044] Das Clustering 16 erfolgt mittels eines inkrementellen Verfahrens. Startpunkt dieses Verfahrens sind zwei Regionen mit je einem Knoten und einer Standardabweichung. Der Knoten wie auch die Standardabweichung sind frei wählbar und können aufgrund gewisser Vorkenntnisse oder aber rein zufällig gewählt werden. Nach dem Blobbing 14 eines Differenzbildes werden die Blobs einzeln für das Clustering berücksichtigt. Dabei wird ein Blob zunächst derjenigen Region zugeordnet, zu deren Knoten, dem sogenannten Siegerknoten, er die geringste Pseudo-Distanz aufweist. Die Pseudo-Distanz zwischen einem Knoten und einem Blob darf jedoch nicht geometrisch als Abstand verstanden werden, sondern als ein Distanzmass, bei dessen Berechnung nicht nur dieser Abstand, sondern auch die Gewichtung des Blobs sowie der Wert der Standardabweichung berücksichtigt werden. Zwischen dem Siegerknoten und einem weiteren Knoten, zu dem der Blob die zweitgeringste Pseudo-Distanz aufweist, wird eine Verbindung eingeführt. Knoten, die derart verbunden sind, werden als Nachbarn bezeichnet. Abhängig von der Position und der Gewichtung des Blobs, vom aktuellen Knoten und der Standardabweichung sowie den Knoten anderer Regionen wird danach der Knoten und die Standardabweichung der Siegerregion neu berechnet.

[0045] Übersteigt die Pseudo-Distanz zwischen dem Blob und dem Siegerknoten eine Maximal-Pseudo-Distanz, wird der Blob als Fehlerblob bezeichnet und es werden zusätzlich zwei Fehlerwerte eingeführt bzw. adaptiert, wenn diese schon existieren. Einerseits ein zu jeder Region gehörender Lokalfehler mit einem Wert und einer Position und andererseits ein Globalfehler, bei dem nur der Wert zählt. Wird der Wert des Globalfehlers zu gross, wird eine neue Region eingeführt, deren Knoten an der Position des Lokalfehlers liegt und dessen Standardabweichung anhand der Fehlerblobs ermittelt wird. Während einer Trainingsphase werden nun die Blobs einer Mehrzahl von Differenzbildern einer nach dem andern für das Clustering berücksichtigt und einer Region zugeordnet, womit sich nach und nach die verschiedenen Regionen herausbilden.

[0046] Das Clustering 16 wird im folgenden anhand der Figur 2 etwas detaillierter erläutert. Dargestellt sind in einem zweidimensionalen Vektorraum zwei bereits identifizierte Regionen 26 und 27 mit je einem Knoten 20 bzw. 21, wobei der Knoten 20 der Region 26 als S bezeichnet wird. Ferner ist der Lokalfehler 22 der Region 26 dargestellt. Er befindet sich an einer Art Schwerpunkt aller bisherigen Fehlerblobs dieser Region 26. Kommt ein neuer Blob 23 X mit Koordinaten (xx,xy) und Gewichtung xg hinzu, wird zunächst je die Pseudo-Distanz d(X,S) vom neuen Blob zu den einzelnen Knoten mit den Koordinaten (sx,sy) berechnet gemäss der Formel

wobei (σxy) die Koordinaten der Standardabweichung der Region 26 sind. (σxy) entsprechen der Standardabweichung in x- bzw. y-Richtung der Pseudo-Distanzen dieser Region 26. Der Blob 23 wird derjenigen Region zugeteilt, zu deren Knoten er die geringste Pseudo-Distanz aufweist. In diesem Fall ist dies die Region 26 mit dem Knoten 20 als Siegerknoten. Zum Knoten 21 weist der Blob die zweitgeringste Pseudo-Distanz auf, weshalb zwischen den beiden Knoten 20 und 21 eine topologische Verbindung 29 eingeführt wird. Danach wird der Knoten 20 und die Varianz σ der Region 26, der Siegerregion, neu berechnet. Der Knoten S 20 wird korrigiert gemäss Formel

wobei εa ein vorgegebener Anziehungskoeffizient und εr ein Abstossungskoeffizient ist, der berechnet wird gemäss Formel

mit

wobei (nx,ny) die Koordinaten eines Nachbarn N des Knotens S sind und mit dem "*" das Skalarprodukt zweier Vektoren bezeichnet wird.

[0047] Die Varianz σ2 der Region 26 wird neu berechnet gemäss Formel

wobei ε ein vorgegebener Korrekturkoeffizient und die Koordinaten (ηxy) berechnet werden gemäss



[0048] Damit erhält man die korrigierte Region 28 mit dem korrigierten Knoten 24. Ist, wie in diesem Beispiel angenommen, die Pseudo-Distanz des Blobs X 23 zum Knoten 20 grösser als die vorgegebene Maximal-Pseudo-Distanz, werden auch die Position LP des Lokalfehlers 22 sowie die Werte LW des Lokal- und GW des Globalfehlers korrigiert. Der Wert beider Fehler wird erhöht um einen Wert D, der berechnet wird gemäss

und die Position LPneu des korrigierten Lokalfehlers 25 wird aus der alten Position LP berechnet gemäss



[0049] Nach einer bestimmten Anzahl von Verfahrenszyklen, d.h. nach einer bestimmten Anzahl verarbeiteter Blobs, wird der Wert GW des Globalfehlers überprüft. Ist er grösser als eine vorgegebene Schranke, wird an der Position desjenigen Lokalfehlers mit dem grössten Wert ein neuer Knoten eingeführt. Die Schranke für den Globalfehler wird beispielsweise bestimmt in Abhängigkeit der angenommenen Gaussverteilungen der Blobs um die Knoten.

[0050] Zwischen den einzelnen Zyklen können beim Clustering auch weitere Massnahmen durchgeführt werden. Beispielsweise kann eine topologische Verbindung erneuert werden, indem ihr "Alter", d.h. die Zeitspanne seit ihrer Einführung, auf Null zurückgesetzt wird. Dies erfolgt im Hinblick auf eine weitere Massnahme, bei der diejenigen topologischen Verbindungen, deren Alter höher als ein vordefiniertes Maximalalter ist, gelöscht werden. Schliesslich können Knoten, welche keine topologischen Verbindungen zu einem anderen Knoten aufweisen, ebenfalls gelöscht werden.

[0051] Zurück zu Figur 2. Nach dem Clustering 16 wird die Information über die identifizierten Regionen mit ihren Knoten und Standardabweichungen sowie den zugehörigen Blobs als Topology Map in einem nächsten Verfahrensschritt Feature Extraction 17 weiterverarbeitet. Im Schritt Feature Extraction 17 wird für jede Region separat die Bewegungsmenge, d.h. die Summe der Gewichtung aller Blobs dieser Region errechnet. Bei N Regionen wird daraus ein Bildvektor F der Länge N mit F=(F1,F2,F3,...,FN) gebildet, indem jeweils die Bewegungsmenge einer Region einer der N Komponenten von F zugewiesen wird. In diesem Beispiel wird angenommen, dass die Bildsequenz nur bezüglich diesem einen Feature klassifiziert wird, weshalb dieser Bildvektor auch gleich dem Featurevektor 9 entspricht.

[0052] Im letzten Verfahrensschritt Classifier 18 wird dieser Featurevektor 9 klassifiziert, d.h. es wird geprüft, ob die dem Featurevektor 9 entsprechende Bildsequenz 12 des Überwachungsbereiches eine ordentliche oder eine ausserordentliche Situation im Überwachungsbereich kennzeichnet.

[0053] Das zu lösende Problem ist also folgendes: Gegeben sind in einem N-dimensionalen Hyperraum eine Mehrzahl von Punkten bzw. Vektoren, deren Komponenten alle grösser oder gleich Null sind (man schaut also quasi nur den ersten Quadranten des Hyperraumes an, weil die Summe der Gewichtung der Blobs einer Region immer grösser oder gleich Null ist). Gesucht ist ein als ordentlich zu bezeichnendes Gebiet in der Nähe des Ursprungs, welches begrenzt wird durch eine Art Niveaufläche, wobei die Wahrscheinlichkeit, dass ein Punkt ausserhalb dieser Niveaufläche liegt, gleich einer vorgegebenen Maximalwahrscheinlichkeit P* ist. Somit ist die Wahrscheinlichkeit, dass ein Punkt innerhalb der Niveaufläche liegt 1-P*. Die Niveaufläche ist für einen gegebenen Wert c definiert als der Ort aller Punkte, für welche eine Wahrscheinlichkeitsdichte-Funktion p(F) den Wert c besitzt. Zu Bestimmen ist also ein als ordentlich zu bezeichnendes Gebiet des Hyperraumes, innerhalb dem ein bestimmter Prozentsatz aller Punkte bzw. Vektoren liegt.

[0054] Es wird angenommen, dass die Wahrscheinlichkeitsdichte-Funktion p(F) folgende allgemeine Form aufweist:

wobei K eine Konstante ist, FT den transponierten Vektor von F bezeichnet und A eine symmetrische N*N Matrix mit Elementen grösser oder gleich Null ist. Für eine solche Wahrscheinlichkeitsdichte-Funktion haben die Niveauflächen die Form



[0055] Für den Fall N=2, d.h. wenn man immer nur 2 Regionen gleichzeitig untersucht, ergibt sich:

und daraus

mit



[0056] In Abhängigkeit der Koeffizienten aij bzw. deren Beziehung untereinander hat die Niveaukurve, welche gebildet wird durch alle Punkte F=(F1,F2), welche die Gleichung (XIII) erfüllen, eine andere Form. Anhand der Kurvenform wiederum kann eine Aussage über die Korrelation von F1 und F2, d.h. die Korrelation von Bewegung innerhalb der beiden Regionen gemacht werden.

[0057] Figur 3 zeigt in einem Diagramm für verschiedene Werte resp. Beziehungen der Koeffizienten aij den Verlauf der 2-dimensionalen "Niveauflächen", d.h. der Niveaukurven, welche das ordentliche vom ausserordentlichen Gebiet des durch F1 und F2 aufgespannten 2-dimensionalen "Hyperraumes" trennen. Auf der Abszisse sind die Werte für F1 und auf der Ordinate die Werte für F2 aufgetragen.
i) a122 < a11·a22:
Die entsprechende Niveaukurve 31 ist ein elliptischer Bogen und p(F) definiert eine 2-dimensionale Gaussverteilung. Übertragen auf das reale System heisst das, dass die beiden Regionen statistisch unabhängig voneinander sind, d.h. die Präsenz von Bewegung in einer Region beeinflusst die Wahrscheinlichkeit von gleichzeitiger Bewegung in der anderen Region nicht. (Die genauen Werte der Koeffizienten sind: a11=3; a22=2,5; c=2; a12=0,005.)
ii) a122 = a11·a22:
Die entsprechende Niveaukurve 32 ist ein Stück einer Geraden. D.h., dass die Bewegung innerhalb der beiden Regionen stark korreliert ist. Die beiden Regionen könnten vielleicht sogar zu einer einzigen Region zusammengefasst werden. (Die genauen Werte der Koeffizienten sind: a11=3; a22=

; c=2; a12=0,005.)
iii) a122 > a11 · a22:
In diesem Fall ist die Niveaukurve 33 ein hyperbolischer Bogen. Die Regionen sind somit anti-korreliert. Je grösser also die Präsenz von Bewegung in einer Region, desto kleiner ist die Wahrscheinlichkeit von Bewegung in der anderen Region. (Die genauen Werte der Koeffizienten sind: a11=3; a22=2,5; c=2; a12=30.)


[0058] Ähnliches lässt sich auch für die Fälle N ≥ 2 herleiten. Um die Sache aber etwas zu vereinfachen, wird eine weitere Annäherung gemacht. Die N-dimensionale Niveaufläche p(F) lässt sich approximieren durch die konvexe Hüllkurve der Projektionen von p(F) auf die Koordinatenflächen. Im vorliegenden Beispiel heisst das: Unter der Annahme, dass die Vektoren (F1,F2,0), (F1,0,F3) und (0,F2,F3) alle jeweils eine ordentliche Situation (in den Koordinatenflächen) kennzeichnen, dann kennzeichnet auch der Vektor (F1,F2,F3) im 3-dimensionalen Gebiet eine ordentliche Situation.

[0059] Das vorgängig formulierte Problem das es zu lösen gilt, kann demnach umformuliert werden zu: Gesucht ist für jedes Paar von Regionen die Niveaukurve in der entsprechenden Koordinatenebene, welche das Gebiet begrenzt, innerhalb welchem die Punkte bzw. Vektoren mit der Wahrscheinlichkeit 1-P* zu liegen kommen. Eine brauchbare Approximation der entsprechenden Gleichung (XII) für p(F) ist

was nichts anderes bedeutet, als dass jeweils unabhängig von den anderen Komponenten einerseits ein Limit für jede Komponente einzeln und andererseits ein Produktlimit für das Kreuzprodukt von je zwei Komponenten von F (d.h. für jedes Element der Matrix X = F·FT) gefunden werden muss. Die Produktlimits der einzelnen Komponenten werden in der entsprechenden Zeile und Spalte einer N*N Limit-Matrix, und die Limits für eine Komponente in der Hauptdiagonalen dieser Limit-Matrix eingetragen (entweder das Limit selber oder das Quadrat des entsprechenden Limits).

[0060] Liegt der Wert einer neu berechneten Komponente (bzw. dessen Quadrat) oder eines neu berechneten Kreuzproduktes über dem entsprechenden Wert der aktuellen Limit-Matrix, wird dieser Wert erhöht um ein bestimmtes Mass dL. Ist die Komponente bzw. das Kreuzprodukt jedoch kleiner, wird das aktuelle Limit reduziert um P* ·dL. Als Startwert für ein Limit kann der zuerst berechnete Wert einer Komponente eines Featurevektors bzw. eines Kreuzprodukts der entsprechenden Komponenten verwendet werden.

[0061] Der eben beschriebene Classifier kann immer dann angewendet werden, wenn das zu klassifizierende Feature ein Vektor mit nicht-negativen Komponenten ist und es nur zwei Klassen, eine in der Nähe des Ursprungs des Feature-Raumes und eine für den Rest des Feature-Raumes gibt, in welche der Vektor eingeteilt werden kann.

[0062] Anstatt die Blobs der Blob-Liste 15 im Schritt Clustering 16 zu verarbeiten, wie das zur Bildung der Topology Map geschieht, kann die Blob-Liste 15 auch direkt im Schritt Feature Extraction 17 verarbeitet werden. Es ist auch möglich, dass die Blob-Liste 15 sowohl mit dem Schritt Clustering 16, als auch direkt mit dem Schritt Feature Extraction 17 weiterverarbeitet wird. Dadurch kann eine Bildsequenz 12 anhand der daraus resultierenden Blobs einerseits als ordentlich oder ausserordentlich erkannt werden und gleichzeitig kann mit den Blobs dieser Bildsequenz 12 auch gleich eine Adaption der Topology Map vorgenommen werden.

[0063] Zusammenfassend ist festzustellen, dass es das vorliegende Verfahren erlaubt, ausserordentliche von ordentlichen Situationen in einem Überwachungsbereich anhand von Bewegungsinformation zu unterscheiden, indem zunächst eine Mehrzahl von mathematischen Modellen des Überwachungsbereiches erstellt wird, wobei ein Modell jeweils nur für einen Teil des Überwachungsbereiches gültig ist und die Situationen anschliessend für jedes Modell separat bzw. für je ein Paar von Modellen analysiert und beurteilt werden.


Ansprüche

1. Verfahren zur Klassifizierung einer Überwachungssituation innerhalb eines Überwachungsbereiches bezüglich ihrer Normalität anhand einer Bildsequenz, welche zumindest ein Bild der Überwachungssituation umfasst, dadurch gekennzeichnet, dass aus der Bildsequenz und aus Informationen über eine Segmentierung des Überwachungsbereiches in zumindest zwei Segmente ein Featurevektor generiert und die Bildsequenz anhand des Featurevektors klassifiziert wird, wobei die Segmentierung des Überwachungsbereiches unter Berücksichtigung dieses Featurevektors neu berechnet wird.
 
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass aus der Bildsequenz zumindest ein Featurebild berechnet, aus zumindest einem Featurebild mindestens ein Bildvektor generiert und der Featurevektor einem Bildvektor gleichgesetzt oder aus zumindest zwei Bildvektoren zusammengesetzt wird.
 
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass aus dem Featurevektor eine Mehrzahl von Teilvektoren extrahiert, für jeden Teilvektor separat ein Klassifizierungsresultat bestimmt und die Klassifizierung der Überwachungssituation durch eine Verknüpfung der Klassifizierungsresultate durchgeführt wird.
 
4. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass das zumindest eine Featurebild bestimmt wird, indem durch Vergleich zumindest zweier Bilder der Bildsequenz eine Mehrzahl von Bewegungspunkten gebildet und die Bewegungspunkte mittels Blobbing auf eine Mehrzahl von eine Position und eine Gewichtung aufweisende Blobs reduziert werden, die Segmentierung des Überwachungsbereiches erfolgt, indem dieser mittels Clustering anhand der Blobs in zumindest zwei Regionen unterschiedlicher Bewegungsdichte unterteilt wird und eine Komponente des entsprechenden Bildvektors gebildet wird als Summe der Gewichtungen aller Blobs einer Region.
 
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass aus den beiden Bildern ein Differenzbild berechnet wird, wobei ein Pixel des Differenzbildes bestimmt wird, indem ein Betrag einer Differenz der entsprechenden Pixel der beiden Bilder gebildet wird und die Bewegungspunkte denjenigen Pixeln des Differenzbildes entsprechen, deren Wert eine vorgegebene Schranke übersteigt, dass alle Bewegungspunkte, welche einen vorgegebenen Abstand zu einem Blob nicht überschreiten, diesem Blob zugewiesen werden und die Position des Blobs als Schwerpunkt der ihm zugewiesenen Bewegungspunkte und seine Gewichtung als Grösse eines Rechtecks bestimmt wird, welches durch eine Schnittmenge derjenigen Zeilen und Spalten des Differenzbildes gebildet wird, die zumindest einen der dem Blob zugewiesenen Bewegungspunkte enthalten.
 
6. Verfahren nach Anspruch 4 oder 5, dadurch gekennzeichnet, dass für jede Region ein Knoten und eine Standardabweichung bestimmt, jeder Blob genau einer Region zugeordnet und nach einer Zuordnung eines Blobs zu einer Region der Knoten und die Standardabweichung dieser Region in Abhängigkeit des Blobs, des bisherigen Knotens, der bisherigen Standardabweichung und der Knoten anderer Regionen neu bestimmt wird.
 
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Zuordnung eines Blobs zu einer Region erfolgt, indem eine Pseudo-Distanz zwischen dem Blob und dem Knoten jeder Region bestimmt wird, wobei die Pseudo-Distanz abhängig ist von der Gewichtung und der Position des Blobs sowie von der Standardabweichung und dem Knoten der Region und dass der Blob derjenigen Region zugeordnet wird, zu deren Knoten er die kleinste Pseudo-Distanz aufweist.
 
8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass in einer Überwachungsphase eine Situation als ausserordentlich klassifiziert wird, wenn die Pseudo-Distanz eines Blobs zum Knoten derjenigen Region, der er zugewiesen wurde, eine vorgegebene Maximaldistanz überschreitet.
 
9. Verfahren nach einem der Ansprüche 2 bis 8, dadurch gekennzeichnet, dass in einer Trainingsphase ein Limit für eine Komponente des Featurevektors derart bestimmt wird, dass ein vorgegebener Prozentsatz aller zuvor berechneten Werte dieser Komponente kleiner oder gleich dem Limit ist.
 
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass in einer Überwachungsphase eine Situation als ausserordentlich klassifiziert wird, wenn eine Komponente des Featurevektors grösser oder gleich dem Limit für diese Komponente ist.
 
11. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass in einer Trainingsphase ein Produktlimit für zwei Komponenten des Featurevektors derart bestimmt wird, dass ein vorgegebener Prozentsatz aller zuvor berechneten Produkte der beiden Komponenten kleiner oder gleich dem Produktlimit ist und in einer Überwachungsphase eine Situation als ausserordentlich klassifiziert wird, wenn ein Produkt dieser beiden Komponenten des Featurevektors grösser oder gleich dem Produktlimit dieser beiden Komponenten ist.
 
12. Anwendung des Verfahrens nach einem der Ansprüche 1 bis 11 zur Überwachung eines öffentlich zugänglichen Bereichs, insbesondere eines Foyers einer Bank.
 
13. Überwachungsanordnung zur Klassifizierung einer Überwachungssituation innerhalb eines Überwachungsbereiches bezüglich ihrer Normalität anhand einer Bildsequenz welche zumindest ein Bild dieser Situation umfasst, dadurch gekennzeichnet, dass die Überwachungsanordnung zumindest ein Bildaufnahmegerät zur Aufnahme der Bildsequenz, eine Klassifiziervorrichtung mit einem Bildeingang und einem Klassifizierungsausgang und zumindest eine Alarmvorrichtung zur Alarmierung einer als ausserordentlich klassifizierten Bildsequenz umfasst, wobei das Bildaufnahmegerät mit dem Bildeingang der Klassifiziervorrichtung und deren Klassifizierungsausgang mit der Alarmvorrichtung verbunden ist und die Klassifiziervorrichtung Mittel zur Generierung eines Featurevektors, zur Segmentierung des Überwachungsbereiches sowie zur Klassifizierung des Featurevektors bezüglich der Normalität der Bildsequenz aufweist.
 




Zeichnung













Recherchenbericht