Academia.eduAcademia.edu

Extraktion von Personen in Videobildern

1995

Die vorliegende Arbeit beschreibt ein System, das Personen aus Videobildern extrahiert. Die Bilder einer fest installierten Kamera werden analysiert. Über eine Hintergrundschätzung mit anschliessender Differenzbildberechnung werden alle veränderten Bereiche im Bild gefunden. Aus diesen Vordergrundbereichen werden Merkmale extrahiert und anhand eines Personenmodells analysiert, das aus Kopf, Schultern, Oberkörper und Armen besteht. Die Suche nach Personen erfolgt sowohl Vordergrundbereichen werden Merkmale extrahiert und anhand eines Personenmodells analysiert, das aus Kopf, Schultern, Oberk orper und Armen besteht. Die Suche nach Personen erfolgt sowohl daten-, als auch modellgetrieben. Das System leistet auf Standard-UNIX Systemen ohne Spezial-Hardware eine schritthaltende Erkennung der Personen.

Extraktion von Personen in Videobildern K. Huggle W. Eckstein Technische Universitat Munchen Institut fur Informatik { Lehrstuhl Prof. Dr. B. Radig fhuggle,[email protected] Zusammenfassung Die vorliegende Arbeit beschreibt ein System, da Personen aus Videobildern extrahiert. Die Bilder einer fest installierten Kamera werden analysiert. U ber eine Hintergrundschatzung mit anschliessender Dierenzbildberechnung werden alle veranderten Bereiche im Bild gefunden. Aus diesen Vordergrundbereichen werden Merkmale extrahiert und anhand eines Personenmodells analysiert, das aus Kopf, Schultern, Oberkorper und Armen besteht. Die Suche nach Personen erfolgt sowohl daten-, als auch modellgetrieben. Das System leistet auf Standard-UNIX Systemen ohne Spezial-Hardware eine schritthaltende Erkennung der Personen. 1 Einleitung In der Arbeit wird ein System beschrieben, das in den Bildern einer Videokamera Personen aufndet. Sie stellt die Grundlage fur ein Ausstellungsobjekt im Deutschen Museum, in der Abteilung fur Informatik in Munchen dar. Das Ausstellungsobjekt, bestehend aus einer Videokamera, einem Computer und einem Bildschirm, erkennt im Raum stehende oder gehende Personen und markiert sie im dargestellten Videobild auf dem Monitor. Weitere Einsatzgebiete fur ein solches System sind z.B. die U berwachung von Verkehrszenen HOG87] ROHR], oder Sicherungsaufgaben, wie sie bei der U berwachung von Aufzugen oder Warteschlangen anfallen konnen. Das Personenmodell mu dabei auf die jeweilige Aufgabe angepa t werden. Das System mu fahig sein, auch Personen zu nden, die uber einen langeren Zeitraum vor der Kamera verweilen oder nur mit dem Oberkorper im Bild erscheinen. Fur die Losung dieser Aufgabe haben sich der Kopf und die Schultern als sichere Erkennungsmerkmale herausgestellt. Auch der Oberkorper selbst und, eingeschrankt, die Arme konnen fur die Erkennung herangezogen werden. Die Suche nach Personen erfolgt sowohl daten- als auch modellgetrieben. Im ersten Schritt wird aus der bisherigen Bildfolge mit Hilfe eines Kalman-Filters ein Hintergrundbild berechnet. Aus dem Di erenzbild zwischen Eingabe- und Hintergrundbild wird eine Vordergrundregion berechnet, die alle sich veranderten Bildbereiche enthalt. Innerhalb dieser Vordergrundregion wird nach potentiellen Kopfen gesucht. Hierzu konnen die Umri linien (Rand der Vordergrundregion) oder die Kanten innerhalb der Vordergrundregion herangezogen werden. Ausgehend von den gefundenen Kopfen werden die Merkmale des Menschen anhand des erstellten Personenmodells gesucht. Diese Merkmale sind die Schultern, der Oberkorper und die Arme. Das Modell wird durch die Suchergebnisse Abbildung1. Kanten des HoggModells Abbildung2. Typische Haltung einer Person weiter verfeinert, bis das Vordergrundobjekt spater als Mensch akzeptiert oder verworfen werden kann. Fur eine sichere Erkennung der Personen sind einige Randbedingungen zu erfullen: { Die Personen durfen sich nicht gegenseitig verdecken und mussen hinreichend gro im Bild erscheinen. { Die Personen mussen mit gesamten Kopf und Oberkorper im Bild erscheinen. { Die Kontur des Kopfes darf nicht durch eine Kopfbedeckung, wie z.B. einen Hut oder eine auffallige Frisur "entstellt\ sein. { Die Videokamera mu fest installiert sein, der Bildausschnitt darf sich nicht verandern und die Lichtverhaltnisse durfen sich nur langsam andern. Das System ist in der bisherigen Implementierung mit dem Bildverarbeitungssystem HORUS ECK93] dank der Hintergrundschatzung uber das KalmanFilter auf beliebige Aufnahmesituationen ubertragbar, solange die aufgefuhrten Randbedingungen eingehalten werden. 2 Das Modell Ausgehend vom Modell von D. Hogg HOG87] wird das in dieser Arbeit verwendete Personenmodell entwickelt. Hoggs Korpermodell basiert auf dreidimensionalen, geometrischen Primitiven, die aus Zylindern unterschiedlicher Lange und Durchmesser bestehen. Der Oberkorper wird z.B. durch einen Zylinder im Verhaltnis H ohe : Breite : Tiefe von 7 : 2 : 1 reprasentiert. Ein Arm wird durch drei Zylindern aufgebaut, je einer fur Oberarm, Unterarm und die Hand. Fur jedes Korperteil im Hogg-Modell werden im Bild zwei parallele Kanten gesucht (siehe Abb. 1). Die Suche nach den Kanten erfolgt in geeigneten Suchraumen um die Rander des entsprechenden Zylinders. Im Projekt Deutsches Museum\ sind die Personen gro teils nur mit dem Oberkorper im "Bild zu sehen. Die Suche nach Beinen scheidet daher aus. Die Personen bleiben vor der Kamera stehen, daher sind die Arme nicht standig in Bewegung. Erschwerend kommt noch hinzu, da sie auch am Korper anliegen oder vor dem Korper verschrankt sein konnen. Einerseits werden sie dann nicht erkannt, andererseits verandern sie gleichzeitig das Aussehen des Oberkorpers. Damit scheiden die Arme als sicheres Kriterium zur Personenerkennung aus. Abb. 2 zeigt ein typisches Bild der Aufnahmesituation. Das Hogg-Modell kann daher hier nicht unverandert angewendet werden, da es die Arme und Beine als sichere Erkennungsmerkmale bei gehenden Personen verwendet. Unter diesen Gegebenheiten sind der Kopf, die Schultern und der Oberkorper die sichersten Kriterien zur Personenerkennung. Das in dieser Arbeit entwickelte, zweidimensionale Modell besteht aus folgenden Korperteilen: { Der Kopf, durch eine Ellipse modelliert. { Die Schultern, durch Geraden unterschiedlicher Winkel modelliert. { Der Oberkorper, durch ein Rechteck modelliert. { Die Arme, durch je ein Rechteck modelliert. 3 Erkennungsstrategie Die ersten Schritte der Objektsuche erfolgen datengetrieben, da keine Informationen uber die Position von moglichen Personen vorliegen. Der Vordergrund wird mit einem Kalman-Filter RID95] vom Hintergrund getrennt, indem das aktuelle Eingabebild vom Hintergrundbild abgezogen wird. Alle Pixel mit einer Intensitat oberhalb einer vorgegebenen Schwelle werden in die Vordergrundregion ubernommen. Sie wird anschlie end morphologisch bearbeitet: kleine Locher werden mit einem closing geschlossen, kleine, freistehende Bereiche der Region mit einem opening entfernt und die entstandene Region um wenige Pixel vergro ert. Der Korperumri liegt dann sicher innerhalb der Vordergrundregion. Anhand dieser Vordergrundregion und den Bildinformationen werden die Kopfe der Personen gesucht. Die darauf folgenden Schritte erfolgen modellgetrieben. Anhand aller im Bild gefundenen potentiellen Kopfe werden basierend auf dem Korpermodell die Schultern, der Oberkorper und die Arme gesucht. Die gefundenen Korperteile werden dem Modell entsprechend verknupft und interpretiert. In Abb. 3 ist der Ablauf der Personenerkennung schematisch beschrieben. 4 Kalman-Filter Die Implementierung des Kalman-Filters erfolgte nach dem Ansatz von Karmann und v. Brandt KAR90]. Aufgabe des Filters ist es, aus den bisherigen Eingabebildern ein Hintergrundbild zu berechnen. Objekte die sich im Vordergrund benden sollen nur langsam, gleichzeitig aber die Bereiche im Eingabebild, die den Hintergrund darstellen, schnell in das Hintergrundbild ubernommen werden. Grauwertanderungen, durch langsame Beleuchtungsanderungen hervorgerufen, sind im allgemeinen sehr gering im Vergleich zu den A nderungen, die durch bewegte Objekte entstehen. Diese Tatsache wird vom Kalman-Filter zur Trennung sich bewegender Objekte vom Hintergrund genutzt. Anhand der vorherigen Abbildung3. Ablauf der Personenerkennung Me gro en, den Grauwerten in den Pixel bis zum Zeitpunkt t wird der Grauwert des Pixel im nachsten Bild vorausgeschatzt und daraus eine Vorhersage des neuen Grauwertes im Bild berechnet. Weicht diese Vorhersage nur geringfugig von dem Me wert zum Zeitpunkt t +1 ab, dann wird das Pixel als Hintergrund deniert und schnell in das Hintergrundbild aufgenommen. Liegt die Abweichung oberhalb einer vorgegebenen Schwelle wird es als Vordergrund interpretiert und nur langsam in das Hintergrundbild ubernommen. Eine genaue Beschreibung des hier verwendeten Algorithmus kann bei RID95] nachgelesen werden. i i 5 Suche nach den K opfen Eine erfolgreiche Suche nach Kopfen im Eingabebild ist entscheidend fur die Personenerkennung, da anhand der Kopfposition nach weiteren Personenmerkmalen gesucht wird. Alle weiteren Suchalgorithmen werden fur jeden potentiellen Kopf aufgerufen. Ein falschlicherweise im Bild gefundener Kopf wird im Verlauf der weiteren Suche verworfen, sofern keine weiteren Personenmerkmale gefunden werden konnen. Zwei Ansatze sind moglich: Die Suche anhand der Kanten innerhalb der Vordergrundregion oder die Suche anhand der Kontur der Vordergrundregion. Die Suche erfolgt jeweils datengetrieben. 5.1 Suche anhand von Bildkanten Hebt sich der Kopf deutlich vom Hintergrund ab, kann sein Umri durch Bildkanten gefunden werden. Selbst wenn die Vordergrundregion, z.B. durch interpretieren des Objektschattens als Vordergrund, entstellt ist, kann hier noch eine Erkennung erfolgen. Abbildung4. Abbildung5. Alle Kan- Abbildung6. Kanten nach nonmaxi- ten aus Bild 4 mit einer Kanten im Kopfbereich nach mumsuppression Amplitude uber 20 Konturschlu / -bereinigung Die Bildkanten und die Kantenrichtungen im Eingabebild werden innerhalb der Vordergrundregion mit einem Sobellter berechnet und mit einer nonmaximum-suppression verdunnt (siehe Abb. 4). Mit einer Schwellwertoperation (siehe Abb. 5) werden die starkeren Kanten ausgewahlt. Soweit moglich, werden kleine Lucken zwischen den Kanten geschlossen und kurze Kanten entfernt. Anschlie end werden die Rander der Vordergrundregion mit einer Kreismaske mit dem Radius der halben Kopfbreite erodiert. Die Mittelpunkte verschiedener Templates werden uber diese Vordergrundregion verschoben und die Kanten innerhalb der Templates analysiert. Objektsuche In allen weiteren Bearbeitungsschritten werden nur die Kanten, das Kantenrichtungsbild und die erodierte Vordergrundregion benotigt. Zwei ovale Templates T1 und T2 werden im weiteren verwendet (siehe Abb. 7 und 8). Abbildung7. Template T1 fur die Suche nach Kanten in dem gesamten Kopfbereich Abbildung8. Template T2 fur die Suche nach Kanten in dem oberen Kopfbereich Beide Templates werden mit ihrem Mittelpunkt im Bereich der erodierten Vordergrundregion uber die Kantenregion geschoben. Liegt mindestens eine vorgegebene Anzahl von Kantenpunkten, abhangig von der Gro e des gesuchten Kopfes, innerhalb der Templates, werden die Kanten weiter untersucht (siehe Abb. 6). Analyse der Kanten Es werden nur diejenigen Kanten weiter untersucht, die im oberen Ellipsenbereich liegen. Folgende Kriterien mussen erfullt sein: { Die mittlere Kantenrichtung in T1 mu in einem vorgegebenen Bereich liegen. { Die mittlere Kantenrichtung mu bei 90 5 Grad liegen. Ist dieses Kriterium nicht erfullt, wird der Kopf verworfen. Mit diesem Kriterium konnen ohne gro en Rechenaufwand Bereiche verworfen werden, in denen die Kanten keiner Ellipse ahneln. Die Entfernung der Kantenpunkte in T2 zu den Brennpunkten der Ellipse mu in einem vorgegebenen Bereich liegen. Aus den Entfernungen jedes Kantenpunktes zu den Brennpunkten der Ellipse wird die Varianz des Fehlers zur optimalen Ellipse berechnet. Ist die Varianz kleiner als eine vorgegebene Schwelle T wird der Kopf akzeptiert. Diese Schwelle erhoht sich, je ofter der Kopf gefunden wurde. Die dazu notigen Informationen weren uber eine Objekthistorie bereitgestellt. Die Varianz wird uber die Entfernungen f 1 und f 2 jedes Kantenpunktes zu den Brennpunkten f1 und f2 berechnet: (E = Zeile Ellipse, E = Spalte Ellipse, r1 und r2 Hauptachsenradien der Ellipse)  Fehler ! der Entfernung zur optimalen Ellipse ! = j2  r1 ; (f 1 + f 2 )j  Quadrat  2 der Summe  aller Fehler ! X 2 = (2  r1 ; (f 1 + f 2 ))2 zs zs z s zs zs n ! zs zs =1 i  Varianz  des Fehlers ! s   2  = n1  2 ; (n+)1 ! ! Aus der Varianz  des Fehlers und der Anzahl der Kantenpunkte im Bereich T1 und T2 wird ein Gutefaktor  fur diesen Kopf berechnet:  = jKantenpunkte in T2j +5 5 jKantenpunkte in T1j Die Maske wird uber jeden Punkt in der Vordergrundregion geschoben. Daher kann ein Kopf mehrfach gefunden werden. Es wird jedoch nur der Kopf mit dem besten Gutefaktor  weiter betrachtet. Uberarbeiten der Objekthistorie Die Koordinaten aller Kopfe werden in eine Objekthistorie eingetragen bzw. die Daten der darin bereits enthaltenen Kopfe aktualisiert. Diese Objekthistorie nimmt fur alle gefundenen Kopfe die Koordinaten des Kopfmittelpunktes, ein Gutefaktor  des Kopfes K , der Zeitpunkt, zu dem der Kopf zuletzt gefunden wurde und in wievielen Bildern er bisher gefunden wurde auf. Der Gutefaktor  berechnet sich aus der Anzahl K K der Bilder, in denen der Kopf bisher gefunden und vor wievielen Bildern der Kopf zuletzt gefunden wurde. Wurde der Kopf K im aktuellen Bild gefunden, dann wird K erhoht, ansonsten erniedrigt. Wurde er in den letzten funf Bildern nicht gefunden, wird er aus der Historie entfernt. In den Bereichen, in denen bereits ein Kopf gefunden wurde, wird K auf die Schwelle T addiert. Kopfe, die bereits uber einen langeren Zeitraum gefunden wurden werden eher erkannt, selbst wenn sie kurzfristig starker von den Vorgaben abweichen, d.h.  oberhalb der vorgegebenen Schwelle liegt. Jeder Kopf mu mindestens in zwei aufeinanderfolgenden Bildern gefunden werden, damit er in die Historie eingetragen wird. Dadurch wird verhindert, da falsch gefundene Kopfe sofort ubernommen werden. 5.2 Suche anhand der Konturinformationen In diesem alternativen Verfahren werden die Kopfe im Eingabebild nicht anhand der Kanteninformationen, sondern anhand der Kontur der Vordergrundregion gesucht. Dies setzt eine optimale Trennung von Vorder- und Hintergrund voraus. Aus der Vordergrundregion wird das Skelett und die Kontur berechnet. Es wird davon ausgegangen, da der Mittelpunkt eines Kopfes nur auf dem Skelett der Vordergrundregion liegen kann. Von allen Skelettzweigen werden die letzten 2 RadiusKopf Pixel betrachtet, da angenommen wird, da ein Kopf immer nur an einem oberen Ende einer Vordergrundregion liegt. Daher werden nur die Skelettzweige weiter betrachtet, die oberhalb des Schwerpunktes der Region liegen. Der Suchbereich fur einen Kopf wird dadurch betrachtlich eingeschrankt. Die einzelnen Templates werden mit ihren Mittelpunkten entlang der Skelettzweige verschoben und das Template herausgesucht, in das die Kontur am besten eingepa t werden kann. Der Ansatz setzt folgende Heuristiken ein: { Der Kopf ist immer im oberen Bereich einer Vordergrundregion. { Die Anzahl der Pixel im oberen Kopfbereich mu mindestens 30% des Ellipsenumfangs betragen.  5.3 Vergleich beider Ansatze Bei den gestellten Bedingungen, eine aufrecht vor der Kamera stehende, unverdeckte Person zu erkennen, arbeiten beide Ansatze stabil. Der erste Ansatz liefert gute Ergebnisse, auch wenn die Vordergrundregion nicht optimal berechnet wurde. Jedoch benotigt er deutlich mehr Rechenzeit als der zweite Ansatz, im Mittel funfmal so viel. Bei einer korrekten Trennung des Vordergrundes vom Hintergrund liefert der zweite Ansatz ebenfalls gute Ergebnisse. Mit deutlich weniger Rechenzeit ist er jedoch fur eine on-line Bearbeitung von Bildern besser geeignet. Es ist dann auch ohne spezieller Hardware eine schritthaltende Analyse moglich. Abbildung9. Kanten Abbildung10. Win- Abbildung11. und Suchraum der Schul- kelverhaltnis der oberen Verbindung zwischen tern Schulterbereiche den Schultergeraden 6 Suche nach den Schultern Anhand der Position aller gefundenen Kopfe werden die Schultern gesucht. Sowohl die Schultersuche, als auch die Suche nach den Armen und dem Oberkorper erfolgen modellgetrieben. Durch die Ergebnisse wird das Korpermodell weiter verfeinert. Die entwickelten Verfahren arbeiten dabei sowohl mit Bildkanten, als auch mit den Konturdaten der Vordergrundregion. Suchbereich Fur jede Kopfhypothese werden zwei rechteckige Suchraume fur die rechte und linke Schulter aufgespannt. Die Gro e und Lage der Suchraume berechnet sich aus der Position und dem Radius des Kopfes. Nur die Kanten, die innerhalb der Suchraume liegen werden analysiert. Im folgenden wird nur die Suche nach der rechten Schulter exemplarisch beschrieben. In Abb. 9 sind der Kopf, die Suchraume fur beide Schultern und die darin enthaltenen Kanten dargestellt. Die Geraden innerhalb eines Suchbereiches werden in drei Winkelbereiche eingeteilt, z.B. 160 210], ]210 240] und ]240 280] Grad fur die rechte Schulter. Eine Schulter ist aus mindestens zwei Geraden aus verschiedenen Winkelbereichen aufgebaut. Der Winkelbereich 160 210] stellt die obere Begrenzung der Schulter (Schlusselbein) dar, die anderen Bereiche den Arm in unterschiedlichen Stellungen. Die Einteilung in drei Winkelbereiche ist ein optimaler Kompromi bezuglich Genauigkeit und Schnelligkeit in der Analyse. ::: ::: ::: ::: Analyse der Kanten im Schulterbereich Die Kanten innerhalb des oberen Winkelbereiches beider Schultern werden miteinander verglichen. Als Bezugsgro e wird die Gro e des Kopfes Kopf verwendet. Folgende Kriterien mussen erfullt sein, damit die Geraden als Teil einer Schulter akzeptiert werden: { Beide Kanten mussen mindestens Kopf 4 lang sein. { Die Gerade im oberen Winkelbereich der rechten Schulter und die Gerade des oberen Schulterbereiches der linken Schulter liegen etwa auf der selben Hohe. Die Zeilen der Geradenanfange unterscheiden sich um maximal Kopf 3, die Winkel der Geraden zur x-Achse um maximal 10 Grad (siehe Abb. 10). B B = B = Innerhalb einer Schulter wird die Lage der Geraden unterschiedlicher Winkelbereiche verglichen: { Die Endpunkte beider Geraden liegen hochstens max(4 Kopf 4) Punkte voneinander entfernt (siehe Abb. 11). { Liegen zwei Geraden mit ihren Endpunkten nahe genug zusammen, dann mu die Zeile des zweiten Endpunktes der unteren Geraden gro er sein als der Endpunkt der oberen Geraden. Dadurch werden Geraden die nach oben zeigen ausgeschlossen. Anhand eines berechneten Gutefaktors kann die Qualitat der Schultererkennung bestimmt werden. B = 7 Suche nach dem Oberkorper und den Armen Das Modell ist durch den Kopf und die Schultern teilinstantiiert, die Person wird bereits gut durch das Modell beschrieben. Basierend auf dem teilinstantiierten Modell werden der Oberkorper und die Arme gesucht. Die Ansatze arbeiten sowohl mit Bildkanten als auch mit den Konturdaten der Vordergrundregion. 7.1 Oberkorper Es werden zwei rechteckige Suchbereiche fur die linke bzw. rechte Korperhalfte aufgespannt. Die Position und Gro e der Suchbereiche ist abhangig von Kopfund Schulterposition. Es werden nur Geraden (Kanten oder Konturdaten) mit einer minimalen Lange innerhalb der Suchbereiche betrachtet. Dabei werden Geraden aus dem Suchbereich der rechten Korperhalfte mit den Geraden aus dem Suchbereich der linken Korperhalfte paarweise verglichen. Die Geraden mussen im Winkelbereich von 75 105] Grad zur x-Achse liegen. Dieser gro e Winkelbereich ist notwendig, da die Silhouette durch anliegende oder verschrankte Arme stark verandert sein kann. In folgenden Fallen wird der Oberkorper akzeptiert: { Die Langen der Geraden betragen jeweils mindestens 50% der vorhergesagten Korperlange, die sich aus der Kopfgro e berechnet. { Das Geradenpaar aus den beiden Korperhalften ist zusammen mindestens so lang wie die vorhergesagte Korperlange. Beide Geraden weisen zusatzlich eine Lange von mindestens 20% der vorhergesagten Korperlange auf. Der zweite Fall ist weniger streng, da hier eine Seite weniger gut erkannt werden mu . Dies erhoht die Erkennungssicherheit besonders bei kontrastarmen Bildern oder Bildern, in denen der Schatten des Objektes den Kontrast und damit die Korperkante auf einer Seite vermindert. ::: 7.2 Arme Es werden Suchraume aufgespannt, in denen nach (nahezu) parallelen Kantenpaaren gesucht wird. Im Gegensatz zu den Schultern und dem Oberkorper Abbildung12. Ansatzpunkt des Armes an der Schulter Abbildung13. U berlappungsbereich der Geraden konnen die Suchraume jedoch nicht nur von der Kopfposition abhangig gemacht werden. Es mu erst nach signikanten Kanten gesucht werden, die Ruckschlusse auf einen moglichen Arm zulassen. Die signikanten Geraden, anhand derer eine Vorhersage uber mogliche Arme gemacht werden kann, werden in Suchraumen um die Schultern ermittelt. Deren Position wird aus den Daten der Schultersuche und der Kopfposition und Kopfgro e berechnet. Alle Geraden im Suchraum, die folgende Kriterien erfullen, werden fur die Erzeugung der eigentlichen Suchraume der Arme herangezogen: { Die Gerade ist mindestens so lang wie die Kopfbreite. { Die Zeile des Geradenbeginns weicht von der Zeile der Schulter maximal um die Kopfhohe ab. Die Winkel aller Geraden, die obige Kriterien erfullen, werden ausgewahlt. Der neue Suchbereich besteht aus einem Rechteck, dessen Hohe und Breite sich aus dem Kopfdurchmesser berechnet und dessen Hauptachse den Winkel zur x-Achse aufweist. Der Suchbereich setzt am Schultergelenk an (siehe Abb. 12). Die Geraden innerhalb eines Suchraumes mussen folgende Kriterien erfullen, um als Arm akzeptiert zu werden: { Die Lange beider Geraden im Geradenpaar entspricht mindestens der Kopfbreite. { Die Geraden im Parallelenpaar uberlappen sich zu mindestens 50% (siehe Abb. 13). Fur jeden erkannten Arm wird ein Wert fur die Gute der Erkennung berechnet. 8 Verkn upfung der Ergebnisse Bild 14 zeigt ein Beispiel fur eine gut erkannte Person. Im Bild 15 werden die zwei Personen hingegen nur teilweise erkannt. Sie heben sich nur wenig vom Hintergrund ab und sind sehr klein im Bild. Daher werden die Umrisse nur ungenau erkannt. Innerhalb der Personen werden viele Kanten gefunden (siehe Abb. 16), die wiederum das Ergebnis beeintrachtigen. Anhand der Gutezahlen aus der Erkennung von Schultern, Oberkorper und Armen kann die Gute der Erkennung der Person berechnet werden. Die Suche Abbildung14. Modell einer erkannten Person Abbildung15. Mo- delle zweier teilweise erkannter Personen Abbildung16. Kanten aus Bild 15 nach den Schultern, dem Oberkorper und den Armen kann sowohl mit Bildkanten, als auch mit der Kontur der Vordergrundregion erfolgen. Werden die entsprechenden Routinen zweimal aufgerufen (einmal mit Bildkanten, einmal mit der Kontur der Vordergrundregion), kann die Sicherheit der Erkennung deutlich erhoht werden. Die Ergebnisse werden dann den Aufnahmebedingungen entsprechend verknupft. In Versuchen zeigte sich, da bei einer guten Trennung von Vordergrund / Hintergrund die Ergebnisse aus der konturbasierten Suche mit 70%, die aus der kantenbasierten Suche mit 30% gewichtet werden sollten. In bisheriger Implementierung mit dem Bildanalysesystem HORUS ECK93] ist das System trotz Verzicht auf Spezial-Hardware schritthaltend. Die Geschwindigkeit der Bildbearbeitung ist stark von der Gro e der Vordergrundregion abhangig, da alle folgenden Routinen auf dieser Vordergrundregion arbeiten. Es kann somit kein allgemeingultiger Zeitbedarf pro Bild angegeben werden. Im Mittel la t sich jedoch feststellen, da pro Sekunde 5 bis 8 Bilder auf einer HP Workstation, Modell 720 bearbeitet werden konnen. References HOG87] David Hogg: "Finding a known objekt using a generate and test strategy\, in: Page, Ian, Parallel Architectures and Computer Vision, Oxford Science Publication, 1987 ROHR] K. Rohr: "Towards Model-Based Recognition of Human Movements in Image Sequences\, Image Understanding, Vol. 59, S. 94-115, Academic Press, Inc. KAR90] Klaus Peter Karmann, Achim v. Brandt: "Moving Objekt Recognition Using an Adaptive Background Memory\, Time-Varying Image Processing and Moving Objekt Recognition - edited by V. Cappelini, Vol.2,1990 ECK93] W. Eckstein: "Benutzerfreundliche Bildanalyse mit HORUS: Architektur und Konzepte\, 15. DAGM Symposium 1993 Mustererkennung 1993, S. 332, Springer Verlag 1993 RID95] Ch. Ridder, O. Munkelt, H. Kirchner: "Adapting Background Estimation and Foreground Detection using Kalman-Filtering\, Proceedings: International Conference on Recent Advances in Mechatronics, ICRAM 1995 Aug. 14-16, 1995 Istambul, Turkey This article was processed using the LATEX macro package with LLNCS style