Extraktion von Personen in Videobildern
K. Huggle W. Eckstein
Technische Universitat Munchen
Institut fur Informatik { Lehrstuhl Prof. Dr. B. Radig
fhuggle,
[email protected]
Zusammenfassung Die vorliegende Arbeit beschreibt ein System, da
Personen aus Videobildern extrahiert. Die Bilder einer fest installierten
Kamera werden analysiert. U ber eine Hintergrundschatzung mit anschliessender Dierenzbildberechnung werden alle veranderten Bereiche im Bild
gefunden. Aus diesen Vordergrundbereichen werden Merkmale extrahiert
und anhand eines Personenmodells analysiert, das aus Kopf, Schultern,
Oberkorper und Armen besteht. Die Suche nach Personen erfolgt sowohl
daten-, als auch modellgetrieben.
Das System leistet auf Standard-UNIX Systemen ohne Spezial-Hardware
eine schritthaltende Erkennung der Personen.
1
Einleitung
In der Arbeit wird ein System beschrieben, das in den Bildern einer Videokamera Personen aufndet. Sie stellt die Grundlage fur ein Ausstellungsobjekt im
Deutschen Museum, in der Abteilung fur Informatik in Munchen dar. Das Ausstellungsobjekt, bestehend aus einer Videokamera, einem Computer und einem
Bildschirm, erkennt im Raum stehende oder gehende Personen und markiert sie
im dargestellten Videobild auf dem Monitor.
Weitere Einsatzgebiete fur ein solches System sind z.B. die U berwachung
von Verkehrszenen HOG87] ROHR], oder Sicherungsaufgaben, wie sie bei der
U berwachung von Aufzugen oder Warteschlangen anfallen konnen. Das Personenmodell mu dabei auf die jeweilige Aufgabe angepa t werden.
Das System mu fahig sein, auch Personen zu nden, die uber einen langeren
Zeitraum vor der Kamera verweilen oder nur mit dem Oberkorper im Bild erscheinen. Fur die Losung dieser Aufgabe haben sich der Kopf und die Schultern
als sichere Erkennungsmerkmale herausgestellt. Auch der Oberkorper selbst und,
eingeschrankt, die Arme konnen fur die Erkennung herangezogen werden.
Die Suche nach Personen erfolgt sowohl daten- als auch modellgetrieben. Im
ersten Schritt wird aus der bisherigen Bildfolge mit Hilfe eines Kalman-Filters ein
Hintergrundbild berechnet. Aus dem Di erenzbild zwischen Eingabe- und Hintergrundbild wird eine Vordergrundregion berechnet, die alle sich veranderten
Bildbereiche enthalt. Innerhalb dieser Vordergrundregion wird nach potentiellen
Kopfen gesucht. Hierzu konnen die Umri linien (Rand der Vordergrundregion)
oder die Kanten innerhalb der Vordergrundregion herangezogen werden.
Ausgehend von den gefundenen Kopfen werden die Merkmale des Menschen
anhand des erstellten Personenmodells gesucht. Diese Merkmale sind die Schultern, der Oberkorper und die Arme. Das Modell wird durch die Suchergebnisse
Abbildung1. Kanten des HoggModells
Abbildung2. Typische Haltung
einer Person
weiter verfeinert, bis das Vordergrundobjekt spater als Mensch akzeptiert oder
verworfen werden kann. Fur eine sichere Erkennung der Personen sind einige
Randbedingungen zu erfullen:
{ Die Personen durfen sich nicht gegenseitig verdecken und mussen hinreichend
gro im Bild erscheinen.
{ Die Personen mussen mit gesamten Kopf und Oberkorper im Bild erscheinen.
{ Die Kontur des Kopfes darf nicht durch eine Kopfbedeckung, wie z.B. einen
Hut oder eine auffallige Frisur "entstellt\ sein.
{ Die Videokamera mu fest installiert
sein, der Bildausschnitt darf sich nicht
verandern und die Lichtverhaltnisse durfen sich nur langsam andern.
Das System ist in der bisherigen Implementierung mit dem Bildverarbeitungssystem HORUS ECK93] dank der Hintergrundschatzung uber das KalmanFilter auf beliebige Aufnahmesituationen ubertragbar, solange die aufgefuhrten
Randbedingungen eingehalten werden.
2
Das Modell
Ausgehend vom Modell von D. Hogg HOG87] wird das in dieser Arbeit verwendete Personenmodell entwickelt. Hoggs Korpermodell basiert auf dreidimensionalen, geometrischen Primitiven, die aus Zylindern unterschiedlicher Lange
und Durchmesser bestehen. Der Oberkorper wird z.B. durch einen Zylinder im
Verhaltnis H ohe : Breite : Tiefe von 7 : 2 : 1 reprasentiert. Ein Arm wird durch
drei Zylindern aufgebaut, je einer fur Oberarm, Unterarm und die Hand. Fur
jedes Korperteil im Hogg-Modell werden im Bild zwei parallele Kanten gesucht
(siehe Abb. 1). Die Suche nach den Kanten erfolgt in geeigneten Suchraumen
um die Rander des entsprechenden Zylinders.
Im Projekt Deutsches Museum\ sind die Personen gro teils nur mit dem
Oberkorper im "Bild zu sehen. Die Suche nach Beinen scheidet daher aus. Die
Personen bleiben vor der Kamera stehen, daher sind die Arme nicht standig in
Bewegung. Erschwerend kommt noch hinzu, da sie auch am Korper anliegen
oder vor dem Korper verschrankt sein konnen. Einerseits werden sie dann nicht
erkannt, andererseits verandern sie gleichzeitig das Aussehen des Oberkorpers.
Damit scheiden die Arme als sicheres Kriterium zur Personenerkennung aus.
Abb. 2 zeigt ein typisches Bild der Aufnahmesituation. Das Hogg-Modell kann
daher hier nicht unverandert angewendet werden, da es die Arme und Beine als
sichere Erkennungsmerkmale bei gehenden Personen verwendet. Unter diesen
Gegebenheiten sind der Kopf, die Schultern und der Oberkorper die sichersten
Kriterien zur Personenerkennung.
Das in dieser Arbeit entwickelte, zweidimensionale Modell besteht aus folgenden Korperteilen:
{ Der Kopf, durch eine Ellipse modelliert.
{ Die Schultern, durch Geraden unterschiedlicher Winkel modelliert.
{ Der Oberkorper, durch ein Rechteck modelliert.
{ Die Arme, durch je ein Rechteck modelliert.
3 Erkennungsstrategie
Die ersten Schritte der Objektsuche erfolgen datengetrieben, da keine Informationen uber die Position von moglichen Personen vorliegen. Der Vordergrund
wird mit einem Kalman-Filter RID95] vom Hintergrund getrennt, indem das aktuelle Eingabebild vom Hintergrundbild abgezogen wird. Alle Pixel mit einer Intensitat oberhalb einer vorgegebenen Schwelle werden in die Vordergrundregion
ubernommen. Sie wird anschlie end morphologisch bearbeitet: kleine Locher
werden mit einem closing geschlossen, kleine, freistehende Bereiche der Region mit einem opening entfernt und die entstandene Region um wenige Pixel
vergro ert. Der Korperumri liegt dann sicher innerhalb der Vordergrundregion.
Anhand dieser Vordergrundregion und den Bildinformationen werden die Kopfe
der Personen gesucht.
Die darauf folgenden Schritte erfolgen modellgetrieben. Anhand aller im
Bild gefundenen potentiellen Kopfe werden basierend auf dem Korpermodell die
Schultern, der Oberkorper und die Arme gesucht. Die gefundenen Korperteile
werden dem Modell entsprechend verknupft und interpretiert. In Abb. 3 ist der
Ablauf der Personenerkennung schematisch beschrieben.
4 Kalman-Filter
Die Implementierung des Kalman-Filters erfolgte nach dem Ansatz von Karmann und v. Brandt KAR90]. Aufgabe des Filters ist es, aus den bisherigen
Eingabebildern ein Hintergrundbild zu berechnen. Objekte die sich im Vordergrund benden sollen nur langsam, gleichzeitig aber die Bereiche im Eingabebild,
die den Hintergrund darstellen, schnell in das Hintergrundbild ubernommen werden.
Grauwertanderungen, durch langsame Beleuchtungsanderungen hervorgerufen, sind im allgemeinen sehr gering im Vergleich zu den A nderungen, die durch
bewegte Objekte entstehen. Diese Tatsache wird vom Kalman-Filter zur Trennung sich bewegender Objekte vom Hintergrund genutzt. Anhand der vorherigen
Abbildung3. Ablauf der Personenerkennung
Me gro en, den Grauwerten in den Pixel bis zum Zeitpunkt t wird der Grauwert des Pixel im nachsten Bild vorausgeschatzt und daraus eine Vorhersage des
neuen Grauwertes im Bild berechnet. Weicht diese Vorhersage nur geringfugig
von dem Me wert zum Zeitpunkt t +1 ab, dann wird das Pixel als Hintergrund
deniert und schnell in das Hintergrundbild aufgenommen. Liegt die Abweichung
oberhalb einer vorgegebenen Schwelle wird es als Vordergrund interpretiert und
nur langsam in das Hintergrundbild ubernommen. Eine genaue Beschreibung des
hier verwendeten Algorithmus kann bei RID95] nachgelesen werden.
i
i
5
Suche nach den K
opfen
Eine erfolgreiche Suche nach Kopfen im Eingabebild ist entscheidend fur die
Personenerkennung, da anhand der Kopfposition nach weiteren Personenmerkmalen gesucht wird. Alle weiteren Suchalgorithmen werden fur jeden potentiellen
Kopf aufgerufen. Ein falschlicherweise im Bild gefundener Kopf wird im Verlauf
der weiteren Suche verworfen, sofern keine weiteren Personenmerkmale gefunden
werden konnen.
Zwei Ansatze sind moglich: Die Suche anhand der Kanten innerhalb der
Vordergrundregion oder die Suche anhand der Kontur der Vordergrundregion.
Die Suche erfolgt jeweils datengetrieben.
5.1 Suche anhand von Bildkanten
Hebt sich der Kopf deutlich vom Hintergrund ab, kann sein Umri durch Bildkanten gefunden werden. Selbst wenn die Vordergrundregion, z.B. durch interpretieren des Objektschattens als Vordergrund, entstellt ist, kann hier noch eine
Erkennung erfolgen.
Abbildung4.
Abbildung5. Alle Kan- Abbildung6.
Kanten nach nonmaxi- ten aus Bild 4 mit einer Kanten im Kopfbereich nach
mumsuppression
Amplitude uber 20
Konturschlu / -bereinigung
Die Bildkanten und die Kantenrichtungen im Eingabebild werden innerhalb der Vordergrundregion mit einem Sobellter berechnet und mit einer nonmaximum-suppression verdunnt (siehe Abb. 4). Mit einer Schwellwertoperation
(siehe Abb. 5) werden die starkeren Kanten ausgewahlt. Soweit moglich, werden kleine Lucken zwischen den Kanten geschlossen und kurze Kanten entfernt.
Anschlie end werden die Rander der Vordergrundregion mit einer Kreismaske
mit dem Radius der halben Kopfbreite erodiert. Die Mittelpunkte verschiedener
Templates werden uber diese Vordergrundregion verschoben und die Kanten innerhalb der Templates analysiert.
Objektsuche In allen weiteren Bearbeitungsschritten werden nur die Kanten,
das Kantenrichtungsbild und die erodierte Vordergrundregion benotigt. Zwei
ovale Templates T1 und T2 werden im weiteren verwendet (siehe Abb. 7 und 8).
Abbildung7. Template T1 fur die
Suche nach Kanten in dem gesamten
Kopfbereich
Abbildung8. Template T2 fur die
Suche nach Kanten in dem oberen
Kopfbereich
Beide Templates werden mit ihrem Mittelpunkt im Bereich der erodierten
Vordergrundregion uber die Kantenregion geschoben. Liegt mindestens eine vorgegebene Anzahl von Kantenpunkten, abhangig von der Gro e des gesuchten
Kopfes, innerhalb der Templates, werden die Kanten weiter untersucht (siehe
Abb. 6).
Analyse der Kanten Es werden nur diejenigen Kanten weiter untersucht, die
im oberen Ellipsenbereich liegen. Folgende Kriterien mussen erfullt sein:
{ Die mittlere Kantenrichtung in T1 mu in einem vorgegebenen Bereich liegen.
{
Die mittlere Kantenrichtung mu bei 90 5 Grad liegen. Ist dieses Kriterium nicht erfullt, wird der Kopf verworfen. Mit diesem Kriterium konnen
ohne gro en Rechenaufwand Bereiche verworfen werden, in denen die Kanten
keiner Ellipse ahneln.
Die Entfernung der Kantenpunkte in T2 zu den Brennpunkten der Ellipse
mu in einem vorgegebenen Bereich liegen.
Aus den Entfernungen jedes Kantenpunktes zu den Brennpunkten der Ellipse
wird die Varianz des Fehlers zur optimalen Ellipse berechnet. Ist die Varianz kleiner als eine vorgegebene Schwelle T wird der Kopf akzeptiert. Diese
Schwelle erhoht sich, je ofter der Kopf gefunden wurde. Die dazu notigen
Informationen weren uber eine Objekthistorie bereitgestellt. Die Varianz
wird uber die Entfernungen f 1 und f 2 jedes Kantenpunktes zu den
Brennpunkten f1 und f2 berechnet: (E = Zeile Ellipse, E = Spalte Ellipse,
r1 und r2 Hauptachsenradien der Ellipse)
Fehler ! der Entfernung zur optimalen Ellipse
! = j2 r1 ; (f 1 + f 2 )j
Quadrat 2 der Summe aller Fehler !
X
2 = (2 r1 ; (f 1 + f 2 ))2
zs
zs
z
s
zs
zs
n
!
zs
zs
=1
i
Varianz des Fehlers !
s
2
= n1 2 ; (n+)1
!
!
Aus der Varianz des Fehlers und der Anzahl der Kantenpunkte im Bereich T1
und T2 wird ein Gutefaktor fur diesen Kopf berechnet:
= jKantenpunkte in T2j +5 5 jKantenpunkte in T1j
Die Maske wird uber jeden Punkt in der Vordergrundregion geschoben. Daher
kann ein Kopf mehrfach gefunden werden. Es wird jedoch nur der Kopf mit dem
besten Gutefaktor weiter betrachtet.
Uberarbeiten der Objekthistorie Die Koordinaten aller Kopfe werden in
eine Objekthistorie eingetragen bzw. die Daten der darin bereits enthaltenen
Kopfe aktualisiert. Diese Objekthistorie nimmt fur alle gefundenen Kopfe die
Koordinaten des Kopfmittelpunktes, ein Gutefaktor des Kopfes K , der Zeitpunkt, zu dem der Kopf zuletzt gefunden wurde und in wievielen Bildern er
bisher gefunden wurde auf. Der Gutefaktor berechnet sich aus der Anzahl
K
K
der Bilder, in denen der Kopf bisher gefunden und vor wievielen Bildern der
Kopf zuletzt gefunden wurde.
Wurde der Kopf K im aktuellen Bild gefunden, dann wird K erhoht, ansonsten erniedrigt. Wurde er in den letzten funf Bildern nicht gefunden, wird
er aus der Historie entfernt. In den Bereichen, in denen bereits ein Kopf gefunden wurde, wird K auf die Schwelle T addiert. Kopfe, die bereits uber
einen langeren Zeitraum gefunden wurden werden eher erkannt, selbst wenn
sie kurzfristig starker von den Vorgaben abweichen, d.h. oberhalb der vorgegebenen Schwelle liegt. Jeder Kopf mu mindestens in zwei aufeinanderfolgenden
Bildern gefunden werden, damit er in die Historie eingetragen wird. Dadurch
wird verhindert, da falsch gefundene Kopfe sofort ubernommen werden.
5.2 Suche anhand der Konturinformationen
In diesem alternativen Verfahren werden die Kopfe im Eingabebild nicht anhand
der Kanteninformationen, sondern anhand der Kontur der Vordergrundregion
gesucht. Dies setzt eine optimale Trennung von Vorder- und Hintergrund voraus.
Aus der Vordergrundregion wird das Skelett und die Kontur berechnet. Es
wird davon ausgegangen, da der Mittelpunkt eines Kopfes nur auf dem Skelett
der Vordergrundregion liegen kann. Von allen Skelettzweigen werden die letzten 2 RadiusKopf Pixel betrachtet, da angenommen wird, da ein Kopf immer
nur an einem oberen Ende einer Vordergrundregion liegt. Daher werden nur
die Skelettzweige weiter betrachtet, die oberhalb des Schwerpunktes der Region
liegen. Der Suchbereich fur einen Kopf wird dadurch betrachtlich eingeschrankt.
Die einzelnen Templates werden mit ihren Mittelpunkten entlang der Skelettzweige verschoben und das Template herausgesucht, in das die Kontur am besten
eingepa t werden kann. Der Ansatz setzt folgende Heuristiken ein:
{ Der Kopf ist immer im oberen Bereich einer Vordergrundregion.
{ Die Anzahl der Pixel im oberen Kopfbereich mu mindestens 30% des Ellipsenumfangs betragen.
5.3 Vergleich beider Ansatze
Bei den gestellten Bedingungen, eine aufrecht vor der Kamera stehende, unverdeckte Person zu erkennen, arbeiten beide Ansatze stabil.
Der erste Ansatz liefert gute Ergebnisse, auch wenn die Vordergrundregion
nicht optimal berechnet wurde. Jedoch benotigt er deutlich mehr Rechenzeit als
der zweite Ansatz, im Mittel funfmal so viel. Bei einer korrekten Trennung des
Vordergrundes vom Hintergrund liefert der zweite Ansatz ebenfalls gute Ergebnisse. Mit deutlich weniger Rechenzeit ist er jedoch fur eine on-line Bearbeitung
von Bildern besser geeignet. Es ist dann auch ohne spezieller Hardware eine
schritthaltende Analyse moglich.
Abbildung9.
Kanten Abbildung10.
Win- Abbildung11.
und Suchraum der Schul- kelverhaltnis der oberen Verbindung zwischen
tern
Schulterbereiche
den Schultergeraden
6
Suche nach den Schultern
Anhand der Position aller gefundenen Kopfe werden die Schultern gesucht. Sowohl die Schultersuche, als auch die Suche nach den Armen und dem Oberkorper
erfolgen modellgetrieben. Durch die Ergebnisse wird das Korpermodell weiter
verfeinert. Die entwickelten Verfahren arbeiten dabei sowohl mit Bildkanten, als
auch mit den Konturdaten der Vordergrundregion.
Suchbereich Fur jede Kopfhypothese werden zwei rechteckige Suchraume fur
die rechte und linke Schulter aufgespannt. Die Gro e und Lage der Suchraume
berechnet sich aus der Position und dem Radius des Kopfes. Nur die Kanten,
die innerhalb der Suchraume liegen werden analysiert. Im folgenden wird nur
die Suche nach der rechten Schulter exemplarisch beschrieben. In Abb. 9 sind
der Kopf, die Suchraume fur beide Schultern und die darin enthaltenen Kanten
dargestellt.
Die Geraden innerhalb eines Suchbereiches werden in drei Winkelbereiche
eingeteilt, z.B. 160 210], ]210 240] und ]240 280] Grad fur die rechte
Schulter. Eine Schulter ist aus mindestens zwei Geraden aus verschiedenen Winkelbereichen aufgebaut. Der Winkelbereich 160 210] stellt die obere Begrenzung der Schulter (Schlusselbein) dar, die anderen Bereiche den Arm in unterschiedlichen Stellungen. Die Einteilung in drei Winkelbereiche ist ein optimaler
Kompromi bezuglich Genauigkeit und Schnelligkeit in der Analyse.
:::
:::
:::
:::
Analyse der Kanten im Schulterbereich Die Kanten innerhalb des oberen
Winkelbereiches beider Schultern werden miteinander verglichen. Als Bezugsgro e
wird die Gro e des Kopfes Kopf verwendet. Folgende Kriterien mussen erfullt
sein, damit die Geraden als Teil einer Schulter akzeptiert werden:
{ Beide Kanten mussen mindestens Kopf 4 lang sein.
{ Die Gerade im oberen Winkelbereich der rechten Schulter und die Gerade des
oberen Schulterbereiches der linken Schulter liegen etwa auf der selben Hohe.
Die Zeilen der Geradenanfange unterscheiden sich um maximal Kopf 3, die
Winkel der Geraden zur x-Achse um maximal 10 Grad (siehe Abb. 10).
B
B
=
B
=
Innerhalb einer Schulter wird die Lage der Geraden unterschiedlicher Winkelbereiche verglichen:
{ Die Endpunkte beider Geraden liegen hochstens max(4 Kopf 4) Punkte
voneinander entfernt (siehe Abb. 11).
{ Liegen zwei Geraden mit ihren Endpunkten nahe genug zusammen, dann
mu die Zeile des zweiten Endpunktes der unteren Geraden gro er sein als
der Endpunkt der oberen Geraden. Dadurch werden Geraden die nach oben
zeigen ausgeschlossen.
Anhand eines berechneten Gutefaktors kann die Qualitat der Schultererkennung bestimmt werden.
B
=
7 Suche nach dem Oberkorper und den Armen
Das Modell ist durch den Kopf und die Schultern teilinstantiiert, die Person wird
bereits gut durch das Modell beschrieben. Basierend auf dem teilinstantiierten
Modell werden der Oberkorper und die Arme gesucht. Die Ansatze arbeiten
sowohl mit Bildkanten als auch mit den Konturdaten der Vordergrundregion.
7.1 Oberkorper
Es werden zwei rechteckige Suchbereiche fur die linke bzw. rechte Korperhalfte
aufgespannt. Die Position und Gro e der Suchbereiche ist abhangig von Kopfund Schulterposition.
Es werden nur Geraden (Kanten oder Konturdaten) mit einer minimalen
Lange innerhalb der Suchbereiche betrachtet. Dabei werden Geraden aus dem
Suchbereich der rechten Korperhalfte mit den Geraden aus dem Suchbereich
der linken Korperhalfte paarweise verglichen. Die Geraden mussen im Winkelbereich von 75 105] Grad zur x-Achse liegen. Dieser gro e Winkelbereich ist
notwendig, da die Silhouette durch anliegende oder verschrankte Arme stark
verandert sein kann. In folgenden Fallen wird der Oberkorper akzeptiert:
{ Die Langen der Geraden betragen jeweils mindestens 50% der vorhergesagten
Korperlange, die sich aus der Kopfgro e berechnet.
{ Das Geradenpaar aus den beiden Korperhalften ist zusammen mindestens
so lang wie die vorhergesagte Korperlange. Beide Geraden weisen zusatzlich
eine Lange von mindestens 20% der vorhergesagten Korperlange auf.
Der zweite Fall ist weniger streng, da hier eine Seite weniger gut erkannt
werden mu . Dies erhoht die Erkennungssicherheit besonders bei kontrastarmen
Bildern oder Bildern, in denen der Schatten des Objektes den Kontrast und
damit die Korperkante auf einer Seite vermindert.
:::
7.2 Arme
Es werden Suchraume aufgespannt, in denen nach (nahezu) parallelen Kantenpaaren gesucht wird. Im Gegensatz zu den Schultern und dem Oberkorper
Abbildung12. Ansatzpunkt des
Armes an der Schulter
Abbildung13. U berlappungsbereich der Geraden
konnen die Suchraume jedoch nicht nur von der Kopfposition abhangig gemacht
werden. Es mu erst nach signikanten Kanten gesucht werden, die Ruckschlusse
auf einen moglichen Arm zulassen.
Die signikanten Geraden, anhand derer eine Vorhersage uber mogliche Arme
gemacht werden kann, werden in Suchraumen um die Schultern ermittelt. Deren
Position wird aus den Daten der Schultersuche und der Kopfposition und Kopfgro e berechnet. Alle Geraden im Suchraum, die folgende Kriterien erfullen,
werden fur die Erzeugung der eigentlichen Suchraume der Arme herangezogen:
{ Die Gerade ist mindestens so lang wie die Kopfbreite.
{ Die Zeile des Geradenbeginns weicht von der Zeile der Schulter maximal um
die Kopfhohe ab.
Die Winkel aller Geraden, die obige Kriterien erfullen, werden ausgewahlt.
Der neue Suchbereich besteht aus einem Rechteck, dessen Hohe und Breite sich
aus dem Kopfdurchmesser berechnet und dessen Hauptachse den Winkel zur
x-Achse aufweist. Der Suchbereich setzt am Schultergelenk an (siehe Abb. 12).
Die Geraden innerhalb eines Suchraumes mussen folgende Kriterien erfullen,
um als Arm akzeptiert zu werden:
{ Die Lange beider Geraden im Geradenpaar entspricht mindestens der Kopfbreite.
{ Die Geraden im Parallelenpaar uberlappen sich zu mindestens 50% (siehe
Abb. 13).
Fur jeden erkannten Arm wird ein Wert fur die Gute der Erkennung berechnet.
8 Verkn
upfung der Ergebnisse
Bild 14 zeigt ein Beispiel fur eine gut erkannte Person. Im Bild 15 werden die
zwei Personen hingegen nur teilweise erkannt. Sie heben sich nur wenig vom
Hintergrund ab und sind sehr klein im Bild. Daher werden die Umrisse nur
ungenau erkannt. Innerhalb der Personen werden viele Kanten gefunden (siehe
Abb. 16), die wiederum das Ergebnis beeintrachtigen.
Anhand der Gutezahlen aus der Erkennung von Schultern, Oberkorper und
Armen kann die Gute der Erkennung der Person berechnet werden. Die Suche
Abbildung14.
Modell einer erkannten
Person
Abbildung15. Mo-
delle zweier teilweise
erkannter Personen
Abbildung16. Kanten aus Bild 15
nach den Schultern, dem Oberkorper und den Armen kann sowohl mit Bildkanten, als auch mit der Kontur der Vordergrundregion erfolgen. Werden die
entsprechenden Routinen zweimal aufgerufen (einmal mit Bildkanten, einmal
mit der Kontur der Vordergrundregion), kann die Sicherheit der Erkennung
deutlich erhoht werden. Die Ergebnisse werden dann den Aufnahmebedingungen
entsprechend verknupft. In Versuchen zeigte sich, da bei einer guten Trennung
von Vordergrund / Hintergrund die Ergebnisse aus der konturbasierten Suche
mit 70%, die aus der kantenbasierten Suche mit 30% gewichtet werden sollten.
In bisheriger Implementierung mit dem Bildanalysesystem HORUS ECK93]
ist das System trotz Verzicht auf Spezial-Hardware schritthaltend. Die Geschwindigkeit der Bildbearbeitung ist stark von der Gro e der Vordergrundregion abhangig, da alle folgenden Routinen auf dieser Vordergrundregion arbeiten. Es
kann somit kein allgemeingultiger Zeitbedarf pro Bild angegeben werden. Im
Mittel la t sich jedoch feststellen, da pro Sekunde 5 bis 8 Bilder auf einer HP
Workstation, Modell 720 bearbeitet werden konnen.
References
HOG87] David Hogg: "Finding a known objekt using a generate and test strategy\,
in: Page, Ian, Parallel Architectures and Computer Vision, Oxford Science Publication, 1987
ROHR] K. Rohr: "Towards Model-Based Recognition of Human Movements in Image
Sequences\, Image Understanding, Vol. 59, S. 94-115, Academic Press, Inc.
KAR90] Klaus Peter Karmann, Achim v. Brandt: "Moving Objekt Recognition Using
an Adaptive Background Memory\, Time-Varying Image Processing and Moving
Objekt Recognition - edited by V. Cappelini, Vol.2,1990
ECK93] W. Eckstein: "Benutzerfreundliche Bildanalyse mit HORUS: Architektur und
Konzepte\, 15. DAGM Symposium 1993 Mustererkennung 1993, S. 332, Springer
Verlag 1993
RID95] Ch. Ridder, O. Munkelt, H. Kirchner: "Adapting Background Estimation and
Foreground Detection using Kalman-Filtering\, Proceedings: International Conference on Recent Advances in Mechatronics, ICRAM 1995 Aug. 14-16, 1995
Istambul, Turkey
This article was processed using the LATEX macro package with LLNCS style