• Keine Ergebnisse gefunden

Fusion von Bildserien in der automatischen Sichtprüfung

N/A
N/A
Protected

Academic year: 2022

Aktie "Fusion von Bildserien in der automatischen Sichtprüfung"

Copied!
5
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Fusion von Bildserien in der automatischen Sichtpr¨ufung

Dr. Michael Heizmann

Fraunhofer IITB Institut f¨ur Informations- und Datenverarbeitung Fraunhoferstraße 1, 76131 Karlsruhe

heizmann@iitb.fraunhofer.de

Abstract: Die Erfassung von Bildserien mit variierten Szenen- oder Aufnahmepara- metern l¨asst sich als Satz von Sensordaten mit unterschiedlichen virtuellen Sensoren auffassen. Ziel einer Sensorfusion solcher Daten ist es, mehr ¨uber die interessierende Szene zu erfahren, als durch eine Einzelaufnahme m¨oglich w¨are. Dieser Beitrag zeigt Beispiele zur Fusion auf unterschiedlichen Ebenen aus dem Umfeld der automatischen Sichtpr¨ufung.

1 Einleitung

Bei vielen Aufgaben der automatischen Sichtpr¨ufung ist es nicht m¨oglich, mit Einzelauf- nahmen die gew¨unschte Szeneninformation zu erlangen. Typische Einschr¨ankungen sind bedingt durch die Eigenschaften des Objekts (Zug¨anglichkeit, Reflexionsverhalten) oder der Kamera (Fokusbereich, Dynamik, Aufl¨osungsverm¨ogen). In solchen F¨allen kann zu Strategien der Sensorfusion gegriffen werden, die man aus der humanen Wahrnehmung kennt: Ein Beobachter ¨andert so lange die Beleuchtung, seine relative Position usw., bis er aus einer Vielzahl von ”Aufnahmen“ die Szene befriedigend erfasst hat.

H¨aufig ist es ausreichend, Bildserien mit demselben ortsfesten Bildsensor zu erfassen, wo- bei die Beleuchtung variiert wird. Es handelt sich dann um virtuelle Sensoren, denen die Eigenschaften kolokiert (die Sensoren bleiben orts- und orientierungsfest relativ zur Sze- ne), homogen (die Sensorprinzipien sind identisch) und passiv zugeordnet werden kann.

Ziel ist, mit einer m¨oglichst geringen Bildanzahl die Szeneninformation in ausreichender Qualit¨at zu erfassen [HB05].

2 Fusionsverfahren in der Sichtpr¨ufung

Die in der automatischen Sichtpr¨ufung gebr¨auchlichen Verfahren der Sensorfusion lassen sich gem¨aß der Fusionsebenen einteilen, siehe Abb. 1 [CY90, Kle04, PB97, Pue02]: Die Fusion kann auf der Ebene der Signale (Datenfusion, Pixel-level fusion), der Merkma- le (Merkmalsfusion, Feature-level fusion) oder auf einer symbolischen Ebene (Entschei- dungsfusion, Decision-level fusion) durchgef¨uhrt werden.

Unterscheidungsmerkmal zwischen diesen Ebenen ist die Abstraktionsstufe, auf der die

(2)

Bildserie Merkmals- extraktion

Daten- fusion

Merkmals- fusion

Symbol- fusion Klassi-

fikation Einzelbild-

aufbereitung Bildfusion

Bildsignale

Merkmale

Symbole Fusionsergebnis

Abbildung 1: Fusion von Bildsignalen [Pue02]. Bildserien sind durch Mehrfachstriche, Einzelbilder durch einfache Striche gekennzeichnet.

Fusion stattfindet: Bei der Datenfusion soll aus mehreren Bildern wiederum ein Bild ge- wonnen werden, das sich durch eine h¨ohere Qualit¨at gegen¨uber den Einzelbildern der Serie auszeichnet. Bei der Merkmalsfusion findet die Fusion nach Extraktion relevanter Merk- male statt, um die Qualit¨at der Merkmale zu verbessern. Die Fusion auf symbolischer Ebene schließlich kombiniert die nach Klassifikation der Einzelbilder erhaltenen symbo- lischen Ergebnisse zu einem optimierten Entscheidungsergebnis.

Bei der Fusion von Sensordaten k¨onnen konkurrierende und komplement¨are Verfahren dif- ferenziert werden. Die konkurrierende Fusion zeichnet sich dadurch aus, dass die Einzelsi- gnale in gleicher Weise zum Ergebnis beitragen, z. B. durch punktweise Mittelwertbildung

¨uber alle Bilder der Serie, wenn die Bildinformation ¨uber alle Bilder verteilt vorliegt. Dem- gegen¨uber gewichtet die in diesem Beitrag dargestellte komplement¨are Fusion die Beitr¨age der Einzelbilder zum Resultat anhand geeigneter Merkmale. Sie hat dann Vorteile, wenn die Nutzinformation zumindest lokal Einzelbildern zugeordnet werden kann und aus dem optimalen Bild in das Ergebnis m¨oglichst unver¨andert ¨ubernommen werden soll.

2.1 Datenfusion zur Bildverbesserung

Im ersten Beispiel besteht die Aufgabe darin, von einer metallisch reflektierenden Ober- fl¨ache mit gekr¨ummten Riefen ein Bild mit ¨uberall hohem Kontrast zu erhalten [HP01, Pue02]. Da aufgrund der metallischen Reflexion nicht alle Riefen zugleich kontrastreich abgebildet werden k¨onnen, kann dazu nur ein synthetisches Bild erzeugt werden, z. B. aus einer Bildserie mit azimutal variierter Punktbeleuchtung, siehe Abb. 2. Es handelt sich demnach um eine Datenfusion, die sich auf das Merkmal Kontrast st¨utzt.

Zur L¨osung der Aufgabe wird in jedem Bild der Serie ein lokales G¨utekriterium f¨ur den Kontrast bestimmt. F¨ur jeden Ort des Bildes kann dann dasjenige Bild identifiziert werden, bei dem das G¨utekriterium maximiert wird und mit dem zugeh¨origen Beleuchtungsazimut ϕ(x)in die Beleuchtungskarteϕ(x)˜ eingetragen werden. Eine Nachbearbeitung durch ein

(3)

Beleuchtungs- seried(x;ϕi)

Fusion Glättung arg max

lokales Kriterium

Beleuchtungs-

karteϕ(x) geglättete Karteϕ(x)˜

Fusion- ergebnis lokaler

Kontrast

Abbildung 2: Datenfusion zur Bildverbesserung

zirkul¨ares Tiefpassfilter sorgt f¨ur glatte ¨Uberg¨ange in der Beleuchtungskarte, die dann als eine Art Bauplan f¨ur das Fusionsergebnis dient.

2.2 Merkmalsfusion zur Inspektion von Riefenstrukturen

Im zweiten Beispiel soll die Riefenstruktur einer Dichtfl¨ache auf Defekte untersucht wer- den, [XHKS04, Hei04a]. Auch hier sind nicht alle Bereiche der Dichtfl¨ache gleichzeitig mit gutem Kontrast zu erkennen. Ein L¨osungsansatz besteht darin, aus einer Bildserie mit variiertem Beleuchtungsazimut f¨ur jeden Bildpunkt den Verlauf der reflektierten Intensit¨at als ¨uber die Serie verteiltes Merkmal auszuwerten, siehe Abb. 3. Diese Methodik kann als datengest¨utzte Merkmalsfusion aufgefasst werden.

Die Implementierung bestimmt zun¨achst f¨ur jeden Bildpunkt die Fouriertransformierte bzgl. des Beleuchtungsazimutsϕ, die wiederum eine Bildserie f¨ur die Frequenzfϕdar- stellt. Im Frequenzbereich weisen Riefenpunkte Betragsmaxima f¨ur die zweite Harmo- nischefϕ = 2auf, da bei genau zwei gegen¨uberliegenden Beleuchtungsazimuten Licht von den Riefenflanken in die Kamera gespiegelt werden. Daraus l¨asst sich ein robustes Merkmal ableiten, aus dem in einer abschließenden Klassifikation Defektbereiche (weiß markiert) und der intakte Riefenbereich (grau markiert) erhalten werden.

2.3 Entscheidungsfusion zur Klassifikation von 3D-Strukturen

Die Aufgabe im letzten Beispiel besteht darin, eine Riefenstruktur aus einer weitgehend isotropen Hintergrundtextur zu segmentieren [Hei04a, Hei04b]. Weil die Riefenstruktur nicht bei beliebiger Punktbeleuchtung sichtbar ist, wird erneut eine azimutale Beleuch- tungsserie erfasst. Im Riefenbereich weist der Verlauf des lokalen Kontrasts charakteristi-

(4)

Beleuchtungs- seried(x;ϕi)

Merkmals-

extraktion Klassi-

fikation punktweise

Fouriertransf.

F{d(ϕ;x)}

F-Transformierte

hier:Dϕ(fϕ= 2;x) MerkmalM(x) = f Dϕ(fϕ= 2;x)

Fusion- ergebnis

Abbildung 3: Merkmalsfusion zur Inspektion von Riefenstrukturen

sche Maxima auf, die mittels zweier Merkmale klassifiziert und zu einer Segmentierungs- maske fusioniert werden. Dieses Strategie ist somit eine Fusion auf symbolischer Ebene.

Zur L¨osung wird zun¨achst in jedem Bild der lokale Kontrast in geeignet gew¨ahlten Umge- bungen bestimmt und in den Fourierbereich bzgl. des Beleuchtungsazimuts transformiert.

¨Ahnlich wie im letzten Beispiel dient die zweite Harmonische zur Formulierung zweier Merkmale f¨ur das lokale Vorliegen von Riefen: Mit der Phase der zweiten Harmonischen kann der lokale Riefenwinkel gesch¨atzt werden, ihr Betrag ist ein Maß f¨ur die Riefen- auspr¨agung. Damit werden nach Klassifikation zwei Segmentierungsmasken auf symboli- scher Ebene erhalten, welche das Segmentierungsergebnis durch Konjunktion ergeben.

3 Zusammenfassung

In diesem Beitrag werden Verfahren der Sensorfusion f¨ur die automatische Sichtpr¨ufung dargestellt. Die Fusion kann dabei zur Bildverbesserung eingesetzt werden (Datenfusion), der Gewinnung aussagekr¨aftiger Merkmale dienen (Merkmalsfusion) oder bei der Klas- sifikation eingesetzt werden (Entscheidungsfusion). Durch Kombination von Bildern mit variierten Aufnahmebedingungen lassen sich so Ergebnisse auf unterschiedlichem Ab- straktionsniveau qualitativ verbessern und robuster machen. Die hier vorgestellten Fusi- onsverfahren f¨ur Bildserien mit variierter Beleuchtung haben f¨ur die Praxis die wichtigen Vorteile, dass die Bildaufnahme mit mehreren Beleuchtungsquellen sehr schnell erfolgen und auf eine Ausrichtung der Bilder verzichtet werden kann.

Literatur

[CY90] James J. Clark und Alan L. Yuille. Data Fusion for Sensory Information Processing Systems. Kluwer Academic Publishers, Boston, 1990.

[HB05] Michael Heizmann und J¨urgen Beyerer. Sampling the Parameter Domain of Image

(5)

Beleuchtungs- seried(x;ϕi)

Klassi- fikation lokales

Kriterium

punktweise Fouriertransf.

F{var(ϕ;x)}

lokaler Kontrast var(x;ϕ)

Schätzung Riefenwinkel

Schätzung Riefendominanz

Klassi- fikation Fusion

Ergebnis Riefenwinkel

Riefendominanz

Abbildung 4: Entscheidungsfusion zur Segmentierung von Riefenstrukturen

Series. In Edward R. Dougherty, Jaakko T. Astola und Karen O. Egiazarian, Hrsg., Image Processing: Algorithms and Systems IV, Bd. 5672, S. 23–33. SPIE, 2005.

[Hei04a] Michael Heizmann. Auswertung von forensischen Riefenspuren mittels automatischer Sichtpr¨ufung. Dissertation, Universit¨at Karlsruhe (TH), Karlsruhe, 2004.

[Hei04b] Michael Heizmann. Segmentation of Striation Patterns Using Illumination Series. In T. Pfeifer und R. Tutsch, Hrsg., Photonics in Measurement, Bd. 1844, S. 461–470. VDI, 2004.

[HP01] Michael Heizmann und Fernando Puente Le´on. Model-based analysis of striation pat- terns in forensic science. In Simon K. Bramble, Edward M. Carapezza und Leonid I.

Rudin, Hrsg., Enabling Technologies for Law Enforcement and Security, Bd. 4232, S.

533–544. SPIE, 2001.

[Kle04] Lawrence A. Klein. Sensor and Data Fusion : A Tool for Information Assessment and Decision Making. SPIE Press, Bellingham (WA), 2004.

[PB97] Fernando Puente Le´on und J¨urgen Beyerer. Datenfusion zur Gewinnung hochwertiger Bilder in der automatischen Sichtpr¨ufung. Automatisierungstechnik, 45(10), S. 480–

489, 1997.

[Pue02] Fernando Puente Le´on. Komplement¨are Bildfusion zur Inspektion technischer Ober- fl¨achen. Technisches Messen, 69(4), S. 161–168, 2002.

[XHKS04] Binjian Xin, Michael Heizmann, S¨oren Kammel und Christoph Stiller. Bildfolgenaus- wertung zur Inspektion geschliffener Oberfl¨achen. Technisches Messen, 71(4), S. 218–

226, 2004.

Referenzen

ÄHNLICHE DOKUMENTE

● Auf ihnen können Datenfelder plaziert werden, die Spalten einer Datenbank zugeordnet sind. ● Von der Seite gibt es

Autodesk Fusion 360 ist das erste 3D-CAD/CAM-Tool seiner Art, das den gesamten Produktentwicklungsprozess in einem Cloud-basierten Werkzeug überspannt. Sie können den

Autodesk Fusion 360 ist das erste 3D-CAD/CAM-Tool seiner Art, das den gesamten Produktentwicklungsprozess in einem Cloud-basierten Werkzeug überspannt. Sie können den

Autodesk Fusion 360 ist das erste 3D-CAD/CAM-Tool seiner Art, das den gesamten Produktentwicklungsprozess in einem Cloud-basierten Werkzeug überspannt. Sie können den

Autodesk Fusion 360 ist das erste 3D-CAD/CAM-Tool seiner Art, das den gesamten Produktentwicklungsprozess in einem Cloud-basierten Werkzeug überspannt. Sie können den

Autodesk Fusion 360 ist das erste 3D-CAD/CAM-Tool seiner Art, das den gesamten Produktentwicklungsprozess in einem Cloud-basierten Werkzeug überspannt. Sie können den

Autodesk Fusion 360 ist das erste 3D-CAD/CAM-Tool seiner Art, das den gesamten Produktentwicklungsprozess in einem Cloud-basierten Werkzeug überspannt. Sie können den

Autodesk Fusion 360 ist das erste 3D-CAD/CAM-Tool seiner Art, das den gesamten Produktentwicklungsprozess in einem Cloud-basierten Werkzeug überspannt. Sie können den