139
Computer-Sehen mit Polarisationsbildern Stefan Rahmann Dissertation zur Erlangung des Doktorgrades der Fakult¨ at f¨ ur Angewandte Wissenschaften an der Albert-Ludwigs-Universit¨ at Freiburg im Breisgau

Stefan Rahmann - uni-freiburg.de · 2011. 5. 31. · Stefan Rahmann Dissertation zur Erlangung des Doktorgrades der Fakult¨at f ¨ur Angewandte Wissenschaften an der Albert-Ludwigs-Universit¨at

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

  • Computer-Sehen mit

    Polarisationsbildern

    Stefan Rahmann

    Dissertation zur Erlangung des Doktorgradesder Fakultät für Angewandte Wissenschaften

    an der Albert-Ludwigs-Universität Freiburg im Breisgau

  • ii

    Dekan: Prof. Dr. Jan G. Korvink

    Prüfungskommission: Prof. Dr. Ulrike Wallrabe (Vorsitz)Prof. Dr. Matthias Teschner (Beisitz)Prof. Dr. Hans Burkhardt (Betreuer)Prof. Dr. Wolfgang Förstner (Prüfer)

    Datum der Disputation: 22. Juni 2005

  • iii

    Kurzfassung

    Diese Arbeit hat das dreidimensionale Computer-Sehen mit Polarisationsbildern zumThema. Polarisationsbilder messen neben der Intensität auch den Polarisationszustandvon Licht. Partiell linear polarisiertes Licht wird durch die drei Größen Intensität sowieGrad und Richtung der Polarisation beschrieben. Künstlichen Sehsystemen steht da-mit ein Mehr an Information zur Interpretation der betrachteten Szene zur Verfügung.Diese Arbeit konzentriert sich auf die Ausnutzung der Polarisationsrichtung, welche indirektem Zusammenhang mit der Geometrie der betrachteten Objektoberfläche steht,und somit ein räumliches Vermessen der Oberfläche erlaubt.Die Möglichkeiten zur Rekonstruktion der Form von nicht texturierten und glänzendenObjektoberflächen auf der Basis von Helligkeitsbildern sind begrenzt: Das klassischeStereosehen arbeitet mit Bildmerkmalen, welche nur durch eine Textur, d.h. einenstrukturierten Verlauf der Oberflächenhelligkeit, entstehen. Rückschlüsse auf Grundder Schattierung sind nur bei matten Oberflächen möglich, während sich auf glänzendenOberflächen die Umgebung spiegelt. Kein passives Sehsystem, d.h. ein Sehsystem ohnespezielle Beleuchtung, ist bisher in der Lage nicht texturierte und glänzende Ober-flächen zu rekonstruieren.In dieser Arbeit wird eine neuartige Polarisationskamera vorgestellt, welche die Polari-sationsrichtung im so genannten Phasenbild präzise misst. Es zeigt sich, dass unter derAnnahme einer unpolarisierten Beleuchtung das Phasenbild eine für die Objektformcharakteristische Größe und eine photometrische Invariante ist, da es nicht von der Be-leuchtungsverteilung abhängt. Die geometrische Analyse eines einzelnen Phasenbildesermöglicht die Berechnung von Kurven, welche die Projektion von Profilschnitten derbetrachteten Oberfläche mit konstanter Tiefe sind. Das Rekonstruktionsproblem redu-ziert sich damit um eine Dimension, da nicht mehr die Tiefe aller Oberflächenpunkte,sondern nur noch die Tiefe der Profilschnitte zu bestimmen bleibt.Im Phasenbild einer glatten Oberfläche sind keine Merkmale zu extrahieren, welcheauf Grund ihrer Korrespondenz in mehreren Ansichten eine direkte Rekonstruktionerlauben würden. Um dieses Korrespondenzproblem zu überwinden, wird die Model-lierung der Oberfläche mit impliziten bzw. algebraischen Funktionen vorgeschlagen.Damit gelingt der Beweis, dass zwei Polarisationsansichten, vergleichbar dem klassi-schen Stereosehen, eine eindeutige Rekonstruktion ermöglichen. Für die Objektformder Quadriken ergibt sich daraus eine direkte Rekonstruktionsmethode, und Expe-rimente zeigen genaue Rekonstruktionsergebnisse. Für algebraische Flächen höhererOrdnung kann durch Simulation eine lokale Optimalität nachgewiesen und ein indirek-tes Rekonstruktionsschema angegeben werden.Zur Rekonstruktion von 21

    2D Oberflächen wird die Modellierung mit expliziten Tiefen-

    funktionen kombiniert mit einem indirekten Rechenschema vorgeschlagen. Durch Expe-rimente zeigt sich auch hier wieder, dass zwei Ansichten eine eindeutige Rekonstruktionermöglichen. An Hand von Aufnahmen eines kalibrierten Körpers wird demonstriert,dass Polarisationsbilder eine präzise Rekonstruktion ermöglichen. Auch leicht konkave

  • iv

    Flächen sind rekonstruierbar.Einen ausreichenden Polarisationsgrad des reflektierten Lichts vorausgesetzt ist dieAnalyse von Polarisationsbildern eine geeignete passive Methode zur flächenhaften Re-konstruktion von glatten, spiegelnden und texturfreien Oberflächen.

  • v

    Danksagung

    Diese Dissertation ist das Ergebnis meiner Arbeit am Lehrstuhl für Mustererkennungund Bildverarbeitung der Universität Freiburg unter der Leitung von Professor HansBurkhardt. Ihm gilt mein besonderer Dank. Er ermöglichte es mir, mich mit die-sem Thema zu befassen, förderte meine Arbeit und gab mir viel Freiraum und Un-terstützung bei der Umsetzung meiner Ideen. Ich habe in dieser Zeit eine Menge gelerntund die Arbeit am Lehrstuhl hat mir große Freude gemacht.Weiterhin bedanke ich mich bei Professor Wolfgang Förstner für die Übernahme desKorreferats und für die Unterstützung sowie interessante Diskussionen während meinerZeit in Bonn.Bei der Konzeption der realisierten Polarisationskamera waren mir Herr Stoll und HerrGroßmann von der mechanischen Werkstatt des physikalischen Instituts behilflich, wodie Polarisationskamera und einige Probekörper in kurzer Zeit und in bester Qualitätgefertigt wurden.Insgesamt hatte ich in Freiburg eine wunderbare Zeit, was besonders an den nettenKollegen und neu gewonnenen Freunden lag. Dafür bedanken möchte ich mich bei Ber-nard Haasdonk, Lothar Bergen, Nikos Canterakis, Dimitrios Katsoulas, Marc Schael,und Olaf Ronneberger. Während aller Höhen und Tiefen sorgte Claus Bahlmann im-mer für eine nette Zimmeratmosphäre und den rechten Spaßfaktor.Mein ganz besonderer Dank gilt dem alleinigen, tapferen Korrekturleser dieser Disser-tation, Nikos Canterakis.Meinen Eltern danke ich für ihre Unterstützung und das finale Durchlesen der Ar-beit.Von ganzem Herzen bedanken möchte ich mich bei Julia - meiner Liebe - , dass siemir die Zeit gab, dieses Werk fertig zu stellen und dafür häufig zurück stand; auch warsie mein Ausgleich, meine Entspannung und meine Freude. Zum Ende hin eine starkeMotivation für mich war unser gemeinsamer Schatz Lotta Sophia, dort noch nicht aufder Welt aber schon präsent.

    Stefan Rahmann

  • Inhaltsverzeichnis

    1 Einleitung 1

    1.1 Wahrnehmung von polarisiertem Licht . . . . . . . . . . . . . . . . . . 1

    1.2 Einordnung und Motivation . . . . . . . . . . . . . . . . . . . . . . . . 2

    1.3 Bisherige Arbeiten über Polarisationsanalyse . . . . . . . . . . . . . . . 4

    1.4 Ziel dieser Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

    1.5 Überblick und Innovationen . . . . . . . . . . . . . . . . . . . . . . . . 6

    2 Das Polarisationsbild 9

    2.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

    2.2 Stand der Technik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

    2.3 Das Polarisationsbild . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

    2.3.1 Partiell linear polarisiertes Licht . . . . . . . . . . . . . . . . . . 10

    2.3.2 Messung von partiell linear polarisiertem Licht . . . . . . . . . . 12

    2.3.3 Der Phasenwinkel . . . . . . . . . . . . . . . . . . . . . . . . . . 13

    2.3.4 Überlagerung von polarisiertem Licht . . . . . . . . . . . . . . . 14

    2.3.5 Das Rechnen mit Phasenwerten . . . . . . . . . . . . . . . . . . 15

    2.4 Polarisationskamera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

    2.4.1 Messung von partiell linear polarisiertem Licht mit einer Kamera 16

    2.4.2 Systembeschreibung . . . . . . . . . . . . . . . . . . . . . . . . 16

    2.4.3 Polarisationsanalyse mit einem sich kontinuierlich drehenden Filter 18

    2.4.4 Bildaufname in Videoechtzeit . . . . . . . . . . . . . . . . . . . 19

    2.4.5 Kalibrierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

    2.4.6 Belichtungsreihen . . . . . . . . . . . . . . . . . . . . . . . . . . 21

    2.5 Modellierung des Rauschens im Polarisationsbild . . . . . . . . . . . . . 22

    2.5.1 Messung von Lichtintensitäten mit einem CCD-Sensor . . . . . 23

    2.5.2 Rauschmodell eines CCD-Sensors . . . . . . . . . . . . . . . . . 23

    vii

  • viii INHALTSVERZEICHNIS

    2.5.3 Fortpflanzung des Rauschens . . . . . . . . . . . . . . . . . . . . 24

    2.5.4 Rauschen des Polarisationsbildes . . . . . . . . . . . . . . . . . 25

    2.6 Polarisationsfilter und beschränkter Sehwinkel . . . . . . . . . . . . . . 27

    2.7 Beispielbilder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

    2.8 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

    3 Reflexion und Polarisation von Licht 31

    3.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

    3.2 Reflexion von Licht an Oberflächen . . . . . . . . . . . . . . . . . . . . 32

    3.2.1 Reflexionsparameter . . . . . . . . . . . . . . . . . . . . . . . . 32

    3.2.2 Reflexion an glatten Oberflächen . . . . . . . . . . . . . . . . . 33

    3.2.3 Reflexion an rauen Oberflächen . . . . . . . . . . . . . . . . . . 33

    3.3 Fresnel-Gleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

    3.4 Polarisation durch Reflexion . . . . . . . . . . . . . . . . . . . . . . . . 38

    3.4.1 Oberflächenreflexion und Polarisation . . . . . . . . . . . . . . . 38

    3.4.2 Körperreflexion und Polarisation . . . . . . . . . . . . . . . . . 39

    3.5 Reflexionsmodell für Polarisation . . . . . . . . . . . . . . . . . . . . . 40

    3.6 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

    4 Geometrische Analyse eines Polarisationsbildes 45

    4.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

    4.2 Modellierung der Kamera . . . . . . . . . . . . . . . . . . . . . . . . . 46

    4.3 Geometrische Analyse einer Phasenmessung . . . . . . . . . . . . . . . 48

    4.4 Das Phasenbild als Vektorfeld . . . . . . . . . . . . . . . . . . . . . . . 49

    4.5 Äquipotentialkurven als Bilder von Profilschnitten . . . . . . . . . . . . 50

    4.5.1 Eine vorläufige Annahme . . . . . . . . . . . . . . . . . . . . . . 50

    4.5.2 Feldlinien als Bilder von Isotiefen-Profilschnitten . . . . . . . . . 51

    4.5.3 Ableitung des Vektorfeldes durch ein Potential . . . . . . . . . . 53

    4.5.4 Rekonstruktion mit einem Polarisationsbild . . . . . . . . . . . 54

    4.6 Äquipotentialkurven . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

    4.6.1 Berechnung von Äquipotentialkurven . . . . . . . . . . . . . . . 55

    4.6.2 Genauigkeitsuntersuchung . . . . . . . . . . . . . . . . . . . . . 56

    4.7 Körper- oder Oberflächenreflexion? . . . . . . . . . . . . . . . . . . . . 56

    4.7.1 Physikalische und polarisationsbasierte Analyse . . . . . . . . . 56

  • INHALTSVERZEICHNIS ix

    4.7.2 Geometrische Analyse eines einzelnen Phasenbildes . . . . . . . 57

    4.7.3 Geometrische Analyse von mehreren Bildern . . . . . . . . . . . 59

    4.8 Objekterkennung und lokale Formanalyse . . . . . . . . . . . . . . . . . 59

    4.8.1 Das Phasenbild als geometrisches Objektmerkmal . . . . . . . . 59

    4.8.2 Objekterkennung . . . . . . . . . . . . . . . . . . . . . . . . . . 60

    4.8.3 Lokale Formanalyse . . . . . . . . . . . . . . . . . . . . . . . . . 61

    4.9 Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

    4.9.1 Lokale Rekonstruktion . . . . . . . . . . . . . . . . . . . . . . . 61

    4.9.2 Detektion von lokalen Deformationen . . . . . . . . . . . . . . . 62

    4.10 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

    5 Rekonstruktion von impliziten Oberflächen 67

    5.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

    5.2 Algebraische Funktionen und Potenzsubstitution . . . . . . . . . . . . . 68

    5.3 Algebraische Äquipotentialkurven . . . . . . . . . . . . . . . . . . . . . 69

    5.4 Ebene Flächen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

    5.5 Quadriken - Direkte Rekonstruktion . . . . . . . . . . . . . . . . . . . . 74

    5.6 Quadriken - Einzelbild . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

    5.7 Quadriken - Indirekte Rekonstruktion . . . . . . . . . . . . . . . . . . . 81

    5.8 Quadriken - Experimente und Ergebnisse . . . . . . . . . . . . . . . . . 82

    5.9 Flächen mit höherem Grad . . . . . . . . . . . . . . . . . . . . . . . . . 86

    5.9.1 Direkte Rekonstruktion . . . . . . . . . . . . . . . . . . . . . . . 86

    5.9.2 Lokale Optimalität . . . . . . . . . . . . . . . . . . . . . . . . . 87

    5.9.3 Indirekte Rekonstruktion . . . . . . . . . . . . . . . . . . . . . . 90

    5.10 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

    6 Rekonstruktion von expliziten Oberflächen 93

    6.1 Fehlerfunktion, Oberflächenmodellierung und Optimierungsverfahren . 94

    6.1.1 Fehlerfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94

    6.1.2 Oberflächenmodellierung . . . . . . . . . . . . . . . . . . . . . . 95

    6.1.3 Optimierungsverfahren . . . . . . . . . . . . . . . . . . . . . . . 98

    6.2 Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99

    6.2.1 Theoretische Rekonstruktionsgenauigkeit . . . . . . . . . . . . . 99

    6.2.2 Simulierte Daten . . . . . . . . . . . . . . . . . . . . . . . . . . 101

  • x INHALTSVERZEICHNIS

    6.2.3 Reale Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

    6.3 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

    7 Zusammenfassung und Ausblick 113

    7.1 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

    7.2 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

    Literaturverzeichnis 117

  • Kapitel 1

    Einleitung

    1.1 Wahrnehmung von polarisiertem Licht

    Das Licht, beschrieben durch seine Wellennatur, wird hauptsächlich durch die GrößenIntensität und Farbe aber auch - und das ist für diese Arbeit von Interesse - durch sei-nen Polarisationszustand charakterisiert. In polarisiertem Licht schwingen die Wellenin einer speziellen Vorzugsrichtung. Die Netzhaut des menschlichen Auges ist emp-findlich für die Wahrnehmung der Intensität und der Farbe des einfallenden Lichts.Den Polarisationszustand des Lichts kann der Mensch hingegen nicht erfassen 1. Diesist wohl auch als Hauptgrund zu nennen, warum dem Thema der Polarisation in derWissenschaft des Computer-Sehens weniger Aufmerksamkeit geschenkt wird.

    In der Biologie der Tiere hingegen ist die Interpretation von polarisiertem Licht weitverbreitet [26, 147]: Insekten und Vögel orientieren sich anhand des polarisierten Him-mels, manche Spezies sogar am polarisierten Nachthimmel [29]. Besonders die Orientie-rungsfähigkeit und die Bewegungsmuster der Bienen unter polarisiertem Licht wurdenschon früh erforscht [40, 41]. Der Polarisations-Sensor der Wüstenameise Cataglyphis[146] war die Basis für eine technische Implementierung in Form eines autonomen Ro-boters [73, 74]. Aber auch Unterwassertiere wie die Garnele [83] oder der Tintenfisch[129] nutzen Polarisation zur Kontrastverstärkung und Objekterkennung.

    Das menschliche Auge, genauso wie moderne Kamerasensoren, verfügt über einzel-ne Sensoren zur Farbwahrnehmung. Eine äquivalente technische Sensorstruktur gibtes für die Erfassung von polarisiertem Licht bisher nicht. Die Polarisation von Lichtwird mittels eines Polfilters erfasst, welcher vor dem Sensor - Kamera oder Auge -platziert wird und dessen Durchlassrichtung veränderbar ist. Verändert sich die durch-gelassene Intensität je nach Orientierung des Polfilters, so ist das Licht polarisiert, undmaximale sowie minimale Intensität einschließlich der korrespondierenden Filterorien-

    1Im Allgemeinen und systematisch nutzbringend nimmt der Mensch die Polarisation des Lichtsnicht wahr; es gibt jedoch das Phänomen des Haidinger-Büschels [107], bei dem Polarisationszuständein der Nähe des gelben Flecks schwach wahrgenommen werden können.

    1

  • 2 1. Einleitung

    tierungen beschreiben den Polarisationszustand des Lichts. Jedem Photographen istdiese Vorgehensweise geläufig: Ein vor das Objektiv geschraubter Polfilter wird unterder visuellen Kontrolle des Photographen solange gedreht, bis die optimale Orientie-rung für das Photo gefunden ist. Beispielsweise lassen sich so unerwünschte Reflexionenauf spiegelnden Oberflächen unterdrücken, Glasscheiben werden transparenter und derHimmel erscheint in dunklerem Blau. Diese Vorgehensweise erfasst natürlich nicht denkompletten Polarisationszustand, wofür ja mehr als eine Aufnahme notwendig ist, nutztaber auf geschickte Art und Weise die Eigenschaften der Polarisation um eine visuelleVerbesserung der Bildqualität zu erzielen.

    Polarisation stellt ein Mehr an Information zur Verfügung; Helligkeits- oder Farb-sehen sind Untermengen dieser Information. Die Evolution verhalf manchen Tierenzu Fähigkeiten der Polarisationswahrnehmung; reines Helligkeits- oder Farbsehen warfür die Umgebung oder die Aufgaben dieser Spezies nicht ausreichend. Der Menschhingegen verfügt, beispielsweise im Gegensatz zu Insekten, über ein hoch entwickel-tes Sehsystem mit enormen Assoziativfähigkeiten. Daher besteht für den Menschenkein Bedarf nach zusätzlichen Sensorkanälen. Einem maschinellen Sehsystem hingegenkann zusätzliche Sensorinformation einen erheblichen Vorsprung verschaffen. Insofernwird in dieser Arbeit untersucht, welchen Gewinn der Sensorkanal Polarisation demComputer-Sehen verschafft. Im Vordergrund stehen dabei Problemstellungen, welchemit rein intensitätsbasierten Sensoren bisher nur unzureichend oder gar nicht gelöstwerden konnten.

    1.2 Einordnung und Motivation

    Passives Computer-Sehen

    Passive Sehsysteme analysieren die Helligkeitsinformation eines einzelnen oder mehre-rer Bilder, um zu einer dreidimensionalen Interpretation der Szene zu gelangen. EineKlasse von Helligkeitsinformation stellen abrupte Übergänge wie Kanten und Eckendar. Sind derartige korrespondierende Merkmale in mehreren Bildern sichtbar, so kanndurch Triangulation deren Tiefe im Raum bestimmt werden; dies ist das klassischeStereosehen, was eine hochgenaue Vermessung von Raumpunkten erlaubt (Stereop-sis, z.B. [36, 39] und Structure-From-Motion, z.B. [22, 49]). Steht nur ein Bild zurVerfügung, so lässt nur Vorwissen eine dreidimensionale Interpretation zu; dies kannzum Beispiel das Wissen über die Existenz einer texturierten Oberfläche sein (Shape-From-Texture, z.B. [39]). Eine weitere Möglichkeit, von nur einer Perspektive aus dieTiefe von Szenenpunkten zu bestimmen, ist die Ausnutzung von Fokussierungsinfor-mation (Depth-From-Focus, z.B. [43]). Eine zweite Klasse von Helligkeitsinformationbesteht aus eher graduellen Intensitätsveränderungen in Form von Schattierungen. Miteinem Bild oder Mehrfachaufnahmen bei unterschiedlichen Beleuchtungen ist eine qua-litative Formerfassung von Oberflächen möglich (Shape-From-Shading respektive Pho-tometric Stereo, z.B. [55, 68, 69]). Allen hier aufgeführten Ansätzen ist gemein, dass

  • 1.2. Einordnung und Motivation 3

    sie auf der Eigenschaft der diffusen Reflexion der Körperoberflächen, dies ist die so-genannte Körperreflexion, beruhen. Glänzende Oberflächen reflektieren vermehrt dasUmgebungslicht, dies ist die sogenannte Oberflächenreflexion, was häufig zu falschenInterpretationen der betrachteten Szene führt.

    Aktives Computer-Sehen

    Unter aktiven Systemen des Computer-Sehens werden hier Systeme verstanden, welcheneben dem Kamerasensor noch aus einer speziellen Beleuchtungseinheit bestehen; miteiner Ansicht kann dann die vollständige Tiefeninformation abgeleitet werden. Gemäßihres Messprinzips werden die aktiven Methoden in drei Gruppen aufgeteilt: Trian-gulation (Strukturierte Beleuchtung), Interferometrie und Laufzeitentfernungsmessung(siehe z.B. [50, 124]). Aktive Sehsysteme haben den Vorteil auch Oberflächen ohneHelligkeitsmerkmale hochgenau vermessen zu können. Sie sind allerdings unhandlicherund eher für spezielle Messaufgaben ausgelegt und geeignet.

    Spiegelnde Oberflächen

    Spiegelnde Oberflächen stellen eine besondere Herausforderung für passive Sehsystemedar. Auf spiegelnden Oberflächen überlagert sich das Bild der reflektierten Umgebungmit dem Bild der Oberfläche selbst. Insofern ist nicht zu unterscheiden, ob ein Hel-ligkeitsmerkmal dem Objekt oder der Umgebung zuzuordnen ist. Die Detektion vonspiegelnden Reflexionen oder Glanzlichtern ist daher von grundlegender Bedeutungfür darauf folgende Bildverarbeitungsalgorithmen, wie zum Beispiel das Stereosehen.Basierend auf einem Grauwertbild kann nur die relative Helligkeit eines Punktes zurKlassifizierung in gerichtete oder diffuse Reflexion herangezogen werden [15, 154]. Farb-bilder können die unterschiedliche Farbe von Glanzlichtern und Objektfarbe nutzen[70]. Ist die Manipulation der Beleuchtungsquellen möglich, so erlaubt dies die sichereDetektion von Glanzlichtern [95]. Bewegt sich der Beobachter relativ zur Szene, so istdie daraus resultierende Bewegung von Bildmerkmalen unterschiedlich, je nachdem obes sich um die Projektion von raumfesten oder reflektierten Merkmalen handelt. Dieskann vorteilhaft beim Stereosehen ausgenutzt werden, um die Körperreflexion von derOberflächenreflexion zu trennen [6, 78, 135].

    Ist eine Oberfläche frei von Textur, hat also eine homogene Grundhelligkeit, so gibtes im Allgemeinen nur folgende zwei Möglichkeiten der Rekonstruktion: Kanten in derOberfläche zeichnen sich in der Regel auch als Kanten im Helligkeitsbild ab. Auf derBasis von Mehrfachansichten können diese Raumkurven dann berechnet werden. DieOberfläche ist dann aber nicht flächenhaft, sondern nur an wenigen Punkten rekonstru-ierbar. Die zweite Möglichkeit beschränkt sich auf konvexe Oberflächen, welche überihre Silhouetten rekonstruiert werden können [21, 22, 27, 42].

    Eine, wenn auch etwas exotische anmutende, passive Methode zur Rekonstruktion vontexturfreien Oberflächen wird in [134] vorgestellt: Anstatt einer herkömmlichen Kame-

  • 4 1. Einleitung

    ra wird ein System verwendet, bei dem der Sensor hinter dem Objektiv in kleinstenSchritten hochgenau verfahrbar ist, d.h. die Brennweite beliebig veränderbar ist; durchdiese Mehrfachmessungen ist die dreidimensionale Information der Szene zugänglich.

    Neben der Information der Kanten und Silhouetten kann auch die Projektion der ge-spiegelten Umgebung direkt zur Rekonstruktion der Oberfläche genutzt werden. Einelokale Oberflächenrekonstruktion bei kompakten oder punktförmigen Lichtquellen wur-de in [7, 8, 51] präsentiert. In [100] wurde auf Grund der Trajektorie eines Glanzlichtsdie Oberfläche entlang der zugehörigen Kurve bestimmt. Bei nicht aktiver Beleuchtungwird bei diesen Ansätzen vorausgesetzt, dass sich eine Beleuchtung mit geeigneterForm auf der Oberfläche spiegelt. Die Rekonstruktion ist auf die Oberflächenpunktebeschränkt, welche das Glanzlicht abbilden. Eine flächenhafte Rekonstruktion ist nichtmöglich.

    Eine aktive oder strukturierte Beleuchtung erlaubt die genaue und flächenhafte Re-konstruktion von spiegelnden Oberflächen. Ein direkter Ansatz ist in [115] zu finden.Indirekte Verfahren werden in [5, 11, 46, 103, 104] vorgestellt. In [164, 165] wird dasObjekt mittels einer speziellen Beleuchtung und eines Drehtellers rekonstruiert.

    Klassische Triangulationsverfahren beruhen auf diffuser Reflexion und sind daher nurbei leicht spiegelnden Oberflächen einsetzbar. Die Interferometrie vermisst spiegelndeOberflächen höchst genau, doch kommen nur Objekte kleineren Ausmaßes in Frage,und ein hoher Gerätepreis ist ebenfalls als Nachteil zu nennen.

    1.3 Bisherige Arbeiten über Polarisationsanalyse

    Die Polarisationsanalyse und das im Computer-Sehen zentrale Gebiet der Reflexions-modelle haben unter dem Namen Physics-Based-Vision zusammengefunden. Polarisa-tionsbilder haben eine Vielzahl von Methoden und Anwendungen hervorgebracht.

    Besonders das Auftreten von Glanzlichtern auf glänzenden Oberflächen stellt für dasreine Helligkeitssehen ein Problem da. Die Detektion von Glanzlichtern [1, 91] bezie-hungsweise die Trennung von Oberflächen- und Körperreflexion [94, 151] ist daher einzentrales Thema und wird vorteilhaft zusammen mit Farbbildern eingesetzt [77, 94].Für den Fall, dass die Orientierung des Polfilters bei den Aufnahmen unbekannt ist,wird in [144] eine statistisch basierte Methode vorgestellt.

    Die Polarisationsanalyse von reflektiertem Licht erlaubt es, Rückschlüsse auf den Bre-chungsindex zu ziehen. Insofern können Polarisationsbilder zur Klassifikation von Ma-terialien, insbesondere zur Trennung von Dielektrika und Metallen, eingesetzt werden[19, 92, 159].

    Weiterhin können Polarisationsbilder zur Objekterkennung [20, 44, 72] und zum allge-meinen Szenenverständnis verwendet werden, zum Beispiel zur Zuordnung von Kantenzu bestimmten Kantenklassen (i.e. Albedokanten, Glanzlichtkanten, Silhouetten, etc.)

  • 1.3. Bisherige Arbeiten über Polarisationsanalyse 5

    [14, 156].

    Neben der vorteilhaften Kombination von Farb- und Polarisationsinformation wurdedie Polarisationsanalyse auch im Infrarotspektrum durchgeführt [20, 88, 160]. Diesist deshalb interessant, weil das thermische Licht der Körperreflexion entstammt,während im sichtbaren Spektrum die Polarisation von Licht hauptsächlich auf Ober-flächenreflexion zurückzuführen ist.

    Da die Polarisationsanalyse die Trennung der Oberflächen- von der Körper-reflexionskomponente ermöglicht, können Polarisationsbilder auch zur Analyse ebener,transparenter Szenen, wie z.B. glasgefasster Bilder, eingesetzt werden: Die Reflexionder Umgebung auf der Glasscheibe kann präzise von dem Bild oder Gemälde hinterdem Glas getrennt werden [98, 120].

    Eine weitere Anwendung von Polarisationsbildern sind die Eliminierung von Dunst beiAußenaufnahmen [118] und die Verbesserung der Sicht bei Aufnahmen unter Wasser[116].

    Zur Aufnahme eines Polarisationsbildes wird der Polfilter vor der Kamera gedreht;genauso kann auch ein drehbarer Polfilter vor der Beleuchtungsquelle zur Szenenanalyseeingesetzt werden [1, 32, 72]. Dadurch lässt sich auch eine eindeutige Rekonstruktionbeim nicht kalibrierten Photometrischen-Stereo-Verfahren erreichen [33].

    Bei der dreidimensionalen Vermessung mittels eines Laserlichtschnittverfahrens sindbesonders Mehrfachreflexionen ein Problem, was aber durch polarisationsbasierteAnsätze zu lösen ist [23, 145].

    Allgemein gefasste Artikel über Polarisationsbilder und ihre Anwendungen plus derSystembeschreibung einer flüssigkristalbasierten Polarisationskamera sind in [44, 157,158, 161] nachzulesen.

    Auch in der medizinischen Diagnostik werden Polarisationsbilder zur Gewebeanalyseangewendet [30, 31].

    Erste Ansätze der Formanalyse mit Hilfe von Polarisationsbildern sind in [149, 150] zufinden: Dort wurde auch die Idee formuliert, dass mit zwei Polarisationsansichten dieOrientierung einer Ebene zu bestimmen ist. In der Folge wurden Polarisationsbildernur zur Trennung des diffusen vom spiegelnden Lichtanteil verwendet, um dann zumBeispiel den Photometrischen-Stereo-Ansatz auch auf glänzende Objekte anwendenzu können [94]. In [89] wird eine Methode zur qualitativen Rekonstruktion von opa-ken Objekten mit Hilfe eines einzelnen Farb-Polarisationsbildes präsentiert; mit einemstatistischen Ansatz werden Reflexionsparameter und Form geschätzt. Auf transparen-te Objekte beschränken sich die Arbeiten [87, 114]: Voraussetzung ist die Kenntnisdes Brechungsindex und der Einsatz einer speziellen Beleuchtung. In [114] wird nurein Grauwertbild verwendet, aber eine eindeutige Rekonstruktion ist nicht garantiert;in [87] werden zwei Grauwertbilder für eine eindeutige Rekonstruktion genutzt. Zu-sammengefasst kann gesagt werden, dass bisherige polarisationsbasierte Ansätze keinegenaue Rekonstruktion von spiegelnden Oberflächen ermöglichen.

  • 6 1. Einleitung

    1.4 Ziel dieser Arbeit

    Die Form von glänzenden Oberflächen kann durch passive, helligkeitsbasierte Sehsyste-me nicht rekonstruiert werden. Ziel dieser Arbeit ist daher die Nutzung der Mehrinfor-mation von Polarisationsbildern, um eine flächenhafte und beleuchtungsunabhängigeRekonstruktion von glänzenden Oberflächen zu erreichen. Im Gegensatz zu bisherigenArbeiten werden keine Annahmen bezüglich des Materials getroffen, keine besondereBeleuchtung wird vorausgesetzt und es wird keine Farbinformation ausgenutzt.

    1.5 Überblick und Innovationen

    Das zweite Kapitel beginnt mit einer Einführung in die Messung von partiell linearpolarisiertem Licht und dessen bildhafte Darstellung in den drei Komponenten In-tensität, Grad der Polarisation und Orientierung der Polarisation (Phasenbild). DasKonzept und die Realisierung einer neuartigen Polarisationskamera wird vorgestellt;diese gestattet die Aufnahme von Polarisationsbildern mit hohem Dynamikumfang inVideoechtzeit. Die Genauigkeit der Messung in den Polarisationskomponenten wirdmodelliert und hergeleitet.

    Im dritten Kapitel wird beschrieben, wie Licht durch die Reflexion an Oberflächenpolarisiert wird. Ein Polarisation-Reflexionsmodell mit den beschreibenden Parame-tern wird formuliert. Es zeigt sich, dass unter der Annahme einer unpolarisierten Be-leuchtung das Phasenbild eine für die Objektform charakteristische Größe und einephotometrische Invariante ist, da es nicht von der Beleuchtungsverteilung abhängt.

    Das vierte Kapitel konzentriert sich auf die geometrische Analyse des Phasenbildes. Eswird gezeigt, dass aus dem Phasenbild Äquipotentialkurven berechnet werden können,welche die Projektionen von Profilschnitten der betrachteten Oberfläche mit konstanterTiefe sind. Ein einzelnes Phasenbild reduziert das Rekonstruktionsproblem um eineDimension; nicht mehr die Tiefe aller Oberflächenpunkte ist zu berechnen, sondern nurnoch die Tiefe der bereits bekannten Profilschnitte.

    In Intensitäts- und Phasenbildern von glatten2, texturfreien Oberflächen sind keinepunktförmigen Merkmale zu extrahieren, welche auf Grund ihrer Korrespondenz inzwei oder mehr Ansichten eine direkte Rekonstruktion ermöglichen würden. Eine Me-thode zur Rekonstruktion durch Polarisationsbilder geht mit der Wahl einer geeignetenOberflächenmodellierung einher. Im fünften Kapitel werden dazu implizite bzw. alge-braische Flächen eingesetzt. Von zentraler Bedeutung ist der Beweis, dass zwei Polari-

    2Unter einer glatten Oberfläche wird hier eine Oberfläche verstanden, welche durch eine stückweiseeinmal stetig differenzierbare Funktion beschrieben werden kann. Diese makroskopische Glattheit be-schreibt die Form oder die Geometrie der Oberfläche. Daneben wird in dieser Arbeit noch von einermikroskopischen Glattheit, siehe Abschnitt 3.2, die Rede sein: Glattheit, als Gegenteil von Rauheit,beschreibt dann die Oberflächenbeschaffenheit, und entzieht sich der optischen Auflösung durch denBetrachter oder das Sehsystem.

  • 1.5. Überblick und Innovationen 7

    sationsbilder, vergleichbar dem klassischen Stereosehen, eine eindeutige Rekonstruktionermöglichen. Für die Objektform der Quadriken kann eine direkte Rekonstruktionsme-thode hergeleitet werden, und Experimente zeigen genaue Rekonstruktionsergebnisse.Für algebraische Flächen höherer Ordnung kann keine direkte Lösung angegeben wer-den, doch kann durch Simulationen eine lokale Optimalität nachgewiesen werden.

    Im sechsten Kapitel werden zur Beschreibung von 212D Oberflächen explizite Funktio-

    nen in Form von bilinearen Tiefenfunktionen verwendet. Dazu wird ein indirektes Re-konstruktionsschema vorgestellt. Auch hier zeigt sich wieder, dass zwei Ansichten eineeindeutige Rekonstruktion ermöglichen. Aussagen über die Rekonstruktionsgenauigkeitwerden hergeleitet und in Simulationen verifiziert. Anhand eines kalibrierten Körperswird experimentell demonstriert, dass Polarisationsbilder eine präzise Rekonstruktionermöglichen. Auch leicht konkave Flächen sind rekonstruierbar.

  • 8 1. Einleitung

  • Kapitel 2

    Das Polarisationsbild

    2.1 Einleitung

    Zur Messung von linear polarisiertem Licht ist ein linearer Polfilter vor dem Sensordrehbar zu positionieren; unter verschiedenen Orientierungen des Filters werden Bilderaufgenommen, welche miteinander verrechnet werden und dann das Polarisationsbildergeben. In diesem Kapitel wird zu diesem Zweck eine selbst entwickelte Polarisations-kamera mit folgenden charakteristischen Merkmalen vorgestellt:

    • Messung von partiell linear polarisiertem Licht.

    • Erzeugung hochgenauer Polarisationsbilder.

    • Aufnahme von Farb-Polarisationsbildern.

    • Hochdynamische Bilder durch Belichtungsreihen.

    • Automatische, softwaregesteuerte Aufnahme.

    • Videoechtzeitfähig.

    Motiviert wurde die Konzeption und Realisierung dieses Kamerasystems aus der Not-wendigkeit heraus, eine automatische Polarisationskamera zur präzisen Bestimmungvon Polarisationsgrößen zur Verfügung zu haben. Kein bisher erhältliches Systemerfüllte die gestellten Anforderungen. Die Innovation besteht in einem Polarisationsfil-ter, der sich kontinuierlich vor dem Objektiv dreht und die Bildtriggerung synchroni-siert.

    Nach einer Einführung in die Beschreibung von partiell linear polarisiertem Licht unddessen Messung wird die realiserte Polarisationskamera vorgestellt. Daran schließt sicheine Modellierung des Rauschverhaltens an, und Aussagen über die Genauigkeiten vongemessenen Polarisationsgrößen werden abgeleitet. Diese Aussagen werden anhand vonBeispielen belegt.

    9

  • 10 2. Das Polarisationsbild

    2.2 Stand der Technik

    Üblicherweise wurden bisherige Arbeiten zur Polarisationsanalyse mit einem vor demObjektiv positionierten Polfilter durchgeführt, welcher vor jeder Aufnahme in eine be-kannte Position gebracht wurde. Die Positionierung erfolgte per Hand oder automa-tisch. Auf diesem Prinzip beruhen die wichtigsten Arbeiten der letzten Jahre, nament-lich die von Drbohlav et al. [32, 33], Ikeuchi et al. [86, 89, 114], Müller [90, 91, 92],Nayar et al. [94] und Schechner et al. [117, 120, 118]. Mechanische Vibrationen durchdie Ansteuerung oder Erschütterungen durch die manuelle Bedienung können den Auf-nahmeprozess stören. In [94, 161] wird erwähnt, dass die einzelnen Aufnahmen bis zueinem Pixel untereinander verschoben sein können, was die Qualität des Polarisations-bildes besonders an Helligkeitsübergängen verschlechtert. In [117] wird versucht durchnachträgliche Bildverarbeitung diese Fehler zu korrigieren. Eigene erste Versuche miteinem System mit eingebautem Filterrad ergaben ebenfalls schlechte Ergebnisse. Ty-pischerweise wurden in fast allen Arbeiten, mit dem Ziel einer genaueren Bestimmungder Polarisationskomponenten, mehr als die drei notwendigen Aufnahmen gemacht.

    Eine Alternative zu mechanischen Polarisationssystemen wurde von Wolff und an-deren entwickelt [44, 156, 157, 161]: Zwei Flüssigkristall-Elemente ermöglichen dieDrehung der Polarisationsrichtung, so dass auch hier insgesamt drei bzw. vier Quasi-Filterorientierungen zur Verfügung stehen. Das System ist automatisch, hat den Vorteilohne Mechanik auszukommen und kann bis zu 5 Polarisationsbilder pro Sekunde auf-nehmen. Eine genaue Bestimmung der Polarisationskomponenten reduziert sich aberauf einen begrenzten Lichtwellenbereich, so dass keine Farbaufnahmen möglich sind.

    Auch wurden Polarisationssysteme auf der Basis eines Strahlteilers und zwei Kameraskombiniert mit einem rotierenden Polfilter oder einem Flüssigkristall-Element aufge-baut [141, 155].

    Konzepte zum Aufbau eines Polarisationssensors, der ähnlich eines Farbsensors miteiner Aufnahme den kompletten Polarisationszustand misst, wurden in [20] vorgestellt.

    Ein relativ einfach zu realisierendes System zur Polarisationsmessung wurde in [119]angedacht: Vor der Kamera wird ein Filter mit örtlich unterschiedlichen Polarisations-richtungen montiert; die Kamera wird rotiert und die Einzelaufnahmen mittels Mosa-iking zu einem Polarisationsbild zusammengesetzt.

    2.3 Das Polarisationsbild

    2.3.1 Partiell linear polarisiertes Licht

    Die Überlagerung elektromagnetischer Wellen im sichtbaren Frequenzbereich wird ge-meinhin als Licht bezeichnet. Wird Licht mit einer Kamera gemessen, so bestimmt diespektrale Sensitivität des Bildsensors die Stärke des Bildsignals relativ zur Beleuch-

  • 2.3. Das Polarisationsbild 11

    tungsstärke des einfallenden Lichts. CCD-Sensoren sind typischerweise im sichtbarenBereich sensitiv, was Wellenlängen von 400 bis 700nm entspricht. Eine elektromagneti-sche Welle wird durch ihre Frequenz, Amplitude, Ausbreitungsrichtung, Orientierungund Phasenlage beschrieben. Die Orientierung der elektromagnetische Welle ist durchden elektrischen Feldvektor gegeben; er beschreibt den Polarisationszustand. Eine ein-zelne elektromagnetische Welle ist linear polarisiert, wenn der Feldvektor in einer Ebe-ne schwingt. Die Orientierung dieser Ebene ist die Polarisationsrichtung. Überlagernsich zwei Wellen identischer Phasenlage, so ist die resultierende Welle ebenfalls li-near polarisiert. Bei beliebiger Phasenlage entsteht eine elliptisch polarisierte Welle.Der Feldvektor schwingt dabei nicht konstant in einer Ebene, sondern dreht sich mitdem Fortschreiten der Welle um die Ausbreitungsrichtung. Natürliches Licht, so wiees zum Beispiel auch von einem Glühfaden ausgeht, besteht aus einer Überlagerungvon einer Vielzahl elektromagnetischer Wellen mit unterschiedlichen Frequenzen undAmplituden. Sind in einer Ausbreitungsrichtung alle Orientierungen und Phasenlagengleichermaßen vertreten, so spricht man von unpolarisiertem Licht. UnpolarisiertesLicht lässt sich in zwei orthogonale Komponenten gleicher Amplitude zerlegen, welchekeine definierbare Phasenbeziehung zueinander aufweisen; man sagt, die Komponen-ten sind inkoherent. Daraus folgt zum Beispiel, dass die senkrechte Überlagerung vonnatürlich erzeugtem, linear polarisiertem Licht gleicher Stärke in unpolarisiertem Lichtresultiert. Besteht Licht aus einem Anteil von linear polarisiertem und unpolarisiertemLicht, so wird es als partiell linear polarisiert bezeichnet (siehe Skizze 2.1). Grundlagenzur Optik und zum polarisierten Licht sind zum Beispiel in [13, 24, 102] nachzulesen.

    + =

    Unpolarisiertes Licht Linear polarisiertes Licht Partiell linear polarisiertes Licht

    Abbildung 2.1: Entstehung von partiell linear polarisiertem Licht aus derÜberlagerung von unpolarisiertem und linear polarisiertem Licht. Dargestellt ist ei-

    ne schematische Repräsentation durch die elektrischen Feldvektoren.

    Unpolarisiertes Licht wird nur durch die Intensität beschrieben. Linear polarisiertesLicht enthält neben der Intensität auch noch eine Orientierung. Daraus folgt, dasspartiell linear polarisiertes Licht aus drei beschreibenden Größen besteht, nämlich derIntensität des unpolarisierten Anteils, der Intensität des polarisierten Anteils und derOrientierung des polarisierten Anteils. Zur kompletten Analyse von partiell linear pola-risiertem Licht sind demnach drei geeignete Messungen notwendig, um alle drei Kom-ponenten des Lichts zu bestimmen.

  • 12 2. Das Polarisationsbild

    2.3.2 Messung von partiell linear polarisiertem Licht

    Linear polarisiertes Licht mit der Intensität ipol fällt senkrecht auf einen linearenPolfilter. In der Ebene des Polfilters sei die Durchlassrichtung durch den Winkelθ und die Orientierung des polarisierten Lichts durch den Winkel φ gegeben. DerWinkel φ wird Phasenwinkel genannt. Die durchgelassene Intensität beträgt dann 1:i = ipol cos

    2(φ− θ). Fällt unpolarisiertes Licht mit einer Intensität iunpol auf den Pol-filter, so wird gerade die halbe Lichtleistung durchgelassen: i = 1

    2iunpol. Fällt partiell

    linear polarisiertes Licht auf einen Polfilter, so ist die durchgelassene Intensität:

    i(θ) =1

    2iunpol + ipol cos

    2(θ − φ) . (2.1)

    Benutzt man die trigonometrische Formel cos2(α) = 12(1 + cos(2α)) und setzt man

    iv =12ipol und ic =

    12(ipol + iunpol), so ergibt sich:

    i(θ) = ic + iv cos (2(θ − φ)) . (2.2)

    Die Intensität als Funktion der Filterorientierung ist in der Abbildung 2.2 dargestellt.Die sinusförmige Funktion i(θ) hat eine Periode von π.

    θ

    i(θ)

    φ φ + π/2

    iv

    ic

    ipol

    12 iunpol

    Abbildung 2.2: Partiell linear polarisiertes Licht: Transmittierte Intensität als Funk-tion der Orientierung des Polfilters.

    Der Grad der Polarisation p ist definiert als (siehe z.B. [13]): p = imax−iminimax+imin

    , woraus p =ivic

    folgt. Die mittlere Intensität, welche durch den Polfilter durchgelassen wird, ist ic undwird der Einfachheit halber von nun an mit i bezeichnet. Für die Gesamtintensität deseinfallenden Lichts gilt: ipol + iunpol = 2i; das heißt, unabhängig vom Polarisationsgrad

    1An dieser Stelle wird ein idealer Polfilter angenommen, der in Durchlassrichtung das Licht un-gedämpft durchlässt und in Sperrrichtung komplett löscht. Bei dem hier zum Einsatz kommendenhochwertigen Polarisationsfilter [122] werden diese Eigenschaften so gut wie erfüllt.

  • 2.3. Das Polarisationsbild 13

    passiert gemittelt über alle Filterorientierungen die Hälfte des einfallenden Lichts denPolfilter. Gleichung (2.2) lässt sich nun schreiben als:

    i(θ) = i(1 + p cos (2(θ − φ))

    ). (2.3)

    Durch trigonometrische Umformung lässt sich daraus folgende Form ableiten:

    i(θ) = ( 1, sin(2θ), cos(2θ) ) · ( i, ip sin(2φ), ip cos(2φ) )T = fT (θ) · v . (2.4)Der Vektor f(θ) ist nur eine Funktion der Orientierung des Polfilters, während derVektor v Elemente in Abhängigkeit der Polarisationskomponenten i, p und φ enthält.Betrachtet sei nun der Fall, dass die minimal notwendige Anzahl von drei Mes-sungen durchgeführt wird. Man fasst die drei Filterorientierungen in einem Vek-tor mit θθθ = (θ1, θ2, θ3)

    T zusammen, und schreibt i(θθθ) = (i(θ1), i(θ2), i(θ3))T und

    F (θθθ) = (f(θ1),f(θ2),f(θ3))T . Es resultiert das lineare Gleichungssystem:

    i(θθθ) = F (θθθ)v . (2.5)

    Die Matrix F ist regulär, wenn alle Filterorientierungen θm paarweise (Modulo π)verschieden sind. Dann existiert eine eindeutige Lösung für den Lösungsvektor v unddamit auch für die Polarisationskomponenten. Die Lösung für v gemäß der obigenGleichung ist numerisch stabil, wenn die Matrix F gut konditioniert ist. Eine guteKondition resultiert, wenn die Differenz der Filterorientierungen zwischen 45◦ und 75◦

    liegt; das Optimum in der Kondition wird bei 60◦ angenommen. Sei v = (v1, v2, v3)T ,

    so berechnen sich die Polarisationskomponenten gemäß:

    i = v1

    p =

    √v22 + v

    23

    v1

    φ =1

    2arctan2(v2, v3)

    , (2.6)

    wobei arctan2 der Arkustangens für alle vier Quadranten ist2.

    2.3.3 Der Phasenwinkel

    Der Phasenwinkel kodiert die Richtung von linear polarisiertem Licht. Der elektrischeFeldvektor schwingt in einer Ebene und somit ist die Richtung der Polarisation ohne

    2Der Arkustangens arctan( yx) besitzt einen Wertebereich von ]− π2 , π2 [, was nur den ersten und vier-

    ten Quadranten in der x/y-Ebene abdeckt. Der arctan2(y, x) hingegen besitzt einen Wertebereich von[−π, π[, was alle vier Quadranten abdeckt. arctan2 ist in (x, y) ∈ R2\(0, 0) folgendermaßen definiert:

    arctan2(y, x) =

    arctan( yx) für x > 0,

    y

    |y|π2 für x = 0,

    arctan( yx) + π für x < 0 und y > 0,

    arctan( yx) − π für x < 0 und y ≤ 0.

    (2.7)

    arctan2 und seine Ableitungen sind über dem gesamten Definitionsgebiet stetig.Anmerkung: Die Bezeichnung arctan2 ist der Programmiersprache MATLAB entlehnt.

  • 14 2. Das Polarisationsbild

    Vorzeichen. Alle Phasenwerte plus ein Vielfaches von π entsprechen derselben Orientie-rung. Die Rechnung mit Phasenwerten erfolgt daher Modulo π, symbolisch mod π. DerEinfachheit halber wird der Zusatz mod π allerdings in der Folge bei der Rechnungmit Phasenwerten nicht verwendet werden. Da es notwendig ist, mit Phasenwertenauch vorzeichenbehaftete Differenzen auszudrücken, wird ein Wertebereich von [−π

    2, π

    2[

    gewählt.

    Anmerkung

    Der Begriff des Phasenwinkels, in der Folge auch häufig nur kurz Phase genannt, solltenicht zu Verwechselungen mit dem Begriff der Phasenlage im Zusammenhang mit derBeschreibung von elektromagnetischen Wellen führen, wie in Abschnitt 2.3.1 erklärtwurde.

    2.3.4 Überlagerung von polarisiertem Licht

    Seien zwei partiell linear polarisierte Lichtstrahlen mit den Komponenten (i1, p1, φ1)und (i2, p2, φ2) gegeben. Die Überlagerung dieser beiden Lichtstrahlen berechnet sichals Überlagerung der sinusförmigen Funktionen i1(θ) und i2(θ) aus Gleichung (2.3):i(θ) = i1(θ)+ i2(θ). Das Ergebnis der Überlagerung i(θ) ist wiederum eine sinusförmigeFunktion mit einer Periode von π, und für die Polarisationskomponenten gilt:

    i = i1 + i2

    p =

    √(i1p1)2 + 2i1p1i2p2 cos(2(φ2 − φ1)) + (i2p2)2

    i1 + i2

    φ =1

    2arctan2

    (i1p1 sin(2φ1) + i2p2 sin(2φ2) , i1p1 cos(2φ1) + i2p2 cos(2φ2)

    ).

    (2.8)

    Besonders wichtig ist die Überlagerung von zwei orthogonal zueinander polarisiertenLichtstrahlen, d.h. φ2 − φ1 = π2 , was bei der Reflexion von Licht an Oberflächen derFall ist (siehe dazu Abschnitt 3.5). Für die Polarisation und die Phase gilt dann:

    p =|i1p1 − i2p2|i1 + i2

    φ =

    {φ1 für i1p1 > i2p2,

    φ2 für i1p1 < i2p2..

    (2.9)

    Die Überlagerung von zwei orthogonal polarisierten Lichtstrahlen reduziert immer denGrad der Polarisation: p < max(p1, p2). Im Extremfall, wenn der polarisierte Anteilbeider Lichtstrahlen gleich ist, ergibt sich als Resultat unpolarisiertes Licht.

  • 2.3. Das Polarisationsbild 15

    2.3.5 Das Rechnen mit Phasenwerten

    Addition und Subtraktion

    Addition und Subtraktion von Phasenwerten werden Modulo π gerechnet. Die Summeund die Differenz sind, genauso wie die Phasenwerte selbst, aus dem Bereich [−π

    2, π

    2[.

    Dies ist wichtig (in Kapitel 5 und 6) für die Subtraktion, damit eine vorzeichenbehafteteDifferenz berechnet werden kann; die Differenz zweier Phasenwerte, die weniger als 45◦

    auseinander liegen, ist dann kontinuierlich in den beiden Phasenwerten.

    Mittelung

    Die Mittelung von Phasenwerten kann nicht genauso wie die Mittelung von reellenZahlen erfolgen, was an folgendem Beispiel illustriert wird: Die Summe von zwei Pha-senwerten 80◦ und -70◦ beträgt korrekterweise -85◦ und nicht 5◦. Die Mittelung vonzwei Phasenwerten entspricht physikalisch der Überlagerung von zwei linear polarisier-ten Wellen gleicher Intensität. Die gewichtete Mittelung von Phasenwerten entsprichtdann physikalisch der Überlagerung von zwei partiell linear polarisierten Wellen, wo-bei die Gewichte den polarisierten Anteilen entsprechen. Gleichung (2.8) kann auf dieÜberlagerung von mehr als zwei Lichtstrahlen erweitert werden. Das Produkt ikpk wirddurch das Gewicht wk ersetzt, und die gewichtete Mittelung von Phasenwerten wirddann definiert als:

    k

    wkφk :=1

    2arctan2

    ( ∑

    k

    wk sin(2φk) ,∑

    k

    wk cos(2φk))

    . (2.10)

    Bildverarbeitungsoperationen

    Lineare Filter auf Phasenbildern, wie z.B. Glättung oder Differentation können, ge-nauso wie die bilineare Interpolation von Phasenwerten, als gewichtete Mittelung ge-schrieben werden.

    Bei der Kantendetektion wird, wie auch bei Helligkeitsbildern üblich, der Betrag desGradienten zur Bestimmung von Kanten verwendet. Allerdings erlaubt der Betrags-gradient bei Phasenbildern eine konkrete geometrische Interpretation: Legt man durchden Kantenpunkt eine Niveaukurve, siehe dazu Abschnitt 4.6, so weist diese dort einenKnick auf. Die Größe des Knicks entspricht dann dem Betragsgradienten. Entspre-chend dem Rauschniveau des Phasenbildes kann der Schwellwert zur Kantendetektiongeeignet gewählt werden.

  • 16 2. Das Polarisationsbild

    2.4 Polarisationskamera

    2.4.1 Messung von partiell linear polarisiertem Licht mit einer

    Kamera

    Nun ist eine Kamera ein flächenhaft messender Sensor. Wir bezeichnen daher im Fol-genden mit i, p, φ die Polarisationsgrößen bezogen auf einen Punkt oder ein Pixel undmit I, P, Φ die flächenhaft gemessenen Bilder. Ein Polarisationsbild besteht also ausdrei einzelnen Bildern. Für eine Grauwertkamera ist dies in der Abbildung 2.3 beispiel-haft dargestellt. In dem Intensitätsbild wird der Dynamikbereich der Kamera auf denBereich der Grauwerte von [0, 1] abgebildet. Die Polarisationskomponente bildet denBereich von [0, 1] und die Phasenkomponente den Bereich von [−π

    2, π

    2[ ab. Das Phasen-

    bild in Abb. 2.3(c) weist eine Diskontinuität im Verlauf der Grauwerte entlang einervertikalen Linie auf, obwohl die Phase dort kontinuierlich verläuft. Bei einer Darstel-lung über Grauwerte ist diese Problematik nicht zu umgehen. Eine bessere Darstellungwürde hier ein Farbbild bieten: Der Phasenwinkel wird in einem Farbbild bestehend ausden Komponenten Helligkeit, Farbe und Sättigung (z.B. eine YUV Darstellung) durchdie Farbkomponente dargestellt. Da der Farbkreis selbst zyklisch ist, ist er prädestiniertfür die Darstellung von periodischen Größen wie der Orientierung der Polarisation. AufGrund der Wahl eines Schwarzweißdrucks dieser Arbeit wird hier allerdings auf eineFarbdarstellung verzichtet.

    (a) Intensität I. (b) Grad der Polarisation P . (c) Orientierung der Polarisa-tion (Phasenwinkel Φ).

    Abbildung 2.3: Die drei Komponenten eines Polarisationsbildes. Die Beleuchtungist hier sehr homogen, was in einer gleichmäßigen Polarisation resultiert. Eine derar-tige Aufnahme einer Billardkugel kann zur Kalibrierung der drei Orientierungen des

    Polfilters genutzt werden.

    2.4.2 Systembeschreibung

    In der Abbildung 2.4 ist die realisierte Polarisationskamera zu sehen. Der mechanischeAufbau besteht aus folgenden Komponenten: Eine Basis zur Befestigung der Kamera

  • 2.4. Polarisationskamera 17

    Objektive + Kamera

    Polfilter

    Stirnelement

    Schlitten

    Flansch

    Lichtschranke Motor

    Abbildung 2.4: Polarisationskamera mit einem sich kontinuierlich drehenden Polfilter(Beschreibung siehe Text).

    und zur Aufnahme eines Schlittens. Der Schlitten kann in Blickrichtung der Kameraverfahren werden, so dass Objektive unterschiedlicher Länge einsetzbar sind (Der Filtersollte nahe vor dem Objektiv sitzen, um störende Reflexionen an der Filterinnensei-te zu vermeiden.). Der Motor ist über ein Stirnelement auf dem Schlitten montiert,welches eine seitliche Verschiebung des Motors relativ zur Objektivachse ermöglicht;dadurch erfolgt die Anpassung an unterschiedlich breite Objektive. Auf der Motor-achse sitzt ein Flansch, welcher zwei Lichtschranken zur Kameratriggerung schaltet.Über ein Schraubelement wird der Polarisationsfilter auf den Flansch geschraubt. DerPolarisationsfilter ist glasgefasst und von optischer Qualität. Die Motorschaltung sowiedie Weiterleitung der Triggersignale erfolgt über eine elektronische Einheit, welche dieVerbindung zum Framegrabber herstellt.

    Der Motor ist drehzahlgeregelt und besitzt eine präzise Lagerung; dies ist für einen ruhi-gen Lauf des Polfilters wichtig. Die kontinuierliche Rotation des Filters mit konstanterGeschwindigkeit erzeugt keine Vibrationen, welche die Polarisationsaufnahme störenkönnten. Somit wird ein Hauptnachteil von auf Filterrädern basierenden Systemenüberwunden, welche durch ihre Getriebeansteuerung häufig Vibrationen verursachen.

    Die drei Aufnahmetriggerungen erfolgen im Abstand von 120◦. Dies ist aus praktischen

  • 18 2. Das Polarisationsbild

    Gründen nahe liegend und resultiert auch in einer bestmöglich konditionierten MatrixF aus Gl. (2.5), was optimal für die Fehlerfortpflanzung ist.

    Der eingesetzte Polarisationsfilter ist farbneutral. Zusammen mit einer Farbkameraerlaubt er somit die Aufnahme von Farb-Polarisations-Bildern. Dies ist ein Vorteilgegenüber dem System von Wolff [157, 161, 158]: Dieses erlaubt nur eine genaue Be-stimmung der Polarisationsrichtung unter Einsatz eines Bandpassfilters, da die Eigen-schaften von Flüssigkristallen von der Lichtwellenlänge abhängen.

    Die Bedienung der Polarisationskamera erfolgt über ein graphisches Benutzerinterface,welches unter MATLAB betrieben wird: Einstellen von Kameraparametern, Bildauf-nahme und Speicherung sind damit leicht zu bewerkstelligen. Auch eine Live-Bild Vor-schau zur Positionierung von Kamera, Szene und Beleuchtung sowie zur Wahl derBeleuchtungsparameter steht zur Verfügung.

    2.4.3 Polarisationsanalyse mit einem sich kontinuierlich dre-

    henden Filter

    In den Gleichungen (2.5) und (2.6) wurde ein Ansatz zur Berechnung der Polarisations-komponenten vorgestellt, welcher auf drei einzelnen Aufnahmen mit jeweils fixer Ori-entierung des Polfilters basiert. Was verändert sich nun, wenn sich der Filter währendder Belichtung mit konstanter Geschwindigkeit weiterdreht? Angenommen der Filterdreht sich in der Zeit T um eine volle Umdrehung und die Belichtungszeit ist t. DerWinkel, welchen der Filter während einer Aufnahme überstreicht, ist dann ∆θ = 2π t

    T.

    Werden alle drei Aufnahmen mit derselben Belichtungszeit durchgeführt, so beginnendie Belichtungen bei den Filterorientierungen θj und enden bei θj +∆θ. Die gemessenenIntensitäten i sind nun eine Funktion von θj und ∆θ. Gleichung (2.4) geht dann überin:

    i(θj,∆θ) =1

    ∆θ

    ∫ θ=θj+∆θ

    θ=θj

    i(θ) dθ

    =1

    ∆θ

    ∫ θ=θj+∆θ

    θ=θj

    fT (θ)v dθ

    = fT (θj,∆θ)v ,

    (2.11)

    und aus Gleichung (2.5) wird

    i(θθθ,∆θ) = F (θθθ,∆θ)v , (2.12)

    mit lim∆θ→0 i(θθθ,∆θ) = i(θθθ) und lim∆θ→0 F (θθθ,∆θ) = F (θθθ). Die Matrix F (θθθ,∆θ) istüber die Integration von F (θθθ) mit den entsprechenden Grenzen einfach zu berechnen.Ausgehend von den Messungen i(θθθ,∆θ) kann dann das Gleichungssystem i(θθθ,∆θ) =F (θθθ,∆θ)v gelöst werden.

  • 2.4. Polarisationskamera 19

    Alternativ kann auch überlegt werden, welcher Zusammenhang zwischen v∆θ und vbesteht, wenn v∆θ die Lösung von i(θθθ,∆θ) = F (θθθ)v∆θ ist. Tut man dies, so leitetsich daraus folgende Abhängigkeit der Polarisationskomponenten i∆θ, p∆θ, φ∆θ von dentatsächlichen Polarisationskomponenten i, p, φ ab:

    i∆θ = i

    p∆θ = |sin(∆θ)

    ∆θ| p

    φ∆θ = φ −∆θ

    2.

    (2.13)

    Es gilt natürlich wieder: lim∆θ→0(i∆θ, p∆θ, φ∆θ) = (i, p, φ). Die Größe p∆θ soll hiernoch genauer betrachtet werden, da, wie im folgenden Abschnitt gezeigt wird, diePolarisation entscheidend für das Rauschverhalten des Phasenbildes ist. p∆θ ist diegemessene Polarisation in Abhängigkeit von ∆θ, während p die tatsächliche Polarisationdes einfallenden Lichts ist. Der Sinus-Cardinal, definiert als sinc(∆θ) = sin(∆θ)

    ∆θ, ist für

    kleine Werte ungefähr gleich eins, fällt monoton über dem Bereich [0, π] und wird nullbei π. Es gilt: ∆θ ≤ 45◦ ⇒ sinc(∆θ) / 1, woraus folgt, dass für einen überstrichenenWinkel ∆θ von bis zu 45◦ die gemessene Polarisation nur unwesentlich absinkt. Füreinen überstrichenen Winkel von 90◦ reduziert sich die gemessene Polarisation dannallerdings schon auf fast die Hälfte. Dreht sich während der Aufnahme der Polfilterum eine halbe Umdrehung, so ist die gemessene Polarisation null. Die tatsächlichenPolarisationskomponenten p und φ sind dann nicht mehr zu bestimmen.

    Zusammenfassend kann man also sagen, dass wenn der Winkel, welchen der Polfilterwährend der Belichtung überstreicht, kein Vielfaches von π ist, eine Rechenvorschriftzur Berechnung des Polarisationsbildes existiert. Für relativ kleine überstrichene Win-kel ist die gemessene Polarisation nur unwesentlich geringer als die tatsächliche Polari-sation. Dies ist für die Berechnung der Phasenkomponente wichtig, da deren Genauig-keit proportional zur gemessenen Polarisation ist (siehe dazu den folgenden Abschnitt2.5). Ein Polarisationssystem mit kontinuierlich rotierendem Filter ist daher äquivalentzu einem Polarisationssystem mit diskreten Filterorientierungen.

    2.4.4 Bildaufname in Videoechtzeit

    Die Bildwiederholungsrate (engl. Framerate) f ist definiert als f = (t + treadout)−1,

    wobei t die Belichtungszeit und treadout die Zeit ist, um ein Bild auszulesen. Die Wie-derholungsrate des Polarisationsbildes fpol ist für das hier dargestellte System durchfpol = T

    −1 gegeben. Da die Aufnahmen bei Filterpositionen von 0◦,120◦,240◦ gemachtwerden, muss auf jeden Fall t + treadout ≤ 13T gelten. Zusammen mit der Bedingung∆θ / 45◦ ergibt sich für fpol:

    fpol ≤1

    8t−1 und fpol ≤

    1

    3f . (2.14)

  • 20 2. Das Polarisationsbild

    Ist die Auslesezeit gegenüber der Belichtungszeit zu vernachlässigen ( treadout � t ), sogilt:

    fpol /1

    8f . (2.15)

    Die maximal mögliche Wiederholungsrate für ein Polarisationsbild ist also nur durch dieWiederholungsrate der Kamera und der notwendigen Belichtungszeit begrenzt. Das Po-larisationselement in Form des rotierenden Filters stellt keine Beschränkung dar. Diesist der zweite Vorteil gegenüber den auf Flüssigkristallen basierenden Polarisationssy-stemen: Die Trägheit der Kristalle begrenzt die Aufnahmerate für ein Polarisationsbildauf fünf Bilder pro Sekunde.

    2.4.5 Kalibrierung

    Die notwendigen Größen zur Aufnahme eines Polarisationsbildes sind die drei Orientie-rungen der Polfilter, zusammengefasst im Winkelvektor θ, und die Drehgeschwindigkeitdes Polfilters 2π

    T. Die Bohrungen in dem Flansch zur Ansteuerung der Lichtschran-

    ken wurden relativ präzise gefertigt, doch ist deren absolute Position nicht bekannt;auch die Position des Polfilters relativ zum Flansch ist unbekannt. Weiterhin sollte dieDrehgeschwindigkeit nachgemessen werden. Aus diesen Gründen sind vor der erstenAufnahme die notwendigen Größen zu kalibrieren. Im Folgenden wird dazu ein in derPraxis einfach zu realisierendes Verfahren vorgestellt.

    In Kapitel 4 wird gezeigt, dass ein Zusammenhang zwischen der Polarisationsrich-tung und der Normalen des abgebildeten Oberflächenpunkts besteht; Voraussetzungdafür sind ideale Beleuchtungsverhältnisse, welche sich dadurch auszeichnen, dass dasbestrahlende Licht gänzlich unpolarisiert ist. Betrachtet man unter idealen Beleuch-tungsverhältnissen eine Oberfläche bekannter Geometrie, so ist für jeden abgebilde-ten Oberflächenpunkt die Projektion der Normalen und damit auch die Polarisati-onsrichtung bekannt. Die Intensität sowie der Grad der Polarisation sind dagegenunbekannt. Aus dieser Erkenntnis kann für jeden Oberflächenpunkt eine Bedingungbezüglich der Filterorientierungen θ abgeleitet werden: Sei G = (g1, g2, g3)

    T die In-verse der Matrix F (θ) aus Gl. (2.5). An dem Pixel j werden die drei Intensitätenij = ij(θ) = (ij(θ1), ij(θ2), ij(θ3))

    T gemessen, und zusammen mit dem bekannten Pha-senwinkel φj ergibt sich:

    (gT2gT3

    )ij = ip

    (sin(2φj)cos(2φj)

    ). (2.16)

    i und p sind unbekannt, doch lässt sich daraus folgende Gleichung, welche linear in denunbekannten Elementen von g2 und g3 ist, ableiten:

    gT2 ij cos(2φj) − gT3 ij sin(2φj) = 0 . (2.17)

    Es zeigt sich, dass aus mindestens sechs Messungen mit unterschiedlichen Phasenwin-keln φj ein System zur eindeutigen Lösung der Unbekannten aufgestellt werden kann.

  • 2.4. Polarisationskamera 21

    Durch Umformen kann man dann aus den Elementen von g2, g3 die Filterorientie-rungen θ berechnen. Diese lineare Lösung kann schließlich durch einen nichtlinearenKleinsten-Fehlerquadrat-Ansatz noch optimiert werden.

    In der Praxis hat sich folgender Versuchsaufbau bewährt: Eine schwarze Billardkugelwird in der Mitte eines diffus transparenten Zylinders, welcher aus Diffusorfolie einfachgerollt werden kann, positioniert (Abb. 2.3). Bei einigermaßen homogener Umgebungs-beleuchtung sind die Beleuchtungsverhältnisse im Zylinder somit radialsymmetrischzur Zylinderachse. Dies impliziert, dass wenn das Licht polarisiert ist, die Polarisati-onsrichtung nur in radialer oder konzentrischer Richtung verlaufen kann. Blickt mannun in Achsenrichtung auf die Kugel, so gelten für jeden Oberflächenpunkt quasi idealeBeleuchtungsverhältnisse (Quasi ideal soll bedeuten, dass die Beleuchtung, selbst wennsie partiell polarisiert ist, die Polarisationsrichtung des reflektierten Lichts nicht be-einflusst; die Polarisationsrichtung ist dann nur von der Objektgeometrie abhängig.).Die Kugelform deckt alle Polarisationsrichtungen ab, und gemäß des oben vorgestelltenAnsatzes können die Filterwinkel berechnet werden. Tut man dies für unterschiedlicheBelichtungszeiten t, so werden auch unterschiedliche Filterwinkel θ(t) berechnet. Dar-aus ergeben sich dann die Drehgeschwindigkeit des Filters 2π

    Tund die Filterorientierung

    für die quasi stationären Aufnahmen θ(t = 0).

    2.4.6 Belichtungsreihen

    Der Nachteil von CCD-Kameras gegenüber CMOS-Kameras ist der begrenzteDynamikumfang. Möchte man rauscharme Polarisationsbilder erzeugen, so beschränktsich der nutzbare Dynamikumfang auf eine Dekade. Um helle und dunkle Bereiche einerSzene gleichermaßen erfassen zu können, bietet sich als Ausweg eine Belichtungsreihean: Von derselben Szene werden Aufnahmen mit unterschiedlichen Belichtungszeitengemacht, so dass der Dynamikumfang künstlich erweitert wird. Dieses Thema ist un-ter dem englischen Begriff High-Dynamic-Range bekannt, siehe z.B. [17, 45, 82, 85].Das endgültige Bild wird aus den Pixeln der Einzelbilder zusammengesetzt; es wirdimmer derjenige Bildpunkt ausgewählt, welcher die maximale (ungesättigte) Hellig-keit aufweist; geteilt durch die jeweilige Belichtungszeit ergibt sich ein Bild mit höheraufgelösten Helligkeiten beziehungsweise höherem Dynamikumfang.

    Für die Polarisationsanalyse ist ein großer Dynamikumfang besonders wichtig, dahäufig glänzende Oberflächen untersucht werden, auf denen typischerweise Glanzlichterauftreten. Da das Belichtungsreihen-Bild eines linearen Sensors kein lineares Verhaltenmehr [81] zeigt, ist das hochdynamische Bild erst nach der Polarisationsberechnung derEinzelrohbilder (bestehend jeweils aus den drei Aufnahmen gleicher Belichtungsdauer)aufzubauen. Die Polarisationskomponenten werden aus dem Polarisationseinzelbild mitder größten Helligkeit gewählt. Eine typische Belichtungsreihe setzt sich aus den Be-lichtungszeiten 1ms, 3ms, 10ms, 30ms, 100ms zusammen. Damit ergeben sich immerAussteuerungen im oberen Dynamikbereich, was die Berechnung von Polarisations-komponenten in dunklen Bildbereichen erst ermöglicht. Weiterhin resultiert darausein gutes Signal-Rausch-Verhältnis in den Polarisationskomponenten (siehe dazu den

  • 22 2. Das Polarisationsbild

    nächsten Abschnitt). In der Abbildung 2.5 ist zu sehen, wie mittels einer Belichtungs-reihe ein hochdynamisches Bild entsteht, welches Helligkeitsinformation in hellen wiein dunklen Szenenbereichen gleichermaßen erkennen lässt. Die dazugehörige Polarisa-tionsinformation kann ebenfalls überall präzise berechnet werden.

    Abbildung 2.5: Hochdynamisches Polarisationsbild einer Billardkugel mit einemdeutlichen Glanzlicht; die Aufnahme ist das Ergebnis einer Belichtungsreihe. Links:Die logarithmische Darstellung lässt bereits Details auf der im Vergleich zum Glanz-licht sehr dunklen Kugeloberfläche erkennen. Mitte und rechts: Polarisationsinformati-on (Grad der Polarisation und Phase) kann sowohl in dem hellen Glanzlichtbereich als

    auch in den dunklen Bereichen gleichermaßen zuverlässig berechnet werden.

    2.5 Modellierung des Rauschens im Polarisations-

    bild

    Bei den folgenden Betrachtungen bezüglich der Messgenauigkeiten der Polarisations-komponenten wird davon ausgegangen, dass die Polfilterorientierungen sowie - drehge-schwindigkeit ausreichend genau bestimmt wurden. Die Ungenauigkeiten dieser Größenspielen daher keine Rolle. Weiterhin wird angenommen, dass die drei Einzelaufnahmenperfekt aufeinander liegen, d.h. sie sind registriert; während der Aufnahmen darf al-so keine Verschiebung des Kamerasystems stattfinden. Die Verschiebung der Bilderuntereinander auf Grund des rotierenden Polfilters, der nicht perfekt senkrecht zuroptischen Achse montiert werden kann, wurde mit weniger als 0.1 Pixel gemessen,und kann somit vernachlässigt werden. Außerdem muss bei der Aufnahme von Po-larisationsbildern beachtet werden, dass zwischen den Einzelaufnahmen die Beleuch-tungsverhältnisse konstant bleiben, was im gegenteiligen Fall zu falsch berechnetenPolarisationskomponenten führen würde.

  • 2.5. Modellierung des Rauschens im Polarisationsbild 23

    2.5.1 Messung von Lichtintensitäten mit einem CCD-Sensor

    Ein CCD-Sensor3 ist ein linearer Sensor zur Messung von Lichtintensitäten. Da imKontext der Polarisationsanalyse Lichtintensitäten miteinander verrechnet werden, istes wichtig, dass die Sensorkurve möglichst genau bekannt ist. Die Sensorkurve gibt denZusammenhang zwischen der zu messenden Lichtintensität und dem Ausgangssignalwieder und ist für einen CCD-Sensor eine lineare Kurve. Die Nicht-Linearität des hierverwendeten Sensors wird mit maximal 1.5% angegeben [101]. Im Gegensatz zu CCD-Sensoren besitzen CMOS-Sensoren4 eine nichtlineare Sensorkurve und sind auf Grunddes schlechteren Rauschverhaltens für die exakte Messung von Lichtintensitäten nichtgeeignet.

    Ein CCD-Sensor funktioniert folgendermaßen (siehe z.B. [58]): Licht einer bestimmtenWellenlänge besteht im Sinne der Quantenmechanik aus Photonen, deren Energie sichaus der Wellenlänge ergibt. Die Lichtintensität (Lichtleistungsdichte) ist proportionalzu der Anzahl der Photonen, welche pro Zeiteinheit auf eine gegebene Fläche auftref-fen; im Falle des CCD-Sensors ist dies die Belichtungszeit und die sensitive Fläche derSensorpixel. Treffen Photonen nun auf den Sensor, so werden dort Elektronen generiert(Photoelektrischer Effekt). Die (mittlere) Anzahl der pro Photon erzeugten Elektronenist der so genannte Quantenwirkungsgrad. Nachdem sich über dem Belichtungszeit-raum die Ladungen in den einzelnen Pixeln angesammelt haben, werden diese von demSensor heruntertransportiert und in Spannungssignale umgewandelt. Da die Wandlunglinear ist, ist die spektrale Kurve des Quantenwirkungsgrades bis auf eine Skalierungidentisch mit der spektralen Sensorkurve. Ist der Sensor ein Farbsensor, so ergebensich die Sensorkurven der drei Farbkanäle durch die Multiplikation der Sensorkurvedes Chips mit den Farbfilterkurven. Das Ausgangssignal ist dann das Integral über derWellenlänge von dem Produkt aus Sensorkurve und Spektrum des einfallenden Lichts.

    Eine wichtige Kenngröße eines CCD-Sensors ist der Konvertierungsfaktor [58, 97] (eng-lisch gain). Er ist definiert als das Verhältnis von der Anzahl der generierten ElektroneniE zum Ausgangssignal oder Intensität i: g = iE/i. Der Konvertierungsfaktor hat dieEinheit 1e− und ist für die PixelFly-Kamera von PCO[101] mit g = 4.5e− spezifiziert.Die Bildintensität i ist eine natürliche Zahl aus der Menge der Quantisierungsstufen;die hier eingesetzte Kamera hat einen 12bit Dynamikumfang, so dass i ∈ [0, . . . , 4095]gilt. In der Folge wird auch die relative Helligkeit irel = i/4095 Verwendung finden.

    2.5.2 Rauschmodell eines CCD-Sensors

    Das Gesamtrauschen σ in einem Bildpunkt setzt sich aus drei verschiedenen Quellen zu-sammen [58, 131]: Photonenrauschen σphot, CCD-Rauschen σccd und Verstärkerrauschenσampl.

    Das Eintreffen der Photonen ist ein stochastischer Prozess. Zählt man das Eintreffen

    3CCD steht für Charged-Coupled-Device4CMOS steht für Complementary-Metal-Oxide-Semiconductor

  • 24 2. Das Polarisationsbild

    der Photonen, so ist dies ein Poisson-Prozess (siehe z.B. [121]). Die Anzahl der übereinem bestimmten Zeitintervall eingefangenen Photonen und dementsprechend auchder generierten Elektronen gehorcht einer Poissonverteilung. Charakteristisch für diePoissonverteilung ist, dass die Standardabweichung die Wurzel aus dem Erwartungs-wert ist. Das Signal iE selbst ist eine Schätzung des Erwartungswertes und für dasPhotonenrauschen gilt daher: σphot,E =

    √iE. Die Umrechnung von Elektronen in In-

    tensitätseinheiten liefert: σphot =√i/g.

    Das CCD-Rauschen bildet sich hauptsächlich aus dem Rauschen des Dunkelstroms. DerDunkelstrom und auch dessen Rauschen sind konstant für eine bestimmte Temperaturdes Sensors, wachsen aber proportional zur Belichtungszeit an. Das Verstärkerrauschenist ebenfalls konstant. Beide Rauschquellen unterliegen einer Gaußschen Verteilung.

    Da die Rauschquellen nicht miteinander korreliert sind, addiert sich das Rauschen imQuadrat:

    σ2 = σ2phot + σ2ccd + σ

    2ampl ⇒ σ2 =

    i

    g+ σ20 . (2.18)

    Für das Grundrauschen σ0 wurden typische Werte von σ0 ≈ 3 gemessen. Im unterenAussteuerungsbereich von weniger als ein Zehntel der maximalen Intensität, i / 400,tragen das Photonenrauschen und das Grundrauschen gleichermaßen zum Gesamtrau-schen bei. Für Intensitäten größer als ein Zehntel ist das Photonenrauschen dominantund es gilt σ ≈ σphot.

    Das Signal-zu-Rauschverhältnis für das Signal i ist durch SNR = i/σ gegeben. Gemäßden oben angegebenen Daten beträgt das Signal-zu-Rauschverhältnis circa 40 für einZehntel der maximalen Aussteuerung und circa 135 für maximale Aussteuerung.

    Die Standardabweichung ist ein Maß für den Messfehler. Dementsprechend ist derQuotient aus Standardabweichung und Signal ein Maß für den relativen Fehler, welchermit σrel bezeichnet sei. Es gilt: σrel = SNR

    −1.

    2.5.3 Fortpflanzung des Rauschens

    Die drei Komponenten Intensität, Polarisation und Phase des Polarisationsbildes wer-den ausgehend von drei Messungen unter unterschiedlichen Orientierungen des Polfil-ters berechnet. Jede einzelne Messung ist mit Rauschen behaftet, und die Frage istnun, wie groß das Rauschen der Polarisationskomponenten ist.

    Sei x ∈ {i, p, φ} stellvertretend für eine der drei Komponenten und f(i) die entspre-chende Funktion, welche aus dem Vektor i der Messungen die Komponente berechnet:x = f(i). Die Taylor-Reihenentwicklung erster Ordnung von f um i ist gegeben durch:f(i) ≈ f(i) + J(i − i), wobei J = ∂f/∂i die Jacobi- oder Funktionalmatrix (hier nurein Zeilenvektor) von f an der Stelle i ist. Der Vektor der Intensitätsmessungen i istein Zufallsvektor mit dem Erwartungswert i und der Kovarianzmatrix Σ. Daher istauch f(i) eine Zufallszahl. Im Sinne einer Approximation erster Ordnung gilt dann,dass f(i) den Erwartungswert f(i) und die Varianz JΣJT besitzt [49]. Typischerweise

  • 2.5. Modellierung des Rauschens im Polarisationsbild 25

    werden drei Messungen i1, i2, i3 durchgeführt. Da die drei Messungen untereinanderunkorreliert sind, besitzt die Kovarianzmatrix Diagonalstruktur. Dann ergibt sich fürdie Approximation der Varianz σ2x von x:

    σ2x =( ∂f∂i1

    )2σ2i1 +

    ( ∂f∂i2

    )2σ2i2 +

    ( ∂f∂i3

    )2σ2i3 . (2.19)

    Die Berechnung des Rauschens der drei Komponenten erfolgt gemäß der obigen Glei-chung analog: Je nachdem ob es sich um die Helligkeits-, die Polarisations- oder diePhasenkomponente handelt, kann aus den Gleichungen (2.5) und (2.6) die Funktionx = f(i) und damit die Jacobimatrix von f bestimmt werden. Weiterhin ist Formel(2.18) zu verwenden. Ersetzt man dann die Größen i1, i2, i3 durch i, p, φ gemäß Glei-chung (2.3), so erhält man die gesuchten Ausdrücke.

    2.5.4 Rauschen des Polarisationsbildes

    Wie bereits erwähnt, ist die Polarisationskamera derart aufgebaut, dass der Winkel-unterschied zwischen den drei Einzelmessungen 120◦ beträgt. Die nun folgenden Her-leitungen basieren auf dieser Größe und der Annahme, dass die Belichtungszeit imVergleich zur Umlaufzeit des Filters klein ist (siehe Diskussion in Abschnitt 2.4.3).

    Würde man mit einem Sensor ohne davor geschaltetem Polarisationsfilter eine Hellig-keit von i messen, so würde das Rauschen σ =

    √ig

    + σ20 betragen. Im Folgenden sei mitσ das mittlere Rauschen und mit σrel = σ/i das mittlere, relative Rauschen bezeichnet.Es stellt ein Rausch-Äquivalent für eine vergleichbare reine Helligkeitsmessung dar.

    Rauschen der Intensitätskomponente

    Für das Rauschen der Intensität ergibt sich gemäß der vorgestellten Herleitung ausGleichung (2.19):

    σi,rel =1√3σrel . (2.20)

    Dies entspricht der bekannten Aussage, dass die Varianz von n gemittelten Messungen1n

    der Varianz der Einzelmessungen ist. Das Rauschen der Intensitätskomponente istunabhängig von der Polarisation und der Phase.

    Rauschen der Phasenkomponente

    Für die Varianz der Phasenkomponente kann folgende Formel aus Gleichung (2.19)hergeleitet werden:

    σ2φ =1

    i21

    p21

    6

    ( ig

    + σ20)

    +1

    i21

    p

    (14

    cos(2φ) − 13

    cos3(2φ)) ( ig

    ). (2.21)

  • 26 2. Das Polarisationsbild

    Die Formel für σ2φ teilt sich auf in einen konstanten Anteil und einen Anteil, welcher vonder Phase φ abhängig ist: σ2φ = σ

    2φ,const +σφ,var(φ)

    2. Es gilt immer |σφ,var(φ)2/σ2φ,const| ≤0.5p und im Mittel verschwindet der Anteil σφ,var(φ)

    2. Für eine geringe Polarisation istder von der Phase abhängige Anteil gegenüber dem konstanten ohne großen Fehler zuvernachlässigen. Der relative Phasenfehler ist als σφ,rel = σφ/π definiert. Setzt man inobige Gleichung das relative Rauschen σrel ein, so ergibt sich:

    σφ,rel ≈1

    p

    1

    π√

    6σrel . (2.22)

    Der Faktor der Fehlerfortpflanzung 1p

    1π√

    6ist nur eine Funktion der Polarisation p. In

    der Abbildung 2.6(a) ist dieses Ergebnis graphisch dargestellt. Es ist zu sehen, dassbei einer Polarisation von p ≈ 0.1 der relative Fehler der Phase ungefähr dem rela-tiven Fehler der durchschnittlichen Intensitätsmessung entspricht. Selbst bei geringerPolarisation bleibt der relative Fehler der Phase in derselben Größenordnung wie derrelative Fehler der Helligkeitsmessung. Abbildung 2.6(b) zeigt Grenzkurven für ein re-latives Phasenrauschen σφ,rel von 0.01 bzw. 0.03. Der Bereich über den Grenzkurvenbesteht aus Intensitäts-Polarisations-Paaren, welche in einem relativen Phasenrauschenvon mindestens dem geforderten Grenzwert resultieren. In einem Anwendungsfall er-lauben derartige Grenzkurven eine Segmentierung des Polarisationsbildes in Gebietemit ausreichender Genauigkeit in der Phasenmessung. Typischerweise sollte ein rela-tiver Phasenfehler von σφ,rel = 0.03 bzw. ein absoluter Phasenfehler von σφ ≈ 5◦ alsuntere Schranke gewählt werden, um als Grundlage für eine präzise Rekonstruktionvon Oberflächen, wie insbesondere in Kapitel 6 vorgestellt, zu dienen.

    Durch den Einsatz von Belichtungsreihen ergeben sich in der Praxis immer Aussteue-rungen im oberen Dynamikbereich. In der Abbildung 2.7 ist der Zugewinn des Signal-Rausch-Verhältnisses eines hochdynamischen Bildes (Mitte) im Vergleich zu einem Ein-zelbild (links) deutlich zu erkennen: Das mittlere Signal-Rausch-Verhältnis der Hellig-keit liegt bei SNRi ≈ 95. Dies resultiert dann in einem guten Signal-Rausch-Verhältnisder Phasenkomponente (rechts): Bei dieser Aufnahme bewegt sich der Grad der Polari-sation für die nicht schwarzen Bildbereiche zwischen 0.03 und 0.7 (im Mittel 0.2). DasSignal-Rausch-Verhältnis der Phasenkomponente liegt dann in einem Bereich von 33bis 550; der Mittelwert ist SNRφ ≈ 150. Der absolute Phasenfehler schwankt dement-sprechend von 0.3◦ bis 5◦ und nimmt einen mittleren Wert von ca. 1◦ an.

    Rauschen der Polarisationskomponente

    Für die Varianz der Polarisationskomponente ergibt sich gemäß der vorgestellten Her-leitung aus Gleichung (2.19):

    σ2p =1

    i21

    3

    (2 + p2

    ) ( ig

    + σ20)

    +1

    i21

    3

    ((4 cos3(2φ) − 3 cos(2φ))p− 2p2

    ) ( ig

    ). (2.23)

    Mit der Abschätzung ig≈ i

    g+ σ20 folgt:

    σ2p ≈1

    i21

    3

    (2 + (4 cos3(2φ) − 3 cos(2φ))p− p2

    ) ( ig

    + σ20)

    . (2.24)

  • 2.6. Polarisationsfilter und beschränkter Sehwinkel 27

    Polarisation p

    σφ

    ,rel/

    σre

    l

    at

    0 0.5 10

    1

    2

    3

    4

    (a) Fehlerfortpflanzung für das Phasenrauschen

    Pol

    aris

    atio

    np

    Intensität irel

    σφ,rel = 0.01

    0.03

    0.5 10.1

    0.1

    0.5

    1

    (b) Grenzkurven für das Phasenrauschen

    Abbildung 2.6: (a): Der Quotient aus dem relativen Rauschen der Phase und demrelativen Rauschen der Einzelmessung σφ,rel/σrel als Funktion der Polarisation p auf-gezeigt. (b): Grenzkurven für ein relatives Phasenrauschen σφ,rel von 0.01 bzw. 0.03 in

    Abhängigkeit von der Intensität irel und der Polarisation p.

    Es gilt 0 ≤ 2+(4 cos3(2φ)−3 cos(2φ))p−p2 ≤ 214, wobei die Mittelung von 4 cos3(2φ)−

    3 cos(2φ) null ergibt. Für einen typischen Polarisationsgrad p ≈ 0.1 folgt:

    σp ≈ σrel . (2.25)

    2.6 Polarisationsfilter und beschränkter Sehwinkel

    Die Wirkung eines Polarisationsfilters beruht auf dichroitischer (d.h. richtungs-abhängiger) Absorption [102]: Licht parallel zur Durchlass- oder Transmissionsachsewird minimal geschwächt, während senkrecht dazu einfallendes Licht maximal ge-schwächt wird. Das Polarisationselement gebräuchlicher Filter ist eine dichroitischePolaroid-Folie, welche aus parallel ausgerichteten Polymerketten besteht. Diese Poly-merketten sind dotiert, so dass die Leitfähigkeit erhöht ist; sie wirken dann wie Dipol-antennen. Licht, welches parallel zu dieser Gitterstruktur schwingt, wird absorbiert,während senkrecht schwingendes Licht den Filter ungehindert passiert.

    In [24] wird erwähnt, dass Polarisationsfilter auch bei nicht perfekt senkrecht zur Fil-terebene einfallendem Licht gute Polarisationswirkung zeigen. Bei schräg einfallen-dem Licht lässt die Polarisationswirkung nach, was durch ein einfaches Experimentüberprüft werden kann. Bis zu welchem Einfallswinkel ein Polfilter ideales Verhaltenzeigt ist nicht bekannt und wurde im Rahmen dieser Arbeit auch nicht untersucht.Um qualitativ hochwertige Polarisationsbilder zu gewinnen, ist sicherzustellen, dassdas Licht annähernd in senkrechter Richtung durch den Filter fällt. Es ist daher aufeinen begrenzten Sehwinkel5 zu achten. Für kleine Sehwinkel bietet sich die Model-

    5Der Sehwinkel wird durch die Grenzstrahlen vom Gegenstand zum Kamerazentrum gebildet. Der

  • 28 2. Das Polarisationsbild

    Abbildung 2.7: Signal-Rausch-Verhältnis (SNR) eines hochdynamischen Polarisati-onsbildes (gleiche Aufnahme wie Abb. 2.5) auf Basis einer Belichtungsreihe. Links: Lo-garithmische Darstellung des Helligkeits-SNR für ein vergleichbares Einzelbild. Mitte:Logarithmische Darstellung des Helligkeits-SNR für ein hochdynamisches Bild. Rechts:Logarithmische Darstellung des Phasen-SNR für ein hochdynamisches Polarisations-

    bild.

    lierung mit einer orthographischen Kamera an (siehe Abschnitt 4.2). Obwohl die vollperspektivische Abbildung bisher noch nicht systematisch untersucht wurde, konntendamit gute Ergebnisse bei der Rekonstruktion von Oberflächen erzielt werden (sieheKapitel 6).

    2.7 Beispielbilder

    Als Abschluss des Kapitels sollen noch beispielhaft zwei Polarisationsbilder präsentiertwerden, um zu zeigen, welche Polarisationsinformation normale Umgebungen bereit-halten.

    In der Abbildung 2.8 ist eine Schreibtischszene zu sehen: Besonders die typischen in-dustriell gefertigten Gegenstände aus Plastik wie Telefon, Maus, Drucker und Laptopsowie die Schreibtischlampe aus Metall reflektieren das Licht polarisiert. Die runde,freigeformte Form des Telefonhörers wird im Phasenbild deutlich.

    Abbildung 2.9 zeigt eine städtische Außenszene: In den Fenstern der rechtenHäuserreihe spiegelt sich die Sonne, weswegen die Polarisation hier sehr hoch ist. Beson-ders gut polarisiert auch die glänzende Lackschicht des Autos. Der Himmel polarisiertdas Licht ebenfalls. Die vermeintliche Polarisation durch den Baum ist dagegen einArtefakt, welches auf die Bewegung der Äste während der Aufnahme zurückzuführenist.

    Bildwinkel ist durch die Sensorgröße und die Brennweite gegeben.

  • 2.8. Zusammenfassung 29

    Abbildung 2.8: Polarisationsbild einer Innenraumszene: Intensitätsbild (logarith-misch) (links), Polarisationsbild (Mitte) und Phasenbild (rechts).

    Abbildung 2.9: Polarisationsbild einer Außenszene: Intensitätsbild (logarithmisch)(links), Polarisationsbild (Mitte) und Phasenbild (rechts).

    2.8 Zusammenfassung

    Eine Polarisationskamera zur automatischen Messung von partiell linear polarisiertemLicht wurde vorgestellt. Partiell linear polarisiertes Licht besitzt drei Freiheitsgrade: dieIntensität, den Grad der Polarisation und die Orientierung der Polarisation (die soge-nannte Phase). Drei Aufnahmen mit jeweils unterschiedlich orientiertem Polarisations-filter vor dem Objektiv ermöglichen die Bestimmung dieser Größen. In dem realisiertemKamerasystem dreht sich der Polfilter kontinuierlich und löst die Bildaufnahme aus. DieAufnahme der drei Einzelbilder wird somit nicht durch Erschütterungen oder Vibra-tionen gestört, wie sie bei anderen mechanischen oder manuellen Systemen vorkommenkönnen. Eine präzise Bestimmung der Polarisationsgrößen ist somit möglich. Weiterhinwerden durch Belichtungsreihen hochdynamische Polarisationsbilder erzeugt, so dassauch spiegelnde Oberflächen mit darauf auftretenden Glanzlichtern analysiert werdenkönnen. Die relative Genauigkeit der Phaseninformation liegt typischerweise bei 1%,was einer Winkelgenauigkeit von 2◦ entspricht.

    In dieser Arbeit stehen Algorithmen zur Rekonstruktion von Oberflächen im Mittel-punkt, welche die Phaseninformation als Grundlage nutzen. Insofern beschränkt sichdie Analyse auf Grauwertbilder, obwohl auch die Aufnahme von Farbbildern möglichist.

  • 30 2. Das Polarisationsbild

    Die hier vorgestellte Polarisationskamera kann in Videoechtzeit Farb-Polarisationsbilder von hoher Qualität aufnehmen. Sie ist damit das einzige unsbekannte System, welches alle diese Merkmale erfüllt.

  • Kapitel 3

    Reflexion und Polarisation von

    Licht

    3.1 Einleitung

    Zweidimensionale Bilder als Projektion einer dreidimensionalen Szene gehen aus demZusammenspiel von Lichtquellen, Objekten und einer Kamera hervor. Die Zusam-menhänge können auf einer geometrischen Ebene (z.B. geom. Beschreibung der Be-leuchtung, Form und Position der Objekte, Kameraposition, etc.), einer photometri-schen Ebene (z.B. Beleuchtungsstärke, reflektierte und gemessene Lichtstärke, etc.)oder einer physikalischen Ebene (Licht als Welle, Reflexion und Brechung an Ober-flächen, Polarisation, etc.) beschrieben werden. Im Bereich des Computer-Sehenswerden je nach gestelltem Problem die Grundlagen und Modellierungen dieser dreiEbenen geeignet miteinander verknüpft, um so zu einer möglichst vollständigenaber auch überschaubaren Beschreibung des untersuchten Phänomens zu gelangen[39, 47, 53, 62, 69, 127].

    Dieses Kapitel startet mit einem allgemeinen Überblick über die Modelle zur Beschrei-bung von Reflexion an glatten und rauen Oberflächen. Die Analyse von Polarisation anrauen Oberflächen ist schwierig, verspricht wenig Nutzen und wurde daher in bisherigenArbeiten nur am Rande behandelt. Eigentlich alle bisherigen Ansätze zur Polarisations-analyse gehen von einer (mikroskopisch) glatten Oberfläche aus, welche glänzendes oderspiegelndes Reflexionsverhalten aufweist. Nachdem die physikalischen Grundlagen zurReflexion und Brechung an Grenzflächen gelegt sind, wird die polarisierende Wirkungder Reflexion erklärt. Darauf aufbauend wird ein Polarisations-Reflexionsmodell vor-gestellt, was den Einfluss der Reflexionsparameter auf die Polarisationskomponentendes reflektierten Lichts erklärt.

    31

  • 32 3. Reflexion und Polarisation von Licht

    3.2 Reflexion von Licht an Oberflächen

    3.2.1 Reflexionsparameter

    Die Entstehung eines Kamerabildes ist von folgenden Größen abhängig:

    • BeleuchtungDie Beleuchtung gibt die räumliche Anordnung der umgebenden Lichtquellenbzw. der Licht abstrahlenden Objekte an 1.

    • Oberflächenform/ObjektgeometrieDie Geometrie des (opaken) Objekts wird durch die Form seiner Oberfläche an-gegeben.

    • BetrachterHauptsächlich von Bedeutung ist die Position der Kamera. Daneben können auchnoch die Sensoreigenschaften eine Rolle spielen.

    • OberflächenbeschaffenheitDie Oberflächenbeschaffenheit ist eine mikroskopische, geometrische Größe undwird in erster Linie durch die Oberflächenrauheit charakterisiert.

    • MaterialDas Material wird durch den Brechungsindex beschrieben, welcher in die Glei-chungen für die Reflexion bzw. Brechung von Licht an der Oberfläche eingeht.

    • Grundhelligkeit/AlbedoDie Grundhelligkeit oder Albedo gibt an, wieviel Licht ein Körper wieder ab-strahlt oder wie hell ein Betrachter den Körper sieht. Ist die Grundhelligkeitnicht uniform, sondern variiert die Albedo über der Oberfläche, so spricht manhäufig auch von der Textur einer Oberfläche 2.

    Die (makroskopischen) geometrischen Größen wie Beleuchtung, Oberflächenform undKameraposition definieren die Geometrie der Reflexion von Licht an Oberflächen. Alsphysikalische Größe fließt in die Beschreibung von Reflexion und Brechung der Bre-chungsindex mit ein. Der grundlegende Einfluss der Oberflächenrauheit wird in diesemAbschnitt der Vollständigkeit halber noch diskutiert werden, spielt aber in der weiterenArbeit keine Rolle, da ausschließlich glatte Oberflächen behandelt werden. Schließlichist für das vorgestellte Polarisations-Reflexionsmodell die Grundhelligkeit des Körpersvon Bedeutung.

    1Genau genommen ist für jeden Oberflächenpunkt die aus der umgebenden Hemisphäre einge-strahlte Lichtintensität anzugeben, was eine zweidimensionale Helligkeitsfunktion darstellt. Für einePolarisationsanalyse kann auch der Polarisationszustand des einstrahlenden Lichts von Bedeutungsein.

    2Der Begriff Textur ist an dieser Stelle nicht mit texturierten Oberflächen, wie z.B. Webstoffenoder Textilien, zu verwechseln. Vielmehr hängt er mit dem Begriff der Texturprojektion zusammen,bei der jedem Oberflächenpunkt eine eigene Helligkeit oder Farbe zugeordnet wird.

  • 3.2. Reflexion von Licht an Oberflächen 33

    3.2.2 Reflexion an glatten Oberflächen

    Das von der Lichtquelle emittierte Licht interagiert mit der Objektoberfläche bevor esvom Bildsensor gemessen wird; schematisch ist dies in den Abbildungen 3.1 und 3.2dargestellt. Die betrachtete Szene besteht aus opaken Objekten, welche von Luft umge-ben sind. Zur näheren Betrachtung des Phänomens Reflexion sind daher die Übergängedes Lichts von Luft zu Materie und umgekehrt zu untersuchen: Trifft L