• Keine Ergebnisse gefunden

kanntesten Beispiele für diese Art der Treppenstufenbildung steht im Zusammenhang mit dem Einsatz von Shadowmaps.

Beim Shadowmapping wird der Tiefenwert des aktuellen Pixelfragments mit dem abgespei-cherten Tiefenwert einer Schattentextur verglichen. Ist der Wert des Pixelfragments größer als der zugehörige Wert in der Textur, so liegt das Fragment im Schatten und wird meist a b-gedunkelt dargestellt.

Da bei diesem Vergleich einfach nur diskrete Werte einer auflösungsbegrenzten Textur zur Berechnung herangezogen werden, ist eine Treppenstufenbildung auf der Ebene der Pixel-fragmente nicht vermeidbar. Dieser negative Effekt ist auf der linken Seite von Abbildung 9 gut zu erkennen. Die heutige Grafikhardware bietet die Möglichkeit der bilinearen Filterung der Tiefenwerte einer Schattentextur. Dadurch wird die Ecken- und Kantenbildung etwas abgemildert, der störende Treppenstufeneffekt entlang der Ränder lässt sich dadurch jedoch nicht beseitigen.

3.6 Begriffserklärung und Erläuterungen

In diesem Abschnitt werden genauere Beschreibungen zu Begriffen aufgeführt, die in der vorliegenden Arbeit häufig verwendet werden und zum besseren Verständnis einer ausführ-licheren Erläuterung bedürfen.

3.6.1 Impostors, Billboards

Bei Impostors und Billboards handelt es sich um Konstrukte zur Approximation komplexer Objektgeometrien. Ein Impostor besteht aus einer einzelnen texturierten Ebene im 3D-Raum, die sich bei Bewegung automatisch orthogonal zum Blickvektor des Betrachters aus-richtet. Somit stellt sie die größtmögliche Vereinfachung bestehender Modellgeometrie dar.

Abbildung 9: Aliasingartefakte beim Einsatz von Shadowmapping und Effekt der bilinearen Filterung der Tiefenwerte

Kapitel: Grundlagen 43 3.6 Begriffserklärung und Erläuterungen

Billboards bestehen mindestens aus zwei texturierten Ebenen, die zueinander rechtwinklig entlang der Höhenachse angeordnet werden. Um das zugrunde liegende Objekt besser nachzubilden, können weitaus mehr als zwei Ebenen bei Billboards zum Einsatz kommen, die in beliebiger Ausrichtung im 3D-Raum angeordnet sind. Jede Textur enthält das zweidimen-sionale Abbild einer bestimmten Teilansicht des ursprünglichen geometrischen Modells.

In Abbildung 10 sind ein geometrisches Baumobjekt und zwei Billboardrepräsentationen g e-genübergestellt. Das mittlere Billboardmodell besteht lediglich aus zwei gekreuzten Ebenen.

Folglich kann es nur vier Ansichten des ursprünglichen Objektes exakt repräsentieren. Das Billboardkonstrukt auf der rechten Seite besteht aus 232 im 3D-Raum angeordneten Ebenen und besitzt somit die Möglichkeit, die räumliche Charakteristik des Originalmodells besser nachzuempfinden. Die Strategien und Methoden zur Erzeugung von Billboards anhand geo-metrischer Modelle von Pflanzenobjekten werden in Kapitel 4.2.2 behandelt.

3.6.2 Poisson-Disk/Blue-Noise-Charakteristik, Lloydsche Methode

Eine auf der Fläche eines Quadrates gleichmäßig verteilte Punktmenge besitzt genau dann Poisson-Disk-Eigenschaften, wenn die Punkte zufällig erzeugt wurden und zwischen ihnen ein garantierter Mindestabstand vom Radius besteht. Ein intuitiver einfacher Ansatz (Dart Throwing) zur Erzeugung einer solchen Punktmenge besteht darin, zufällig Punkte auf der vorgegebenen Fläche einzufügen und für jeden neuen Punkt zu überprüfen, ob der Mindes t-abstand zu allen bereits bestehenden Punkten existiert. Können keine weite ren Punkte ein-gefügt werden, ohne das Mindestabstandskriterium zu verletzen, so ist die Punktmenge komplett.

Um die Güte einer erzeugten Punktverteilung analytisch auswerten zu können, wird das von der Punktmenge erzeugte Spektrum betrachtet. Bei einer rein zufälligen Punktverteilung spricht man dabei vom weißen Rauschen (White Noise). In Anlehnung daran wird das Spekt-rum einer Poisson-Disk-Verteilung als blaues Rauschen (Blue Noise) bezeichnet. Mit den

Fra-Abbildung 10: Geometrisches Modell und Billboardapproximationen bestehend aus jeweils 2 und 232 Ebenen

Kapitel: Grundlagen

44 3.6 Begriffserklärung und Erläuterungen

gestellungen rund um die effiziente Erzeugung und Auswertung dieser Punktmengen be-schäftigte sich beispielsweise Stefan Hiller [71] in seiner Dissertation.

In Abbildung 13 sind die einzelnen für die Analyse notwendigen Schritte dargestellt. Die gra-fische Repräsentation der Punktverteilung wird in ein Bitmap umgewandelt. Aus diesem Bitmap wird mit Hilfe der schnellen Fourier Transformation das zugehörige Spektrum er-zeugt. Anschließend findet darauf aufbauend die Frequenzanalyse statt, wobei wichtige Gü-teparameter wie beispielsweise die radiale Anisotropy ermittelt werden. Im Frequenzspekt-rum einer Poisson-Disk-verteilten Punktmenge treten keine konzentrierten Signalspitzen auf.

Vielmehr sind alle Frequenzen gleichmäßig zufällig in alle Richtungen verteilt.

Die Lloydsche Methode [72] beschreibt einen iterativ arbeitenden Algorithmus, der gleich-falls für die Erzeugung ebenmäßig angeordneter Punktmengen eingesetzt werden kann.

Auch damit lässt sich das Poisson-Disk-Kriterium erfüllen, ohne regelmäßige Strukturen in-nerhalb der Punktverteilung zu generieren. Anders als beim Dart Throwing handelt es sich bei der Lloydschen Methode um einen Optimierungsprozess, der auf einer gegeben Punkt-menge arbeitet. Um brauchbare Ergebnisse zu erzielen, muss die Fläche, auf der die Punkte angeordnet werden sollen, begrenzt werden. Die einfachste Möglichkeit bietet auch hier eine quadratische Grundfläche. Weiterhin dürfen verschiedene Punkte der vorgegebenen Menge nicht exakt aufeinander liegen.

Abbildung 11: Poisson-Disk-Punktmenge, Spektrum der Verteilung und zugehörige Frequenzanalyse, Quelle: [71]

Abbildung 12: Voronoizellenbildung, Unterteilung der Fläche in Voronoigebiete und Punktanordnung nach 20 Iteratio-nen, Quelle für Bild Mitte und Links: [71]

Kapitel: Grundlagen 45 3.6 Begriffserklärung und Erläuterungen

Bevor der Lloyd-Algorithmus zur Anwendung kommt, muss die quadratische Fläche in die sogenannten Voronoizellen zerlegt werden. Eine gute Übersicht zu dieser Thematik findet sich beispielsweise im Buch von Okabe et al. [73]. Die Konstruktion eines Voronoigebiets ist auf der linken Seite von Abbildung 12 anhand einer dreielementigen Punktmenge aufgezeigt.

Zwischen jeweils benachbarten Punkten werden die Mittelsenkrechten gebildet. Mit Hilfe der Schnittpunkte der Mittelsenkrechten lassen sich die Grenzen der Voronoizellen (rot g e-kennzeichnet) konstruieren. In der mittleren Darstellung von Abbildung 12 ist das Voronoi-diagramm für eine komplexere Punktmenge eingezeichnet.

Die Lloydsche Methode verschiebt nun iterativ jeden Punkt in den vorher berechneten Schwerpunkt der zugehörigen Voronoizelle. Aufgrund der neuen Lage der Punkte ist danach eine Neuberechnung des Voronoidiagramms notwendig. Der Schwerpunkt der neu berech-neten Voronoizellen weicht natürlich vom vorherigen ab. Somit startet der nächste Schritt der Lloydschen Iteration. Die Methode lässt man entweder eine vorgegebene Anzahl von Interationsschritten laufen oder man terminiert sie, sobald ein festgelegtes Konvergenzkrite-rium erreicht ist. Ein mögliches AbbruchkriteKonvergenzkrite-rium wäre zum Beispiel das Absinken der Punkt-verschiebungsdistanz unter einen bestimmten Minimalwert. Auf der rechten Seite von Ab-bildung 12 ist die gegebene Punktmenge nach 20 Iterationsschritten dargestellt.

3.6.3 BRDF, BTDF

Eine BRDF (bidirektionale Reflexionsverteilungsfunktion) repräsentiert eine Dichtefunktion und beschreibt das Reflexionsverhalten von Oberflächen eines Materials unter beliebigen Einfallswinkeln. Für alle auf der Oberfläche auftreffenden Lichtstrahlen lässt sich mit Hilfe der Funktion die Intensität (Strahlungsdichte) für jeden austretenden Lichtstrahl bestimmen.

In der Computergrafik dient sie oft der realistischen und möglichst physikalisch korrekten Darstellung von Materialoberflächen. Die Komplexität einer BRDF hängt direkt von der g e-wählten Genauigkeit ab. Sie kann unter anderem für alle Ein- und Ausfallswinkel (4-dimensional), für jede Wellenlänge (5-dimensional) oder auch jeden Punkt der Oberfläche (7-dimensional) bestimmt werden. Grundsätzlich kann zwischen zwei verschiedenen Arten zur Repräsentation von BRDF-Werten gewählt werden. Entweder werden die Ergebnisse explizit gespeichert (z.B. in Texturen) oder es erfolgt eine mehr oder weniger genaue Appro-ximation mittels analytischer Funktionen (z.B. lokale Beleuchtungsmodelle). Bei der Speiche-rung der Werte ist der Platzbedarf je nach gewählter G ranularität natürlich entsprechend hoch. Lokale Beleuchtungsmodelle sind effizient berechenbar, liefern aufgrund der Abstra k-tion jedoch nicht die gleichen qualitativen Ergebnisse.

Die BTDF (bidirektionale Transferverteilungsfunktion) arbeitet analog zur B RDF, behandelt jedoch das Transmissionsverhalten von lichtdurchlässigen/halbdurchlässigen Materialien wie beispielsweise dickes Glas, Plastik oder Laubblätter.

Kapitel: Grundlagen

46 3.6 Begriffserklärung und Erläuterungen

3.6.4 k-means-Clustering, Isodata-Algorithmus

Beim sogenannten Clustering werden die Elemente des Eingaberaumes verschiedenen Grup-pen, den Clustern, zugeordnet. Der geclusterte Eingaberaum sollte folgende zwei Bedingun-gen erfüllen: Eingabe-Elemente, die innerhalb eines Clusters lieBedingun-gen, sollen in mindestens einem Eigenschaftsmerkmal Ähnlichkeiten aufweisen. Außerdem sollen ähnliche Cluster räumlich dicht beieinander liegen.

Der k-means-Algorithmus gehört zu den weit verbreitetsten Clusterverfahren, da das grund-legende Prinzip einfach ist und in den meisten Fällen gute Ergebnisse erreicht werden. Für eine gegebene Menge an Eingabeelementen werden im Eingaberaum Cluster mit Hilfe von Prototypvektoren zufällig positioniert. Im ersten Schritt wird jeder Eingabe-vektor dem PrototypEingabe-vektor mit dem geringsten Abstand zugewiesen. Dazu können verschie-dene Abstandsfunktionen zum Einsatz kommen. Der zweite Schritt beinhaltet das Verschie-ben der Prototypvektoren in ihr neues Clusterzentrum. Diese beiden Schritte können nun solange wiederholt werden, bis eine bestimmte Anzahl an Iterationen abgearbeitet wurde oder ein Abbruchkriterium erreicht ist. Das zentrale Problem des Ansatzes ist, dass die Clus-tergüte des Ergebnisses stark von der Anzahl und der zufälligen Positionierung der Proto-typenvektoren abhängt. Deshalb muss der k-means-Algorithmus auch nicht notwendigeweise konvergieren. Meistens wird der Algorithmus bei schlechten Ergebnissen neu gesta r-tet, da durch die zufällige Anordnung von immer mit besseren Resultaten gerechnet wer-den kann.

Beim Isodata-Algorithmus (iterative selbstorganisierende Datenanalysetechnik) handelt es sich um einen Spezialfall (Erweiterung) des k-means-Clustering. Dabei können Cluster, deren Zentren nah beieinander liegen, zusammengefasst werden. Genauso wie eine Clusterverei-nigung stattfindet, wenn die Anzahl der Elemente in mindestens einem der Cluster unterhalb einer vordefinierten Schwelle liegt. Auf der anderen Seite wird ein bestehender Cluster g e-teilt, sobald die Standardabweichung einen Schwellenwert überschreitet und die Anzahl der Elemente für zwei separate Cluster ausreicht.

Kapitel: Aufbereitung und Verarbeitung der Daten 47

Kapitel 4

Aufbereitung und Verarbeitung der Daten

In diesem Kapitel beschäftige ich mich mit den Problemen und Fragestellungen bezüglich der Aufbereitung und Verarbeitung der unterschiedlichen Ausgangsdaten. Dabei gliedert sich meine Arbeit wieder in die drei Themenkomplexe Geländedaten, Modelldaten und Einzelpo-sitionsdaten. Jedes einzelne dieser Teilgebiete stellt unterschiedliche Anforderungen in Be-zug auf die Herangehensweise und verlangt nach einer aufeinander abgestimmten Strategie der Umsetzung, unter Berücksichtigung der jeweils anderen beiden Datengruppen.