• Keine Ergebnisse gefunden

4 Datenauswertung

4.2 Klassifizierung

4.2.3 Digitale Klassifizierung

4.2.3.2 Arbeitsschritte der digitalen Klassifizierung

Das Kriterium für die Clusterbildung ist hier die SAQ bzw. engl. ‚SSE‘ (Summe der Abweichungsquadrate / Sum of Squared Errors). Die SSE ist die kumulative euklidische Distanz, d.h.

der Abstand zwischen jedem Pixel und dem Zentroid bzw. Mittelwert seines Clusters über alle Cluster.

Die Anzahl der Iterationen wird vom Nutzer festgelegt. Für eine optimale Clusterbildung soll sie hoch genug sein, dass die Festlegung der Cluster und deren Mittelwerte weitgehend stabil ist, was durch die Konvergenzgrenze (Convergence Threshold) beschrieben werden kann (WERNER 1996).

Bei der Texturklassifizierung wird die Homogenität bzw. die Heterogenität der Oberflächen unter-sucht. Auch die Extraktion von Kanten oder die Erkennung bestimmter Muster (z.B. bei der geologi-schen Kluftsystemanalyse) ist ein Teil der Texturanalyse.

Die Texturklassifizierung wird meistens anhand von Filterverfahren, die die Umgebung eines Pixels mittels eines Fensters analysieren, durchgeführt. Ein Nachteil bei der Verwendung von Filtern oder Klassifizierungsverfahren, die Fenster verwenden, ist, dass es Fehlzuweisungen an den Grenzen zweier Flächen bzw. Klassen gibt, die bei einer großen Fenstergröße massiver sind als bei einer kleinen (GONG 1994). Daher sollte immer eine möglichst kleine Fenstergröße verwendet werden.

Der am meisten eingesetzte Texturfilter ist die Varianzanalyse. Bei diesem statistischen Verfahren wird die Varianz der Grauwerte innerhalb eines Fensters bestimmt und dem zentralen Pixel zugewiesen. Die Größe des Fensters wird vom Nutzer definiert. Da die Varianz gewissermaßen die Streuung der Grauwertintensitäten der Pixel innerhalb des Fensters beschreibt, ist sie ein Maß für die kleinräumige Homogenität bzw. Heterogenität in der Umgebung des Pixels.

Es gibt aber auch überwachte Texturklassifizierungsverfahren, bei denen die Lagebeziehungen der Grauwerte im Vorfeld durch Trainingsgebiete erfasst werden. Ein Beispiel ist die EBIS-Klassifizierung (Evidenzbasierte Interpretation von Satellitendaten), bei der die Lagebeziehungen anhand von Co-Occurence-Matrizen berechnet werden. Eine nähere Erläuterung dieser Methode kann LOHMANN (1994) und HARALICK (1986) entnommen werden.

Wie bereits in Kap.3, Stand der Wissenschaft, erwähnt, gibt es neben den eben genannten Verfahren weitere moderne digitale Methoden, wobei die objektorientierte Klassifizierung, bei der die Bildda-ten im Vorfeld der Klassifizierung segmentiert werden, für die Auswertung räumlich hochauflösender Bilddaten am vielversprechendsten ist. Die Ausweisung von Segmenten besteht in der Erfassung der Grenzlinien von flächigen Strukturen, linearen Elementen und Einzelobjekten. Die nachfolgende Kla s-sifizierung ist objektorientiert, d.h. die Randlinien der Segmente entsprechen bereits den Grenzen der unterschiedlichen thematischen Klassen, so dass sich die Klassifizierung nicht mehr auf die gesamte Bildszene, sondern jeweils auf die einzelnen Segmente bezieht. Es stehen daher nicht nur die Refle-xionswerte der einzelnen Pixel des Datensatzes als Abgrenzungskriterien zur Verfügung, sondern auch Informationen über Größe, Form, Lage und Nachbarschaften der Segmente. Diese strukturellen und kontextuellen Eigenschaften können bei einer wissensbasierten Klassifizierung für die jeweiligen Klassen als Entscheidungskriterien definiert werden.

Um die Qualität der Klassifizierungsergebnisse bewerten zu können, gibt es Methoden der Bestim-mung der Klassifizierungsgenauigkeit bzw. –güte. Hierbei sollen, anhand der Erstellung einer Feh-ler- oder Konfusionsmatrix möglichst genaue Aussagen unter Verwendung von Stichprobenkontrollen bzw. Referenzdaten getroffen werden. Die Fehlermatrix trägt die Klassenzuweisung von a) der durch-geführten Klassifizierung und b) der Referenzdaten gegenseitig an. Somit kann die prozentuale Klassi-fizierungsgenauigkeit angegeben werden. Die Qualität der KlassiKlassi-fizierungsgenauigkeit einer Fehlermatrix hängt vom Umfang und von der Zuverlässigkeit der Referenzdaten ab. Dass die Referenzdaten einen hohen Einfluss auf die Berechnung der Klassifizierungsgenauigkeit haben, zeigen LO & WATSON (1998) exemplarisch auf. Die Fehlermatrix liefert daher Annäherungswerte der Klassifizierungsgüte, die jedoch nicht als quantitative Maße Gültigkeit haben.

Be-arbeitung der IRS-1C-Satellitendaten von Sachsen-Anhalt geprüft. Als unüberwachtes multispektrales Klassifizierungsverfahren wurde die ISODATA-Clusteranalyse verwendet. Als Texturanalysemethode stand der Varianzfilter zur Verfügung. Die digitale Klassifizierung wurde im ERDAS-Imagine-Bild-verarbeitungsprogramm (Fa. Geosystems) durchgeführt.

Als Referenzdaten für die Erstellung von Fehlermatrizen der multispektralen Klassifizierung zur Ermittlung der Klassifizierungsgüte dient in dieser Untersuchung ein Teil der im Vorfeld ausgewähl-ten Testflächen (siehe Kap.4.2.1).

Die Inhalte der digitalen Klassifizierung der IRS-1C-Satellitendaten können folgendermaßen zusammengefasst werden:

Maximum-Likelihood-Klassifizierung

• Trainingsphase zur Definition der thematischen Klassen

• Prüfung unterschiedlicher Kanalkombinationen

• Einbindung textureller Information (Varianzfilteranalyse)

• Bestimmung der Klassifizierungsgüte ISODATA-Clusteranalyse

• Prüfung unterschiedlicher Kanalkombinationen

• Definition der Klassifizierungsparameter

• Zuweisung der Spektralklassen (Cluster) zu thematischen Klassen

• Einbindung eines DHM

• Einbindung von Landsat-TM-Daten

• Bestimmung der Klassifizierungsgüte Texturanalyse (Varianzfilter)

• Prüfung unterschiedlicher Fenstergrößen Postklassifizierung

• Verknüpfung der ISODATA- mit der Maximum-Likelihood-Klassifizierung

• Verknüpfung der ISODATA-Klassifizierung mit der Texturanalyse

• Verwendung thematischer Masken

Die Maximum-Likelihood-Methode wurde geprüft, da sie aufgrund der Berücksichtigung statistischer Parameter der Grauwertverteilung innerhalb einer thematischen Klasse als genauestes überwachtes Klassifizierungsverfahren gilt. Sie setzt aber eine GAUSS’sche Normalverteilung der Grauwerte voraus, die aber gerade bei räumlich hochauflösenden Bilddaten mit spektral heterogen zusammengesetzten Klassen nicht immer gegeben ist.

Für die Auswertung räumlich hochauflösender Satellitendaten hat sich daher bereits in anderen Untersuchungen (siehe WERNER 1996 und THOMSON ET AL 1998) die unüberwachte Klassifizierung als geeigneter erwiesen. Aus diesem Grunde wurde in dieser Untersuchung auch die ISODATA-Clusteranalyse herangezogen. Der Nachteil gegenüber den überwachten Verfahren ist, dass die vom Computer ausgewiesenen Spektralklassen vom Bearbeiter nachträglich den thematischen Klassen zugewiesen werden müssen. Es wurde ein Verfahren entwickelt, um mit Hilfe der Verwendung von Testflächen (siehe Kap.4.2.1) diese Zuordnung zu vereinfachen.

Zudem sei auf die Einbindung zusätzlicher Information in Form eines digitalen Höhenmodells (DHM) an dieser Stelle hingewiesen. Somit konnte die Bildszene des UG ‘Harz’ trotz der Beleuchtungsunter-schiede digital klassifiziert werden.

Auch Texturanalysen sind gerade bei räumlich hochauflösenden Fernerkundungsdaten erfolgverspre-chend, da sie Strukturen wiederzugeben vermögen. Die Texturanalyse allein liefert zwar keine Ausweisung unterschiedlicher thematischer Klassen, aber im Rahmen der Postklassifizierung können hier die Ergebnisse der multispektralen Klassifizierung ergänzt werden. Ein Beispiel hierfür ist auf

Abb.10 dargestellt, wobei die Wiedergabe von Feldgehölz durch die Kombination der multispektralen ISODATA-Clusteranalyse mit der Texturanalyse verbessert werden konnte.

Abb.10: Klassifizierung von Feldgehölz in der Elbaue mit multispektralem und kombiniertem texturellen Verfahren

Die Postklassifizierung besteht in der Nachbearbeitung klassifizierter Satellitenbilddaten, um die Resultate zu verbessern und zu erweitern. Neben der bereits genannten Kombination multispektraler und textureller Klassifizierung diente sie in dieser Untersuchung auch der Minimierung der fehlerhaften Klassifizierung von Gewässerflächen, die teilweise aufgrund spektraler Ähnlichkeit auf den Satellitendaten anhand der ISODATA-Klassifizierung mit Fichtenwäldern verwechselt werden.

Die Maximum-Likelihood-Methode vermag dagegen diese beiden Klassen besser zu trennen, so dass die Klassifizierungsfehler durch Nachbearbeitung mit dem Maximum-Likelihood-Klassifizierungsergebnis korrigiert werden konnten (siehe Abb.11).

Die detaillierte Dokumentation der einzelnen Arbeitsschritte der digitalen multispektralen Klassifizie-rungsverfahren würde den Rahmen dieser Arbeit sprengen. Die Methodik der Durchführung der über-wachten Maximum-Likelihood-Klassifizierung und der unüberüber-wachten ISODATA-Clusteranalyse kann aber dem Anhang 1 entnommen werden. Hier sind auch die Fehlermatrizen ausführlich erläutert, die den Hintergrund für die nachfolgend beschriebene Methodenbewertung darstellen. Darüber hinaus

sind zudem die Arbeitsschritte von Verfahren der Texturanalysen und der Postklassifizierung zur Verbesserung der Ergebnisse in Anhang 1 enthalten. Auch der publizierte Endbericht des sachsen-anhaltinischen Fernerkundungsprojekts enthält ausführliche Informationen zu den einzelnen Arbeitsschritten der Bildklassifizierung (KENNEWEG ET AL. 2000).

Abb.11: Reduzierung der Fehlklassifizierung der Gewässer (Schwarz) innerhalb von Fichtenbeständen (Grau) durch Postklassifizierung des Ergebnisses der ISODATA-Cluster-analyse