• Keine Ergebnisse gefunden

Master Thesis im Rahmen des Universitätslehrganges „Geographical Information Science & Systems“

N/A
N/A
Protected

Academic year: 2022

Aktie "Master Thesis im Rahmen des Universitätslehrganges „Geographical Information Science & Systems“"

Copied!
86
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Master Thesis

im Rahmen des

Universitätslehrganges „Geographical Information Science & Systems“

(UNIGIS MSc) am Zentrum für GeoInformatik (Z_GIS) der Paris Lodron-Universität Salzburg

zum Thema

„Können Vektorbestanddaten der Überbauungsklassen von Österreichs Raststationen mittels georektifizierten

Orthofotos und einem pixelbasierten Maximum Likelihood Verfahrens auf Veränderungen überprüft

werden?“

vorgelegt von

Thomas Veitsberger

U1558, UNIGIS MSc Jahrgang 2010

Zur Erlangung des Grades

„Master of Science (Geographical Information Science & Systems) – MSc(GIS)”

Gutachter: Dr. Gudrun Wallentin

Wien, den 13.Dezember 2013

(2)

Seite 2 Danksagung

Ich möchte mich an dieser Stelle bei all denjenigen bedanken, die mich im Laufe der Fertigstellung dieser Arbeit unterstützt haben.

Meinen Vorgesetzten und Kollegen bei der ASFINAG möchte ich auf diesem Wege danken – ohne Unterstützung in fachlichen Detailfragen und Bereitstellung der nötigen Unterlagen wäre diese Arbeit nicht möglich gewesen.

Ganz besonderer Dank gebührt meiner Frau Nina Veitsberger, die mich auch in den mühevollsten Stunden immer motiviert und unterstützt hat. Ohne dich hätte ich das wohl nicht fertig gestellt.

Nicht zuletzt möchte ich meinen Eltern für die finanzielle und emotionelle Unterstützung am langen Weg des Studiums danken.

(3)

Seite 3 Erklärung der eigenständigen Abfassung der Arbeit

Ich versichere, diese Master Thesis ohne fremde Hilfe und ohne Verwendung anderer als der angeführten Quellen angefertigt zu haben, und dass die Arbeit in gleicher oder ähnlicher Form noch keiner anderen Prüfungsbehörde vorgelegt wurde. Alle Ausführungen der Arbeit, die wörtlich oder sinngemäß übernommen wurden, sind entsprechend gekennzeichnet.

Wien, 13. Dezember 2013

(4)

Seite 4

Kurzfassung Deutsch

Diese Arbeit beleuchtet die Frage ob bzw. in wie weit sich Vektorbestandsdaten der Überbauungsklassen von Österreichs Raststationen mittels georektifizierten Orthofotos und einem pixelbasierten Maximum Likelihood Verfahrens auf Veränderungen überprüfen lassen. Ausgangsdaten sind die vorhandenen Vektorbestandsdaten von Österreichs Autobahnraststationen sowie deren georektifizierte Orthophotos. Mithilfe einer Abfolge von ArcGIS Methoden („Extract by Mask“, „Maximum Likelihood Classification“, „Raster to Polygon“ und „Intersect“) werden die vorhandenen Bestandsdaten mit den neu klassifizierten Daten auf Richtigkeit überprüft. Ab einem Klassifikationswert von über 60%

wird das Ergebnis als „ausreichend“ gewertet.

Abstract

This work illuminates the question if a georectified orthophoto can be used for change detection of vector inventory data of overbuilding classes at Austria‘s motorway service areas using a pixel-based maximum likelihood method. By using a sequence of ArcGIS Methods ("Extract by Mask", "Maximum Likelihood Classification", "Raster to Polygon" and

"Intersect"), the existing inventory data will be compared with the reclassified data for accuracy. If the result exeeds a value of 60% it will be considered as „sufficient“.

(5)

Seite 5

Inhalt

Kurzfassung Deutsch ... 4

Abstract ... 4

Einleitung ... 7

Motivation ... 8

Ziele der Arbeit ... 8

Aufbau der Arbeit ... 8

Erster Teil – Grundlagen ... 10

Fernerkundung ... 10

Entstehung Luft und Satellitenbilder ... 10

Elektromagnetische Strahlung ... 11

Reflexionseigenschaften... 12

Andere Strahlungen ... 14

Aufnahmegeräte und ihre Eigenschaften ... 14

Farbphotographie ... 15

Aufnahmetechniken ... 15

Bildanalysen ... 17

Visuelle Interpretation ... 17

Photogrammmetrie ... 18

Datenmodell ... 18

Konzeptionelles Modell ... 19

Geographisches Informations Objekt (GI Objekt) ... 19

Metadaten ... 19

Qualität von Daten ... 20

Klassen ... 21

Zweiter Teil – Klassifikationen und Verfahren ... 23

Klassifikation von Bilddaten ... 23

Überwachte Klassifikation ... 23

Minimum-Distance-Verfahren: ... 24

Maximum-Likelihood-Verfahren: ... 25

Unüberwachtes Verfahren ... 26

(6)

Seite 6

Objektbasiertes Verfahren ... 27

Fuzzy –Klassifizierung ... 28

Methoden der Bildinterpretation ... 29

Abschätzung der Klassifkationsgenauigkeit ... 30

Dritter Teil – Anwendung am Beispiel Raststation Loipersdorf, Golling Ost und Golling West ... 32

ASFINAG und Rastanlagen ... 32

Referenzbeispiel Raststation Loipersdorf... 34

Geographische Informationen in der ASFINAG ... 35

Luftbilder im ASFINAG WebGIS ... 37

Umfang der betrieblichen Erhaltung ... 37

Bestandsdaten - Leistungsorientierte Steuerung (LOS) ... 38

Auswahl der Software ... 39

Methodischer Ansatz ... 40

Möglichkeiten in ArcGIS ... 41

Spatial Analyst ... 43

Conversion Tools ... 44

Verfahren ... 44

Validierung bzw. Vorinterpretation der Daten ... 45

Auswahl der zu überprüfenden Überbauungsklassen ... 45

Schritt für Schritt zur Analyse ... 58

Referenzfläche Raststation Loipersdorf ... 58

Ergebnis Loipersdorf ... 62

Raststation Golling Ost und West... 69

Ergebnis Golling West ... 72

Ergebnisse Golling Ost ... 78

Zusammenfassung ... 83

Ausblick ... 84

Literaturverzeichnis ... 85

(7)

Seite 7

Einleitung

Eine gewisse Qualität von Geodaten ist notwendig und wichtig. Nicht jede Anwendung benötigt gleich detaillierte Datensätze – eine gewisse Mindestqualität wird aber in jedem Anwendungsfall vorausgesetzt. Dies setzt unter anderem Vollständigkeit, logische Konsistenz, Lage Genauigkeit, zeitliche Genauigkeit und thematische Genauigkeit voraus.

(Kresse & Danko, 2012)

Falsch klassifizierte Objekte können im schlimmsten Fall das Gesamtergebnis (abhängig vom Untersuchungsobjekt) verfälschen. Stellen Sie sich zum Beispiel eine nicht als Einbahn gekennzeichnete Straße vor. Das Navigationssystem lotst Sie bis zu der Straße, sie können die vorgegebene Route aber nicht regelkonform absolvieren. Ein ärgerliches und meist zeitintensives Missgeschick, das mit qualitativ hochwertigen Daten nicht geschehen wäre.

Die Qualitätskontrolle sollte einen laufenden Prozess darstellen und regelmäßig durchgeführt werden. Ziel eines jeden Systems muss es sein, eine (semi-) automatisierte Qualitätsprüfung der Geodaten zu ermöglichen.

Orthophotos werden immer leichter und in besserer Qualität verfügbar. Durch diese Tatsache können Orthophotos immer öfter zur Qualitätskontrolle eingesetzt werden.

Alternativ dazu können vor Ort Erhebungen etwaige Fehler korrigieren bzw. bei Umbaumaßnahmen ist entsprechend darauf zu achten, dass die zugehörigen Datensätze aktualisiert werden.

Die Qualitätskontrolle von Geodaten in der ASFINAG wird bisher auf Basis der Dokumentationsrichtlinie für Bestandsunterlagen (PLaDOK) durchgeführt. (ASFINAG, 01) Die Verbindung mit Orthophotos wurde bisher noch nicht versucht und kann demnach einen Mehrwert bieten.

Die zu erwartenden Erkenntnisse aus dieser Arbeit können auch über die ASFINAG hinaus relevant sein. Jedes Unternehmen, das ähnliche Datenstrukturen besitzt, kann dadurch kostengünstig weitere Informationen zu den Geodaten erhalten.

(8)

Seite 8

Motivation

Es gibt in jedem Bereich eines Unternehmens den Bedarf nach einer gewissen Qualität eines Produktes. Um dies zu gewährleisten ist eine Qualitätskontrolle unumgänglich. Die ASFINAG konnte 2007 eine Bestandsaufnahme ihrer Autobahnflächen und dazugehöriger Raststationen durchführen. Im Laufe der Zeit veränderten sich gewisse Bereiche durch Restrukturierungen (Grünflächen werden zu Verkehrsflächen, Gebäude werden erweitert, etc.). Die Veränderungen wurden im Bestandsdatensatz aber nicht bzw. nur vereinzelt mitgezogen.

Ziel ist es eine Qualitätskontrolle der bestehenden Vektorbestandsdaten über georektifizierte Orthofotos durchzuführen. Dabei wird eine Minimierung des Aufwandes gegenüber einer Maximierung des Outputs angestrebt. Mithilfe der Maximum Likelihood Classification soll eine Validierung des Change Detection Prozesses durchgeführt und deren Ergebnisse sollen diskutiert werden.

Ziele der Arbeit

Das erklärte Ziel dieser Arbeit ist es, die Datenqualität der Vektordatensätze auf deren Richtigkeit zu überprüfen. Eine Bewertung auf der Kappa-Werte-Qualitätsskala von „sehr gut“ oder „ausgezeichnet“ wird angestrebt. Mit anderen Worten soll ein Kappa-Wert von über 60% erzielt werden um als „annehmbar“ bewertet zu werden. Werte darunter sind für die Fragestellung „nicht annehmbar“.

Aufbau der Arbeit

Im Ersten Teil werden die Grundlagen der Fernerkundung beschrieben. Angefangen von der Begriffsklärung von Daten und Luftbildern über Geographische Informationssysteme (GIS) bis hin zur theoretischen Erklärung der Luftbildanalysemethoden und deren Funktionsweisen.

(9)

Seite 9 Der Zweite Teil behandelt vor allem die Vorgangsweise der Klassifikationsverfahren der Bildanalyse im ArcGIS sowie die gewählten Werkzeuge.

Der Dritte Teil widmet sich der praktischen Anwendung der Maximum Likelihood Classification am Referenzbeispiel der Raststation Loipersdorf. Es wird eine günstige Konstellation von Trainingsgebieten für die Luftbildklassifikation gewählt und auf die Basis der Bestandsdaten angewendet. Auf Basis dieser Daten wird eine Signaturdatei erstellt und eine Klassifikation an den Luftbilddaten der Raststation Golling Ost und West durchgeführt.

Die einzelnen Schritte werden hier am Beispiel der Raststation Loipersdorf, Raststation Golling Ost und der Raststation Golling West gezeigt. Am Ende werden die Ergebnisse diskutiert und ein Ausblick auf mögliche Erweiterungen wird gegeben.

(10)

Seite 10 Erster Teil – Grundlagen

Fernerkundung

Die Fernerkundung ist ein indirektes Beobachtungsverfahren das Informationen über Gegenstände vermitteln kann. Laut ALBERTZ (2009:1) ist die Definition der Fernerkundung wie folgt:

„ 1. Zur Gewinnung von Informationen, die elektromagnetische Strahlung benutzen, die von einem beobachteten Objekt abgestrahlt wird,

2. die Empfangseinrichtungen für diese Strahlung in Luftfahrzeugen (…) oder Raumfahrzeugen (…) mitführen und

3. zur Beobachtung der Erdoberfläche mit allen darauf befindlichen Objekten, der Meeresoberfläche oder der Atmosphäre dienen.“

Entstehung Luft und Satellitenbilder

Grundsätzlich wird zwischen passiven und aktiven Systemen unterschieden. Passive Systeme benutzen nur die in der Natur vorhandene elektromagnetische Strahlung, wie zum Beispiel reflektierte Sonnenstrahlung oder Eigenstrahlung, die von jedem Körper abgegeben wird.

Wenn die Erdoberfläche aber aktiv bestrahlt wird und der reflektierte Teil dieser künstlichen Strahlung aufgefangen wird, spricht man von einem aktiven System. (ALBERTZ, 2009)

Satelliten können die verschiedenen Spektralbereiche in unterschiedlichen Kanälen abbilden.

Struktureigenschaften können durch die Kombination verschiedener Kanäle herausgefiltert werden. (Eine genaue Beschreibung der Kanäle wird im weiteren Verlauf der Arbeit dargestellt).

Es werden mindestens drei getrennte Spektralbereiche von Mulispektralsensoren abgedeckt, üblicherweise sind es aber vier oder mehr. (LANG, et al. 2007)

(11)

Seite 11 Elektromagnetische Strahlung

Eine elektromagnetische Strahlung wird als Wellenstrahlung aufgefasst. Sie ist ein periodisch änderndes elektromagnetisches Feld, das sich mit Lichtgeschwindigkeit ausbreitet.

Aus der Physik kennt man die Beziehung: λ

Die Wellenlänge λ ist gleich Ausbreitungsgeschwindigkeit c geteilt durch die Frequenz v. Die verschiedenen Wellenlängen unterschiedlicher Oberflächen können zur Charakterisierung der elektromagnetischen Strahlung verwendet werden. Folgende Einheiten werden für diesen Bereich benutzt:

1nm (Nanometer) = 1μm (Mikrometer) =

1mm (Millimeter) =

Abbildung 1 – elektromagnetisches Spektrum (Quelle: Albertz, 2009)

Am bekanntesten ist das sichtbare Licht das sich zwischen 400nm und 700nm Wellenlänge befindet. Kurzwelliger in absteigender Reihenfolge sind Ultraviolett, Röntgenstrahlen, Gammastrahlung und die extrem kurzwellige kosmische Strahlung. In die andere Richtung, zum langwelligen Licht gehören Infrarotstrahlung, Mikrowellen und Radiowellen.

(12)

Seite 12 Da sich jeder Körper in einer Wechselwirkung mit seiner Umgebung befindet, kann die Fernerkundung diese Wechselwirkung der objekt- bzw. materialspezifischen Spezifika nutzen. Als Beispiel für eine quantitative Messung der Fernerkundung können hier der Reflexions-, der Absorptions sowie der Transmissionsgrad genannt werden.

Folgende Formeln gelten, wobei Φr der reflektierte, Φa der absorbierte, Φd der durchgelassene Anteil und schließlich Φ der gesamte Strahlungsfluss ist.

Reflexionsgrad: ρ Absorptionsgrad:

Transmissionsgrad:

Elektromagnetische Strahlung muss stets den Weg vom Objekt durch die Atmosphäre bis zum Satelliten oder Flugzeug durchlaufen. In der Fernerkundung können daher nur Wellenlängen in Betracht gezogen werden bei denen die Atmosphäre die elektromagnetische Strahlung weitgehend ungehindert durchlässt. Die für die Atmosphäre relevanten Themen Refraktion (atmosphärische Strahlenbrechung) Absorption, Streuung und Transmission werden hier nicht näher definiert. Ausführlichere Darstellungen findet man unter anderem in Albertz (2009), (Dietze, 1957), (Foitzik & Hinzpeter, 1958), (Möller, 1957)

Reflexionseigenschaften

Die Reflexionseigenschaften eines Körpers hängen meist von der Oberflächenbeschaffenheit, dem physikalischen Zustand (z.B. Feuchtigkeit) und den geometrischen Eigenschaften (Sonneneinstrahlung, Beobachtungswinkel,… ) ab.

(13)

Seite 13

Abbildung 2 – verschiedene Reflexionseigenschaften an einer Oberfläche, Links Spiegelnde Reflexion, Mitte: Diffuse Reflexion, Rechts: Gemischte Reflexion (Quelle: Albertz 2009)

Das Reflexionsgesetz besagt, dass der Einfallswinkel ε dem Reflexionswinkel ε‘ entspricht sowie einfallender Strahl mit Einfallslot und reflektierender Strahl in einer Ebene liegen. Für die Fernerkundung ist die Abhängigkeit des Reflexionsgrades ρ von der Wellenlänge der Strahlung von Bedeutung. Die folgende Abbildung zeigt die typischen Kurven von verschiedenen Oberflächenarten – deren spektraler Reflexionsgrad in Abhängigkeit zum Wellenbereich 400 bis 2600 nm ist. (Albertz, 2009).

Abbildung 3 – Spektrale Reflexionsgrade verschiedener Oberflächen (Quelle: Albert, 2009)

Die Darstellung zeigt den starken Anstieg des Reflexionsgrades bei grünen Pflanzen im Bereich von ca. 0,7 μm. (Hier befindet sich der Übergang zwischen sichtbarer und infraroter Strahlung). Diese Eigenschaft kann sehr gut zur Interpretation von Luftbildern genutzt werden.

(14)

Seite 14 Laut (LANG et al. 2007) zeigen geographische Objekte bezüglich verschiedener Landbedeckungstypen unterschiedliche Reflexionseigenschaften. Eine thematische Auswertung ist in den meisten Fällen durch diese unterschiedlichen Reflexionseigenschaften möglich (Leukert, 2005).

Wenn die spektralen Merkmale einer Objektgruppe bekannt sind, so hilft dies bei der visuellen Interpretation der Satellitenbilder. Durch rein spektrale Analysen ist eine eindeutige Zuordnung aber nicht zu gewährleisten (Lang & Blaschke, 2007).

Andere Strahlungen

Es sei darauf hingewiesen, dass in der Fernerkundung noch andere Strahlungen verwendet werden. Unter anderem sind Thermalstrahlung und Mikrowellen sowie Infrarotstrahlungen für gewisse Unterscheidungen sehr gut anwendbar. Thermalstrahlung tritt bei allen Geländeobjekten aufgrund ihrer Oberflächentemperatur auf. Bei genügender Genauigkeit kann ein wellenlängenunabhängiger Emissionsgrad ε für die meisten Oberflächen für den Wellenlängenbereich zwischen 8 und 14 μm angenommen werden. (Albertz, 2009).

Genaue Darstellungen der Thermalaufnahmen finden sich bei (Geiger, 1961) und (Weischet, 2002)

Mikrowellen werden von der Atmosphäre und von Wettereinflüssen (Regen, Wolken, Schneefall,…) kaum beeinflusst. Durch die Wellenlänge können dadurch Informationen über z.B. Schneebedeckung, Bodenfeuchte und Ölverschmutzung gewonnen werden. Die Messung mit passiver Mikrowellenstrahlung ist nicht in hoher geometrischer Auflösung möglich – dient daher kaum zur Interpretation von Bildern größerer Maßstäbe. Dies ist mit aktiven Systemen möglich, bei denen eine gewisse Mikrowellenstrahlung vom Flugzeug oder Satellit selbst erzeugt wird und die reflektierten Signale aufgefangen werden.

Detailinformationen darüber finden sich unter anderem in (Albertz, 2009) Aufnahmegeräte und ihre Eigenschaften

Der Aufnahmeprozess für Luft- und Satellitenbilder beruht auf dem Prinzip der Photographie, wobei passiv die Strahlung des sichtbaren Lichts aufgenommen wird. Diese

(15)

Seite 15 Aufnahmetechnik ist die günstigste und bietet viele Möglichkeiten der Analyse. Aber wo ein Vorteil ist, da ist meist auch ein Nachteil. Vor allem die radiometrische Kalibrierung des photographischen Systems und dadurch die genaue Bestimmung der Zusammenhänge Strahlung und Farbe sind schwierig und unsicher. (Albertz, 2009)

Es gibt verschiedene Kameratypen zur Aufnahme der Erdoberfläche. Meist werden dafür speziell für diesen Zweck entwickelte Kameras verwendet. Man unterscheidet dabei Handkameras, Reihenmesskameras, Multispektralkameras und Aufklärungskameras.

(Albertz, 2009)

Handkameras zeichnen sich durch feste Handgriffe, große Sucher und große Bildformate aus.

Sie dienen meist zur Aufnahme von Schrägluftbildern. (Albertz, 2009)

Reihenmesskameras werden für Senkrechtbilder benötigt. Sie ermöglichen Bildreihen und sind für photogrammetrische Zwecke geeignet.

Multispektralkameras kamen zum Einsatz, wenn vier oder mehr idente Bilder mit verschiedenen Spektralbereichen aufgezeichnet werden mussten. Dies war nur vorübergehend von Bedeutung, da Multispektralkameras nach und nach von digitalen Aufnahmen ersetzt wurden. Digitale Aufnahmen sind radiometrisch genauer und direkt digital weiter zu verarbeiten.

Aufklärungskameras sind im Militärbereich eingesetzt, da diese in der Regel andere Anforderungen haben als das zivile Luftbildwesen. (Albertz, 2009)

Farbphotographie

Farbbilder können auf drei Grundfarben zurückgeführt werden und bestehen daher stets aus drei Schichten. (Albertz, 2009)

Aufnahmetechniken

Eine Aufnahme von Senkrechtluftbildern erfolgt in Parallelstreifen, die sich überlappen. Um die Bilder zusammen führen zu können ist eine Überdeckung von ca. 60% nötig – dann können Punkte des Geländes stereoskopisch betrachtet werden.

(16)

Seite 16

Abbildung 4 – Flächenhafte Bildaufnahme (Quelle: Albertz, 2009)

Für Aufnahmen von Korridoren entlang von Trassen oder Küstenlinien ist eine Parallelstreifen-Aufnahme nicht zweckmäßig. Daher werden längere Korridore häufig aus einer Folge von Einzelstreifen erfasst. (Albertz, 2009)

Abbildung 5 – Schema der Luftbildaufnahme entlang einer gekrümmten Linie (Quelle: Albertz, 2009)

(17)

Seite 17 Bildanalysen

Bildanalyse wird von Rosenfeld (1982) als automatische Generierung einer sinnvollen Beschreibung für eine in Bildern dargestellte Objektraumszene definiert. Damit Objekte auf Bilddaten erkannt werden können, muss vorher eine Definition dieser durchgeführt werden.

Unterschiedliche Spektraleigenschaften können bei einer Bildanalyse das gewünschte Ergebnis liefern.

Für eine Bildinterpretation ist laut Albertz (2009) keine starre Regel oder Gebrauchsanweisung möglich. Die Interpretation ist von verschiedenen Faktoren abhängig wie z.B. der Lage des Gebietes und Vorinformationen.

Die Interpretation kann in zwei Stufen gegliedert werden: einerseits das Erkennen von Objekten, andererseits das Interpretieren der Informationen und daraus resultierende Schlussfolgerungen (Albertz, 2009).

Um ein Objekt zu erkennen ist es wichtig, den Zusammenhang der Einzelfaktoren zu verstehen. So müssen Eigenschaften wie Helligkeit einer Fläche, Helligkeitsunterschiede, Sättigung, Farbton, Form von Objekten, deren Größe, die Textur der Oberfläche und die Schattierung berücksichtigt werden. Nicht zu vergessen ist auch die relative Lage von Objekten, die dann in weiterer Folge für die Interpretation sehr wichtig ist. (Albertz 2009:124-128)

Stellen Sie sich vor, Sie wollen ein Fahrzeug auf einer Asphaltfläche detektieren. Dabei können unterschiedlichen radiometrischen Eigenschaften von Metall und Asphalt hilfreich sein.

Visuelle Interpretation

Aus Objekten und Strukturen kann eine visuelle Interpretation abgeleitet werden. Dabei werden unterschiedliche Faktoren, wie zum Beispiel die Größe, die Form, der Kontrast oder

(18)

Seite 18 die Farbsättigung sowie das Vorwissen des Betrachters in die Interpretation mit einbezogen.

Die Bildinterpretation wird in drei Stufen gegliedert.

Zuerst werden die allgemeinen Flächen untergliedert, wie zum Beispiel bebaute, unbebaute Flächen sowie Freiflächen oder Wasserflächen. Der nächste Schritt ist die Unterteilung der gleichartigen Flächen. Hier kann als Beispiel die Vegetationsgrenze einer Fläche herangezogen werden. Der dritte Schritt beinhaltet dann schon die genaue Unterteilung der einzelnen Objekte. (Voß, kein Datum)

Photogrammmetrie

Die Photogrammmetrie befasst sich mit der Herstellung von Karten aus Photographien bzw.

Satellitenbildern und ist eine Methodik der Geofernerkundung. Es müssen meist abgebildete Objekte erkannt und interpretiert werden. Es können Messungen nötig sein, um eine erfolgreiche Interpretation zu gewährleisten. Meist können aber Rückschlüsse aus erkennbaren Einzelheiten gezogen werden. Es ist eine genaue geometrische Transformation der Bilddaten in ein gemeinsames Koordinatensystem nötig. (Albertz, 2009)

Datenmodell

An dieser Stelle sei festgehalten, dass Daten den Kern eines jeden geographischen Informationssystems darstellen (Bartelme, 2005). Die Daten werden in vier Gruppen unterteilt.

Rohdaten werden über Sensoren oder Messgeräte aufgezeichnet bzw. erfasst. Interpretierte Daten können mit Hintergrundwissen klassifiziert und mit einer Bedeutung hinterlegt werden. Symbolisierte Daten sind durch ihre kartographische Konvention durch Symbole, Signaturen oder Schriften dargestellt. Strukturierte Daten können mithilfe von Hintergrundwissen und Anwendungsanforderungen zu neuen Strukturen zusammengefasst werden. Eine Komponente, die ständig begleitet, ist die Aktualität von Daten. Analoge Karten hatten nie den Anspruch tagesaktuell zu sein, von GIS Karten wird dies aber (unberechtigterweise) gefordert. (Bartelme, 2005)

(19)

Seite 19 Konzeptionelles Modell

Um die Datenmengen zu verarbeiten greifen wir zu zwei Strategien: einerseits die Analyse, andererseits die Synthese. In der Analyse versuchen wir Informationen in ihre Bestandteile zu zerlegen und zu klassifizieren, in der Synthese gehen wir genau den umgekehrten Weg, in dem wir aus einzelnen Teilen komplexe Gebilde formen. Die Wirklichkeit wird in ein Informationssystem gepackt. Dabei wird ein Teil der Wirklichkeit abstrahiert und vereinfacht bzw. computertauglich gemacht (Bartelme, 2005).

Geographisches Informations Objekt (GI Objekt)

Um sinnvolle Modelle eines Objektes zu erstellen sind geometrische sowie semantische Eigenschaften notwendig (Bartelme, 2005).

Die Semantik bezeichnet die inhaltlichen Informationen eines Objektes. Dafür wird die englische Bezeichnung Feature verwendet. „Die Kennzeichen selbst nennt man Objektcode oder Objektschlüssel. Alle GI-Objekte mit demselben Kennzeichen fallen somit in eine gemeinsame Objektklasse.“ (Bartelme, 2005:44)

Metadaten

Als Metadaten werden Daten bezeichnet, die Informationen über andere Daten enthalten – sozusagen „Daten über Daten“. Geodaten sind eine Abstraktion der realen Welt – je nachdem wie und wofür die Daten erhoben wurden ist der Grad der Näherung höher oder niedriger. In der Norm ISO 19115 Geographic Information: Metadata wird die Struktur der Beschreibung der Geodaten vorgegeben und erleichtert dem Anwender die korrekten Daten zu finden. (Bartelme, 2005)

(20)

Seite 20 Qualität von Daten

International werden Qualitätsstandards nach ISO – Normen behandelt. Die für die Geoinformatik geltende Teilnorm ISO 19113 beinhaltet die Qualitätsprinzipien, die Teilnorm ISO 10114 jene der Prozeduren zur Evaluierung und Qualität.

Allgemein gilt, dass die Qualität als eine Gesamtheit aller charakteristischen Eigenschaften eines Produktes anzusehen ist. Eine entsprechende Qualität ermöglicht eine Erfüllung von definierten Anforderungen. (nach ISO 8402 , Bartelme, 2005)

Geodaten müssen hohe Qualitätsanforderungen erfüllen. Sie sollen langlebig sein, die geometrische Güte um aussagekräftige und richtige Analyseergebnisse zu erhalten muss gegeben sein sowie die Möglichkeit einer Mehrfachnutzung soll gegeben sein. (Bartelme, 2005)

Bartelme meint außerdem, dass Rastermodelle im Allgemeinen geometrisch nicht so genau sind wie Vektormodelle.

Wichtig ist, dass im Allgemeinen nicht nur eine strenge WAHR- oder FALSCH-Benotung durchgeführt werden kann. Vor allem bei summarisch beschriebenen Datensätzen werden wir nie zur Gänze das Wunschergebnis erhalten. Es ist daher nötig ein gewisses Maß an Abstufungen einzuführen. Angaben von Standardabweichungen, mittleren Punktlagefehlern, Intervallen, Wahrscheinlichkeiten und Prozentzahlen sind üblich. In ISO 19113 werden folgende Qualitätsparameter genau beleuchtet:

Zweck – (engl. purpose) es ist üblich den Bestimmungszweck der Daten klar zu definieren, die Angabe der tatsächlichen Verwendung kann aber variieren.

Herkunft – (eng. lineage) es ist wichtig zu wissen, wo Daten herkommen. Welche Person bzw. welche Organisation hat sie bereitgestellt, was geschah damit (Abstraktion-, Interpolation, Generalisierung usw.), sozusagen ein Lebenszyklus des Datensatzes.

(21)

Seite 21 Vollständigkeit - (engl. completeness) hier geht es um das Vorhandensein bzw. Fehlen von Objekten, ihrer Attribute oder Beziehungen. Wenn im Vergleich zur Realität gewisse Objekte fehlen spricht man von einem „Fehlen“ (engl. omission) –zu viele Objekte im Vergleich zur Realität führen hingegen zu einem „Überschuss“ (engl. commision). Eine derartige Abweichung soll dementsprechend (z.B. als Prozentangabe) gekennzeichnet werden.

Logische Konsistenz – (engl. logical consistency) Wichtig ist es zu wissen, in wie weit sich ein Datensatz an eine gewisse Datenstruktur, eine Attribuierung und eine Beziehung hält.

Positionsgenauigkeit – (engl. positional accuracy) ist die Nähe der Koordinatenangaben zur wahren bzw. als wahr akzeptierten Position.

Zeitgenauigkeit – (engl. temporal accuracy) hier muss geprüft werden ob die Daten noch aktuell sind bzw. zu welchem Prozentsatz.

Thematische Genauigkeit – (engl. thematic accuracy) behandelt qualitative, quantitative Richtigkeit von Attributen und deren Klassifikationsgüte.

Die oben genannten Qualitätsparameter gemäß ISO 19113 können noch erweitert werden – für diese Arbeit sicher auch tragend sind folgende:

Räumliche Auflösung – (engl. resolution) zeigt wie Objekte repräsentiert werden können.

Zuverlässigkeit – (engl. reliability) wird als Maß für die Wahrscheinlichkeit von Fehlern im Modell angenommen. Eine Lokalisierung falscher Werte ist immer qualitätsfördernd.

Identifizierbarkeit – (engl. identifiability) zeigt wie einfach oder schwierig ein Objekt von einem anderen Vertreter derselben Kategorie unterschieden werden kann. Klar definierte Geometrie ist leichter unterscheidbar als diffuse – daher ist die klar definierte Geometrie qualitativ hochwertiger einzustufen. (Bartelme, 2005)

Klassen

Klassen sind eine Unterteilung nach gleichartigen Objekten wie zum Beispiel Grundstücke, Nutzungsbereiche oder Straßenachsen. Meist werden einzelne Objekte zu einer größeren,

(22)

Seite 22 allgemeineren Klasse zusammengeführt. Objekte einer Klasse sind ähnlich aufgebaut und können mit denselben Methoden behandelt werden. (Albertz, 2009)

(23)

Seite 23 Zweiter Teil – Klassifikationen und Verfahren

Klassifikation von Bilddaten

Bei der Klassifikation wird versucht Bilddaten mit ähnlichen spektralen Eigenschaften in Gruppen zusammenzufassen. Dieses Verfahren kann entweder überwacht oder unüberwacht durchgeführt werden. Hier unterscheidet man weiter zwischen dem pixelbasierten Verfahren und dem objektbasierten Verfahren.

Das pixelbasierte Verfahren klassifiziert ein Pixel nur nach den spektralen Eigenschaften und vergleicht diese mit einem möglichst ähnlichen – bereits vorher einer Klasse zugeordnetem - Pixel. So wird jedem Pixel eine Klasse anhand seiner spektralen Eigenschaft zugewiesen.

Beim objektbasierten Verfahren hingegen werden die Pixel des Luftbildes in Klassen eingeteilt und die Beziehung zu dem Nachbarschaftspixel wird untersucht. Hier gilt, dass ein Pixel mit hoher Wahrscheinlichkeit der gleichen Klasse angehört wie sein Nachbar. Klassen sollten sich dann durch ein oder mehrere spektrale Eigenschaften unterscheiden. (Voß, kein Datum)

Überwachte Klassifikation

In einer überwachten Klassifikation wird ein so genanntes Trainingsgebiet bestimmt, das einer Klasse zugeordnet werden kann. Es werden für jede Klasse mehrere Trainingsgebiete ausgewählt, die eine spektrale Abweichung voneinander haben, damit eine genaue Abgrenzung von anderen Klassen möglich ist. (Voß, kein Datum, ArcGIS Help 10.1, 2013)

Solche Informationen können durch Geländeerkundungen gewonnen werden oder aus anderen Quellen stammen. Eine rein auf statistischen Werten beruhende Analyse der Multispektraldaten wird als unüberwachte Klassifizierung oder Cluster Analyse bezeichnet.

Näheres dazu weiter unten. (Albertz, 2009)

(24)

Seite 24 Minimum-Distance-Verfahren:

Mithilfe des Minimum-Distance-Verfahrens wird dem Pixel eines Bildes jeweils jene Klasse zugeordnet zu deren Mittelwert es den geringsten Abstand besitzt. Es werden für jedes Trainingsgebiet jeder Objektklasse die Mittel der Messwerte herangenommen und einzelne Spektralkanäle werden berechnet. Der Pixel wird dann jener Gruppe zugeordnet zu deren Mittelpunkt der Abstand am kürzesten ist. (Voß, kein Datum; Albertz, 2009)

Abbildung 6 – Minimum-Distance-Verfahren – (Quelle: Albertz, 2009)

(25)

Seite 25 Maximum-Likelihood-Verfahren

Das Maximum-Likelihood-Verfahren berechnet die Wahrscheinlichkeit mit der ein Objekt zu einer bestimmten Klasse gehört. Der Pixel wird jener Klasse zugeordnet, bei der die Wahrscheinlichkeit am größten ist (Swain & Davis, 1978). Das Maximum-Likelihood- Verfahren basiert auf zwei statistischen Grundsätzen - Zellen um den Klassenmittelpunkt sind normalverteilt und sie unterliegen dem Satz von Bayes. Die vorgegebenen Trainingsgebiete weisen jedem Pixel eine Klasse zu, die mit größter Wahrscheinlichkeit zutrifft. Auf Basis der Signaturdatei wird aus einer Wahrscheinlichkeitsfunktion die Zugehörigkeit zu einer Klasse hergeleitet. In der Regel führt das zu einem guten Ergebnis.

„Korrelationen zwischen den Daten der Spektralkanäle führen zu elliptischer Form der Linien gleicher Wahrscheinlichkeit“ (Albertz, 2009:159) Die Ergebnisse sollten unbedingt auf Fehler untersucht werden und gegebenenfalls neu klassifiziert werden. (Voß, kein Datum)

Abbildung 7 – Maximum Likelihood Verfahren (Quelle: Albertz, 2009)

(26)

Seite 26 Durch das Werkzeug „Class Probability“ wird ein neues Multiband-Raster ausgegeben. Für jede Klasse bzw. jeden Cluster in der Eingabesignatur wird ein Band erstellt, das die Wahrscheinlichkeit speichert ob eine Zelle zu einer Klasse gehört oder nicht. Es kann dabei auch eine gemischte Klasse entstehen, die zu einem Teil der einen Klasse, zum anderen Teil der anderen Klasse angehört. Ein Vergleich der Ergebnisse nach der Klassifizierung ist ratsam.

Unüberwachtes Verfahren

Beim unüberwachten Verfahren klassifiziert der Computer auf Basis eines statistischen Verfahrens vollautomatisch. Bilddaten mit ähnlichen spektralen Eigenschaften werden in Klassen unterteilt, die vom Nutzer auch angegeben werden können. (Albertz, 2009) Diese unvoreingenommene Analyse ist vor allem in Gebieten hilfreich bei denen nur wenige Informationen vorhanden sind bzw. die Anzahl der Klassen noch unbekannt ist. (Voß, kein Datum)

Beim ISODATA Verfahren (Iterative Self Organizing Data Analysis Technique) wird die minimale euklidische Entfernung berechnet und die Zelle einem Cluster zugewiesen.

Ein iteratives Optimierungs-Cluster-Verfahren wird hier angewendet. Die Vorsilbe Iso ist eine Abkürzung für eine iterativ selbstorganisierende Methode („iterativ self organizing“). Es wird sich schrittweise dem Ergebnis genähert was vorzugsweise bei ungeordneten Klassifizierungen angewendet wird. Zur Cluster Bildung wird ein Prozess verwendet, der bei jeder Iteration neue Mittelwerte für jede Klasse berechnet. Die Anzahl der festgelegten Klassen sollte möglichst klein gehalten und die daraus resultierenden Cluster einer Analyse unterzogen werden. Eine weitere Ausführung der Funktion mit reduzierten Klassen ist ratsam.

Bei der Hauptkomponenten Klassifikation werden Daten der Eingabebänder in neue, im multivarianten Attributraum umgewandelt. Die Achse des ursprünglichen Raums wird gedreht um redundante Daten zu eliminieren und zu komprimieren.

(27)

Seite 27 Als Ergebnis entsteht ein Multiband-Raster mit gleicher Anzahl an Bändern. Die erste Hauptkomponente verfügt dabei über die größte Varianz. Meist beinhalten die neuen Multiband-Raster mehr als 95% der ursprünglichen Varianzen.

Es wird eine Ellipse berechnet die die Punkte des Scatterplots einschließt. In weiterer Folge wird die Hauptachse der Ellipse bestimmt wobei eine neue X-Achse der ersten Hauptkomponente entsteht. Dabei wird eine neue Achse senkrecht orthogonal zur Hauptachse berechnet. Diese neue Linie beschreibt die zweite Hauptkomponente und dient danach als neue Y-Achse.

Abbildung 8 – Schematische Darstellung zur Hauptkomponenten-Transformation (Quelle: Albertz, 2009)

Objektbasiertes Verfahren

Es gibt dazu zwei Zugänge der Modellierung: Vom Allgemeinen ins Detail (top-down) und vom Detail zum Allgemeinen. (bottom-up). Beide Wege haben unterschiedliche Zugangsweisen, die auf den nächsten Seiten beschrieben werden:

Das top-down Verfahren geht von einem Objektmodell aus bei dem dann im Bild entsprechende Objekte gefunden werden.

Das bottom-up Verfahren geht den umgekehrten Weg - hier wird aus den Bildern ein Objekt extrahiert, dem anschließend eine Bedeutung zugewiesen wird. (Leukert, 2005)

(28)

Seite 28 Fuzzy –Klassifizierung

Maximum Likelihood Classification sowie Minimum Distance Verfahren gehören zu den traditionellen Klassifizierungsalgorithmen, die die Klasse binär (also entweder 1 oder 0 – zugehörig oder nicht zugehörig) einteilen. Durch direkte Angabe des Erfüllungsgrades der Objekteigenschaft wird diese harte Unterteilung zum Beispiel durch Fuzzy Systeme oder Bayes Klassifikatoren aufgeweicht. Die Fuzzy Logic kann die typisch menschlichen Ausdrucksweisen wie z.B. „ziemlich klein“, „circa“ und „etwas größer“ in ein mathematisches Konzept überführen. Mit Hilfe dieses Ansatzes wird die Möglichkeit geboten auch unpräzise Daten zu verarbeiten und Klassifikationsfehler zu korrigieren. (Rega, 2000)

Elemente x haben hier einen bestimmten Grad an Zugehörigkeit zu einer Menge A. Dies wird zwischen 0 (keine) bis 1 (volle Zugehörigkeit) angegeben. Außerdem können Operatoren wie UND, ODER, NICHT, WENN und DANN verwendet werden.

Daraus ergibt sich die Möglichkeit eine Regel zu definieren, die zum Beispiel bei einer Bildklassifizierung eine spezielle Eigenschaft herausfiltert. WENN diese einen bestimmten Wert überschreitet DANN soll das Objekt die Klasse „Asphalt“ erhalten. (Leukert, 2005) Mindestanforderungen für militärische und zivile Objekte werden in NATO STANAG 3769 AIR Standard 80/15 Minimum Resolved Object Sizes and Scales for Imagery Interpretation definiert.

Objekte werden in folgende Bereiche unterschieden: Entdeckung (Detection), Erkennung (Recognition), Identifizierung (Identification) und technische Beschreibung (Technical description). (STANAG 3769, 1998) Es handelt sich hierbei um die geometrischen Mindestanforderungen, die in der nachfolgenden Tabelle aufgelistet werden:

Objekt Detection Recognition Identification Technical Description

Eisenbahn 15 m 4,5 m 1,5 m 0,38 m

Straße 6 m 4,5 m 1,5 m 0,38 m

Urbane Fläche 60 m 15 m 3 m 0,75 m

Tabelle 1: Geometrische Auflösung zur optischen Bildinterpretation nach STANAG 3769 (Quelle: Leukert, 2005)

(29)

Seite 29 Methoden der Bildinterpretation

Die Methoden der Interpretation variieren stark – abhängig von der Zielsetzung, den gegebenen Vorinformationen, der geographischen Lage und der Erfahrung des Beobachters.

Grundsätzlich beinhaltet eine Interpretation immer folgende Schritte:

1. Vorinterpretation

(Eventuell Gelände Vorerkundung) 2. Detailinterpretation

3. Geländeerkundung

4. Darstellung des Ergebnisses

Die Vorinterpretation dient zum Abtasten des Interpretationsgebietes. Hier können sich gewisse Gebiete für die Bearbeitung als wichtig oder unwichtig herausstellen. Eine Gelände vorerkundung kann, muss aber nicht durchgeführt werden. Vor allem regionale Besonderheiten, die für die Interpretation relevant sind, können so abgestimmt werden. Die Detailinterpretation stellt dann die Hauptkomponente der Arbeit dar. Hier sollte mit leicht erkennbaren bzw. leicht interpretierbaren Objekten begonnen werden. In weiteren Schritten werden die schwierigeren Objekte übernommen. Die Geländeerkundung ist in weiterer Folge, nach Bekanntwerden des Interpretationsergebnisses zu überprüfen. Offene Fragen sollten dann beantwortet werden können. Die Darstellung des Ergebnisses erfolgt am Schluss der Bildinterpretation. Das Ergebnis wirdnach bester Möglichkeit dokumentiert und für andere Personen zugänglich gemacht. (Albertz, 2009)

Ein häufiger und meist grundlegender Vorgang der Interpretation ist die Gliederung in flächenhafte und linienhafte Elemente.

So entstehen drei Stufen der Interpretation – in der 1. Stufe finden sich allgemeine Flächen, deren Nutzung unterschiedlich ist - wie zum Beispiel bebaute Flächen, Freiflächen und bewaldete Flächen. In der 2. Stufe werden die vorher erhaltenen Gebiete weiter gegliedert.

Hier können zum Beispiel die genauen Nutzungen unterschieden werden. Die 3. Stufe kann direkt erkennbare Objekteinzelheiten enthalten bzw. das Interpretationsergebnis.

(30)

Seite 30 Man kann auch auf die Hilfe eines Interpretationsschlüssels zurückgreifen. Dieser bezeichnet eine systematische Zusammenstellung von charakteristischen Merkmalen, die ein Objekt interpretieren. (Albertz, 2009)

Abschätzung der Klassifkationsgenauigkeit

Es werden vier Stufen der Genauigkeitsabschätzung unterschieden:

1. Visuelle Beurteilung 2. Vergleich der Fläche

3. Verhältnis zwischen korrekt klassifizierten Pixel und Gesamtanzahl der Pixel 4. Einsatz einer Konfusionsmatrize zur Ableitung der Genauigkeit

Die Konfusionsmatrix zur Beurteilung der Qualität von Klassifikationen wird seit den 1980er Jahren eingesetzt. Es werden Referenzdaten den entsprechenden Pixelwerten gegenübergestellt, woraus sich eine einfache Kennzahl der Gesamtgenauigkeit GG (overall accuracy) ableiten lässt. (Congalton & Maed, 1983)

Die Gesamtgenauigkeit wird wie folgt berechnet:

Der Kappa-Koeffizient dient zur zufallskorrigierenden Übereinstimmung – es ist eine Angabe der Stärke der Zusammenhänge zwischen Klassifikationsergebnis und deren Referenzdaten.

(Hudson & Ramm, 1987), (Kulbach, 1997) Der Kappa-Koeffizient wird wie folgt berechnet:

Wobei folgendes gilt:

= Anzahl der Zeilen der Fehlermatrix

= Anzahl der Pixel in der Diagonalen (korrekte Klassifikation)

= Summe aller Pixel einer Zeile (Klassifikation)

= Summe aller Pixel einer Spalte(Referenzdaten)

= Summe aller Pixel der Matrix

(31)

Seite 31 In anderen Worten ausgedrückt:

Bewertungsskala der Kappa-Werte (Oritz, et al., 1997) Qualität Kappa-Wert [%] Qualität

< 0,0 Sehr schlecht 0 bis 20 Schlecht 20 bis 40 Akzeptabel 40 bis 60 Gut

60 bis 80 Sehr gut 80 bis 100 Ausgezeichnet

Tabelle 2: Bewertungsskala der Kappa-Werte

(32)

Seite 32 Dritter Teil – Anwendung am Beispiel Raststation Loipersdorf, Golling Ost und Golling West

ASFINAG und Rastanlagen

Die Autobahnen und Schnellstraßen Finanzierungs-Aktiengesellschaft (kurz ASFINAG) plant, finanziert, baut, erhaltet, betreibt und bemautet das gesamte österreichische Autobahn- und Schnellstraßennetz.

Die ASFINAG wurde 1982 als Gesellschaft des Bundes gegründet. 1997 wurden die Aufgaben erweitert. Seither hat das Unternehmen das Fruchtgenussrecht an den im Eigentum des Bundes stehenden Grundstücken und Anlagen des hochrangigen Bundesstraßennetzes und ist berechtigt Mauten bzw. Benützungsgebühren einzuheben. Sie wird durch Mission, Vision, Strategie und Grundsätze geprägt.

Die ASFINAG strukturiert sich in Gesellschaften deren Aufbauorganisation in Organigrammen, Funktionsbeschreibungen und Rollenbeschreibungen festgelegt ist.

(ASFINAG, 2012)

Abbildung 9 – ASFINAG Organigramm (Quelle: ASFINAG, 2012)

Das Straßennetz in Österreich soll zur „intelligenten Straße der Zukunft“ ausgebaut werden und bietet daher sichere, bequeme und effiziente Transportwege. Ein modernes und kundenorientiertes Verkehrsmanagement sowie verstärktes Kundenservice stehen im Vordergrund. Auf einem Netz von 2.175 Kilometern bieten rund 128 Rastanlagen die

(33)

Seite 33 Möglichkeit seine Energie zu erneuern und sich auszurasten. Derzeit gibt es 40 Rastplätze und 88 Raststationen in Österreich (Stand 30.5.2013).

Abbildung 10 – Übersichtskarte der Raststationen am ASFINAG Netz (Quelle: ASFINAG)

Der Unterschied zwischen einem Rastplatz und einer Raststation besteht darin, dass Rastplätze direkt von der ASFINAG betreut werden, Raststationen hingegen wurden an Pächter übergeben. Ihnen obliegt die Sorge um Reinigung, Instandhaltung und Betreuung der übergebenen Flächen. Von Station zu Station ist die genaue Definition unterschiedlich.

Das Vertragskonstrukt hat sich in den 70 Jahren seit Erstellung des ersten Bestandsvertrages natürlich etwas verändert. Alle Raststationen bieten eine Tankstelle, die meisten Gastronomie und einige zusätzliche Services wie Fast Food oder Übernachtungsmöglichkeiten.

Die bereitgestellten Daten der Raststationen unterliegen einer ständigen Prüfung auf Korrektheit. Angefangen von Metadaten wie Telefonnummern und Ansprechpartnern werden auch geographische Informationen gesammelt und archiviert.

(34)

Seite 34 Referenzbeispiel Raststation Loipersdorf

Für diese Arbeit wird die Raststation Loipersdorf an der A2 Südautobahn als Referenzbeispiel ausgewählt. Auf der Raststation befindet sich eine Tankstelle des ENI Konzerns sowie ein Rasthaus des Betreibers Landzeit.

Nach Recherche fiel die Wahl auf die Raststation Loipersdorf, da hier die Bestanddaten von 2008 korrekt abgebildet wurden und in den letzten Jahren keine baulichen Veränderungen durchgeführt wurden. Die angekauften Luftbilddaten für die Referenzdaten der Raststation Loipersdorf stammen aus dem Jahr 2010. Es handelt sich hierbei um rasterbasierende RGB Luftbilder ohne Infrarotinformationen.

Abbildung 11 – Orthophoto Raststation Loipersdorf plus Übersichtskarte (Quelle: ASFINAG)

(35)

Seite 35 Als Testungsgebiet wir die Raststation Golling Ost bzw. Golling West herangezogen, da es bekannt ist, dass Golling Ost umgebaut wurde, die Bestandsdaten in diesem Gebiet aber nicht nachgezogen wurden.

Abbildung 12 - Orthophoto Raststation Golling Ost und West plus Übersichtskarte (Quelle: ASFINAG)

Geographische Informationen in der ASFINAG

Im Laufe der letzten Jahre konnte sich durch die technische Weiterentwicklung und durch die immer größeren Informationsinhalte ein geographisches Informationssystem (ASFINAG GIS) entwickeln. Seit dem Jahr 2009 wurden geographische Informationen zentralisiert und im Bestandsmanagment der Service GmbH verankert. Dieses ASFINAG WebGIS ist für das ganze Unternehmen zugänglich und wird für Planungs- und strategische Überlegungen eingesetzt.

(36)

Seite 36

Abbildung 13 – Auszug aus ASFINAG GIS (Quelle: ASFINAG)

Eine stetige Erweiterung der Nutzung und Funktionalitäten wird durch interne Schulungen und eine Sharepoint Plattform vorangetrieben. Die Interoperabilität der Daten steht im Vordergrund – andere Systeme wie SharePoint und SAP werden mit Daten beliefert oder erhalten direkt die Informationen von diesen Systemen. Die Vielzahl an Informationen hat dazu geführt Funktionen nach Themengebieten zusammenzufassen.

Eine Vielzahl von Informationen wird dem Mitarbeiter über eine SharePoint Plattform zur Verfügung gestellt.

(37)

Seite 37

Abbildung 14 – Internetauftritt der SharePoint Plattform GIS (Quelle: ASFINAG)

Als Grundlage für diese Arbeit sind vor allem Luftbilddaten sowie Erhebungen aus der Leistungsorientierten Steuerung (LOS) relevant.

Luftbilder im ASFINAG WebGIS

Die ASFINAG aktualisiert einen Großteil ihrer Grunddaten einmal jährlich im ASFINAG WebGIS. Unter anderem werden hier Katasterinformationen sowie Luftbilddaten vom BEV angekauft. Abseits der Autobahnen wird flächendeckend eine Auflösung von 20x20cm verwendet, im Autobahn nahen Bereich eine Auflösung von 5x5cm. Für diese Arbeit konnte nur auf RGB Luftbilder zurückgegriffen werden, die Bereitstellung von Laserscandaten ist derzeit nicht angedacht. Durch die Integration der BING Maps Luftbilddaten konnte eine weitere visuelle Möglichkeit zur Evaluierung von Daten angeboten werden.

Umfang der betrieblichen Erhaltung

Die betriebliche Erhaltung ist durch ca. 1.500 operative Mitarbeiter in der Instandhaltung mit 42 Autobahnmeistereien und Stützpunkten sowie 10 Überwachungszentralen für die

(38)

Seite 38 Erhaltung des österreichischen Autobahnnetzes zuständig. Im Rahmen der betrieblichen Erhaltung werden vielfältige Aufgaben, wie Instandhaltung, Überwachung, Winterdienst, Reinigung und Grünflächenpflege erbracht. Je nach Streckenabschnitt und Streckencharakteristik (Lage, Verkehrslast, Klima usw.) sind sehr unterschiedliche Tätigkeiten notwendig. Es werden daher aus Produktionsprozessen abgeleitete Steuerungskonzepte und Steuerungswerkzeuge angewendet.

Bestandsdaten - Leistungsorientierte Steuerung (LOS)

Das Projekt der Leistungsorientierten Steuerung (kurz LOS) wurde im Zuge einer Erhebung die Bestandsdaten im Jahr 2008 entwickelt. Die Leistungsorientierte Steuerung besteht aus einer einheitlichen konzernweiten Leistungsrechnung, eines einheitlichen Leistungskatalogs, Leistungsbeschreibungen und Qualitätsstandards sowie der Einbeziehung der Bestandsdaten und Leistungsmengen.

Unter anderem wurden auf den damaligen 2.104 Autobahnkilometern Informationen über Grünflächen, Gehölzflächen und Asphaltflächen erhoben. Des Weiteren konnten hier auch zusätzliche Informationen wie Lärmschutzwände, Schneestangen, Verkehrszeichen und Hochbauten erfasst werden. Es entstand eine Verbindung zwischen SAP und geographischen Informationen, die eine Abrechnung der vollbrachten Leistungen ermöglichte. Das Projektergebnis war eine konzernweite Umsetzung von Leistungsaufträgen mit Bezug auf die Bestandsmenge. Daraus ergaben sich Synergien wie die Erfassung instandhaltungsrelevanter Objekte für ca. 200km Autobahnfläche.

Wie in den meisten Projekten zeigte sich die Problematik einer Aktualisierung der Daten.

Veränderungen wurden nicht immer mitgeführt, was zu einem nicht sicheren Datenstand 2013 führte.

Die Bestandsdaten wurden als vektorbasierende Shape Files verortet, mit Metadaten erweitert und als interoperable Daten mit anderen Systemen vernetzt.

(39)

Seite 39 Die Unterteilung der Objektbezeichnungen wurde wie folgt umgesetzt:

Intensivpflegefläche Flugdach

Asphaltierte Fläche Bankett

Befestigte Fläche Durchlass

Fahrbahn Felshänge Gehwege Gehölzfläche Grünfläche Hochbau Kaverne Mauer

Mittel / Trennstreifen Randbalken

Rückhaltebecken Tragwerk

Tunnel

Verkehrsfläche WC-Anlage

Auswahl der Software

Als Standard GIS Programm verwendet die ASFINAG ArcGIS. In dieser Arbeit wurde ArcGIS 10.1 als Programm verwendet. Als Visualisierungs- bzw. Analyseprogramm konnte aus der ArcToolbox auf die Werkzeuge Spatial Analyst Tool und Conversion Tools zurückgegriffen werden. Eine weitere Bearbeitung durch ein Bildbearbeitungsprogramm wie Erdas Imagine oder ein digitale Photogrammetrieprogramm wie eCognition (Langar, 2007) konnte in diesem Fall nicht zurückgegriffen werden.

(40)

Seite 40 Methodischer Ansatz

Das folgende Workflowdiagramm zeigt die in dieser Arbeit verwendeten Methoden:

Abbildung 15 - Workflowdiagramm

Im konkreten Fall werden Werkzeuge Extract by Mask (Toolbox: Spatial Analyst, Toolset Extraction) zur Festlegung des Untersuchungsgebietes verwendet. Als Klassifikationsmethode wird die Maximum Likelihood Classification gewählt, die auf Basis der aus den Trainingsgebieten erstellten Signaturdatei durchgeführt wird. Die Maximum Likelihood Classification wurde als überwachtes Klassifizierungsverfahren gewählt, da es in der Regel eine genaue Methode ist um Pixel zu klassifizieren. (Albertz, 2009) Der daraus entstanden klassifizierte Rasterdatensatz wird mittels Konvertierungswerkzeug (Converte Raster to Polygon - Toolbox: Conversion, Toolset: von Raster) in einen Vektordatensatz konvertiert. Zum Abschluss werden die klassifizierten Vektordaten mit den bestehenden Vektorbestandsdaten mittels Intersect Methode (Toolbox: Analysis Toolset: Overlay Überschneiden (Intersect)) verschnitten. Daraus lässt sich eine Evaluierung der Ergebnisse durchführen.

(41)

Seite 41 Möglichkeiten in ArcGIS

Seit der Version 10.0 können auch Bildanalysen in ArcGIS durchgeführt werden. Die Bildanalyse dient vor allem zum Update von Datenbanken, Kategorisierung von Bebauungsklassen, Identifizierung und Summierung von Naturschäden, Identifizierung und Beobachtung der Veränderung und Vergrößerung von bebauten Flächen, automatische Erkennung von Features sowie Erkennung von Vegetationsbelastungen. In der Extension Spatial Analyst findet sich die Bildklassifizierungsfunktion (Image Classification), die darauf abzielt, Informationsklassen aus Multibandrasterbildern zu erhalten. Es ergeben sich hier zwei Möglichkeiten der Analyse: überwachte und unüberwachte Klassifikation (supervised und unsupervised classification).

Die überwachte Klassifikation (supervised classification) gewinnt Spektralsignaturen aus ausgewählten Trainingsgebieten, welche eine Klasse repräsentiert. Die unüberwachte Klassifikation (unsupervised classification)

findet ohne Zutun des Anwenders statt, Spektralklassen oder Cluster werden in Multibandbildern gesucht.

Im Falle der Bestandsdaten wird von einem überwachten Klassifikationsmodell ausgegangen, da die Trainingsgebiete durch den Vektorbestandsdatensatz verwendet werden können.

Abbildung 16 – Raststation Loipersdorf, Vektorbestandsdaten (Quelle ASFINAG)

(42)

Seite 42 ArcGIS 10.1 bietet im Werkzeugmenü folgende Möglichkeiten: Interaktive, überwachte Klassifizierung (Interactive Supervised Classification), Maximum Likelihood Classification, Iso Cluster Unsupervised Classification, Klassenwahrscheinlichkeit (Class Probability) und Hauptkomponenten (Principal Components).

In der interaktiven, überwachten Klassifizierung wird ohne eine Signatur, nur mit mindestens zwei Trainingsgebieten klassifiziert.

Die genaue Beschreibung der Klassifikationsalgorythmen finden Sie im 2. Teil dieser Arbeit.

In der Maximum Likelihood Classification ist als Standard Option ist EQUAL eingestellt – diese Funktion besagt, dass jede Zelle der Klasse zugewiesen wird, die die höchste Wahrscheinlichkeit der Zugehörigkeit hat.

Eine weitere Funktion ist die FILE-A-priori-Option. Hier werden vorab die Gewichtungen der Klassen in einer A-priori-Datei angegeben um bei überschneidenden Klassen eine bessere Klassifizierung durchführen zu können.

Die dritte Funktion ist die SAMPLE-A-priori-Option, in der die Beispielklassen in der Signaturdatei zugeordnet sind, deren Anzahl an aufgezeichneten Zellen in jeder Signatur proportional ist. Daraus erhalten Klassen mehr oder weniger Zellen zugewiesen – entsprechend der Gewichtung über bzw. unter dem Durchschnitt.

Optional kann ein Ausgabezuverlässigkeits-Raster erzeugt werden, der die Klassifizierung noch weiter konkretisieren kann. Es sind 14 Zuverlässigkeitsebenen möglich (direkter Bezug zur Anzahl des gültigen Ausschussprozentsatzwertes). Im 1. Zuverlässigkeits-Raster sind jene Zellen, deren mittlerer Vektor die kürzeste Entfernung zur Signaturdatei beinhaltet – daher auch die höchste Sicherheit darstellt. Die 2. Ebene würde nur tragend, wenn der Ausschussprozentsatz 0,99 oder weniger beträgt. Die 14. Ebene sind jene Zellen die höchstwahrscheinlich fehlerhaft klassifiziert wurden, einen Ausschussprozentsatz von 0,005 oder höher haben. (ArcGIS Help 10.1, 2013)

(43)

Seite 43 Im Iso Cluster Werkzeug wird die Anzahl der Cluster vom Benutzer angegeben. In weiteren Schritten werden Zellen einem Cluster zugewiesen, wiederum neue Mittelwerte generiert und zugewiesen. Die Anzahl der Iterationen kann durch „number of iterations“ begrenzt werden.

Mit der Einstellung des Wertes „number of classes“ kann eine maximale Anzahl von Clustern angegeben werden. In der Ausgabedatei kann sich die Anzahl der Cluster aber möglicherweise verändern. Es kann drei Gründe geben, die die Anzahl verändern:

Wenn Werte in den Daten und die ursprünglichen Cluster-Mittelwerte nicht gleichmäßig verteilt sind, kann es dazu führen, dass die Häufigkeit von Zellenwertbereichen fast null ist.

Hier kann es passieren, dass nicht genügend Zellen aufgenommen werden können.

Wenn ein Cluster aus weniger Zellen besteht als im „minimum class size“-Wert definiert wurde, werden diese am Ende der Iteration entfernt.

Wenn Cluster in benachbarte Cluster zusammengeführt werden deren statistische Werte so ähnlich sind, dass dies eine unnötige Trennung der Daten darstellen würde.

In der Klassenwahrscheinlichkeit wird auf Basis der Signaturdatei eine Wahrscheinlichkeitsanalyse für das betreffende Luftbild durchgeführt.

Die Hauptkomponenten Klassifikation ergibt als Ergebnis wieder ein Multiband-Raster mit gleicher Anzahl an Bändern. Der Unterschied besteht darin, dass bei kleinerer Speichermenge mehr als 95% der ursprünglichen Varianzen erhalten bleiben. (Albertz, 2009)

Spatial Analyst

In der Erweiterung des „ArcGIS Spatial Analyst“ werden Werkzeuge zur Verfügung gestellt, die für Raster - bzw. Vektordaten verwendet werden können. Die Gliederung erfolgt unter anderem in Dichte, Entfernung, Generalisierung, Reklassifizieren und Extraktion.

Detailinformationen können in der ArcGIS Hilfe nachgeschlagen werden (ArcGIS Help 10.1, 2013)

(44)

Seite 44 Der letzte Punkt wird für die Bearbeitung der Verfahrensschritte benötigt.

Toolset Extraktion

Im Toolset Extraktion finden sich Werkzeuge, die Teilmengen von Zellen aus einem Raster herausteilen. Dies kann anhand der Attribute oder der Position gesteuert werden.

Für die Verfahrensschritte ist eine räumliche Auswahl anhand eines Maskierungsrasters (Extract by Mask) nötig.

Werkzeug: Extract By Mask

Der Rasterdatensatz wird auf Basis einer vordefinierten Maske extrahiert. Dies können auch Polygone oder ähnliches sein.

Conversion Tools

In der Toolbox „Conversion“ befinden sich Werkzeuge, die Daten in verschiedene andere Formate konvertieren können. Hier findet sich auch das Toolset „von Raster“, in das alle Konvertierungsmöglichkeiten von einem Rasterdatensatz in ein anderes Format ermöglicht.

Werkzeug: Raster to polygon

Mit diesem Werkzeug werden Rasterdaten in Polygonfeatures konvertiert. Hier können dieGröße der Zellen sowie ein Attributfeld beliebig verändert werden.

Verfahren

Folgende Methoden der Bildinterpretation werden für diese Arbeit angewendet:

1. Validierung bzw. Vorinterpretation der Daten 2. Auswahl der zu überprüfenden Überbauungsklassen 3. Detailinterpretation

4. Geländeerkundung

5. Darstellung des Ergebnisses

(45)

Seite 45 Validierung bzw. Vorinterpretation der Daten

Im ersten Schritt ist eine Vorinterpretation der Daten notwendig. Durch eine Vororterkundung können aus dem Luftbild eventuelle augenscheinliche Fehler bereits ausgebessert werden. Ein möglichst korrekter Vektorbestandsdatensatz des Untersuchungsgebietes Loipersdorf ist für eine Klassifizierung nötig.

Auswahl der zu überprüfenden Überbauungsklassen

Um eine Reihe von Klassen zu definieren ist es notwendig das vorhandene Bildmaterial zu sichten bzw. die vorgegebenen Vektorbestandsdaten auf spektrale Gemeinsamkeiten zu gruppieren. Grundsätzlich ist es wünschenswert, für jedes Objekt im Bild eine entsprechende Klasse zu definieren, der es angehören kann. Andernfalls kann es dazu führen, dass Objekte einer spektral ähnlichen Klasse zugeordnet werden, der es aber unter keinen Umständen angehören kann. (Kulbach, 1997)

Bei der Untersuchung der Vektorbestandsdaten zeigte sich die Problematik der Erkennung gewisser Objekte über Fernerkundungsmethoden. Zum Beispiel kann die Objektklasse

„Durchgang“ nicht über spektrale Eigenschaften ermittelt werden.

Wie in (Kulbach, 1997) beschrieben, müssen Merkmaleigenschaften jeder Klasse gewissen Kriterien entsprechen:

1. Ausreichender spektraler Unterschied zwischen den Klassen 2. Informationsgehalt rechtfertigt die Aufstellung der Klasse 3. Hohe Wahrscheinlichkeit das dieses Objekt im Bild auch auftritt

Auf Basis dieser Informationen können aus den vorgegebenen Objektklassen der Vektorbestandsdaten neue Überbauungsklassen definiert werden.

(46)

Seite 46

Abbildung 17 – Raststation Loipersdorf mit vorgegebenen Objektklassen (Quelle ASFINAG)

Um eine Festlegung der neu zu definierenden Überbauungsklassen treffen zu können müssen die vorhandenen Daten analysiert werden. Dazu wird das Untersuchungsgebiet auf den Bildausschnitt reduziert. Der Vektorbestandsdatensatz wird daher nur auf den Bereich der Luftbildaufnahme reduziert. Dies reduziert im Bereich der Raststation Loipersdorf die Objektklassen auf 14. Analog zu den oben genannten Kriterien wird der Datensatz bzw.

werden die Objektklassen untersucht.

Im ersten Schritt werden die spektralen Eigenschaften der einzelnen Objektklassen analysiert.

Im zweiten Schritt wird die Objektklasse überprüft, ob sie überhaupt über Fernerkundungsmethoden klassifiziert werden kann bzw. ob diese Klasse überhaupt einen nennenswerten Informationsgehalt hat.

Im dritten Schritt wird die Wahrscheinlichkeit des Auftretens der Objektklasse im Raststationsbereich ermittelt.

(47)

Seite 47 Schritt 1: Unterschied zwischen den Klassen

Die Klassen des Bestandsdatensatzes werden auf ihre spektralen Eigenschaften bzw. deren Unterschiede untersucht.

Hierbei werden die vorhandenen Bestandsdaten als Trainingsgebiete für eine Maximum Likelihood Classification verwendet. Es zeigt sich schon hier teilweise die Tendenz, dass gewisse Klassen der Bestandsdaten für eine Fernerkundung nicht geeignet bzw. in einer anderen Überbauungsklasse besser aufgehoben sein dürften. Thematisch ähnliche Flächen sollten auch spektral ähnliche Muster aufweisen.

Es kann als allgemein gültig angesehen werden, dass höher liegende Bestandsdaten für eine Bildanalyse verwendet werden können. Darunterliegende Flächen bzw. verdeckte Flächen eignen sich dafür nicht. Ebenfalls nicht geeignet sind Statusobjekte, die keine spektralen Werte annehmen können.

Aus diesem Grund können die Objekte „Intensivpflegefläche“ und „Mauer“ aus der Trainingsgebiet-Signatur eliminiert werden.

(48)

Seite 48

Asphaltierte Fläche Bankett

Abbildung 18 – Statistik und Scatterplots der Raststation Loipersdorf

(49)

Seite 49

Befestigte Fläche Fahrbahn

Abbildung 19 – Statistik und Scatterplots der Raststation Loipersdorf

(50)

Seite 50

Flugdach Gehweg

Abbildung 20 - Statistik und Scatterplots der Raststation Loipersdorf

(51)

Seite 51

Gehölzfläche Grünfläche

Abbildung 21 – Statistik und Scatterplots der Raststation Loipersdorf

(52)

Seite 52

Hochbau Mauer

Abbildung 22 - Statistik und Scatterplots der Raststation Loipersdorf

(53)

Seite 53

Mittel/Trennstreifen Randbalken

Abbildung 23 - Statistik und Scatterplots der Raststation Loipersdorf

(54)

Seite 54

Tragwerk Verkehrsfläche

Abbildung 24 - Statistik und Scatterplots der Raststation Loipersdorf

(55)

Seite 55 Um eine gute Klassifikation zu gewährleisten ist es nötig entweder spektral ähnliche oder thematisch nahe Objekte zu gruppieren. Auf Basis der spektralen Eigenschaften werden befestigte Flächen zur Überbauungsklasse „Fahrbahn“ gruppiert. Darin beinhaltet sind die Klassen des Bestandsdatensatzes: Mauer, Bankett, Fahrbahn, Gehweg, Verkehrsfläche, Befestigte Fläche, Asphaltierte Fläche.

Abbildung 25 – Zusammenlegung der Überbauungsklasse „Fahrbahn“

Als weitere Überbauungsklasse wird „Grünfläche“ erfasst. Darin beinhaltet sind die Bestandsdatenklassen Mittel/Trennstreifen und Grünfläche.

Abbildung 26 – Zusammenlegung der Überbauungsklasse „Grünfläche“

(56)

Seite 56 Die Bestandsdatenklasse „Gehölzfläche“ wird in weiterer Folge nicht verändert und wird als Überbauungsklasse „Gehölzfläche“ geführt.

Abbildung 27 - Überbauungsklasse „Gehölzfläche“

Übrig bleiben die beiden Bestandsdatenklassen „Hochbau“ und „Flugdach“, die zusammen als Überbauungsklasse „Hochbau“ geführt wird. Es gibt spektrale Unterschiede der alten Klassen Hochbau und Flugdach im Untersuchungsgebiet der Raststation Loipersdorf, diese werden aber durch ihren immensen thematischen Zusammenhang trotzdem als eine Klasse geführt.

Abbildung 28 - Überbauungsklasse „Hochbau“

Referenzen

ÄHNLICHE DOKUMENTE

Dadurch, dass diese Flächen nicht mehr gemäht werden, werden sich die Pflanzengesellschaften ändern und eine Verheidung und Verbuschung eintreten, da diese ehemaligen

Die Karten liegen in elektronischer und /oder gedruckter Form der Arbeit bei (s.. Kartografische Darstellung des in der Region der „Sieben Hengste“. Die von gelb zu

Zur Wahl des Datenformates für die zu verarbeitenden Rasterdaten werden Tests, die sich am MapServer UMN WMS Benchmark der Free and Open Source Software for

The next step will involve establishing a link between the numerical land parcel data in the Gelan database and the vector cadastral dataset. An FME workbench process

Die Arbeitshypothese für diese Arbeit lautet: Es ist möglich, eine vollständig auto- matische Prozessierungskette zu realisieren, welche Datenprodukte des Ferner- kundungssensors

Zumindest die Indikatoren Vegetation und Relief ließen sich ohne weitergehende Untersuchung in der Mittelgebirgslandschaft der Eifel verorten. Bei der anschließenden

IMPLEMENTATION EINES 3D-WEBGIS U1505 Jakob Egger Untenstehende Abbildung soll die Systemarchitektur einer CAD/GIS-Integration

Um zu identifizieren, welchen Anspruch die primären Nutzer eines Bürger-GIS an ein solches Auskunftssystem haben, wird basierend auf der einschlägigen Literatur sowohl