• Keine Ergebnisse gefunden

Görres Grenzdörffer

Universität Rostock, Professur für Geodäsie und Geoinformatik, J.-v.-Liebig Weg 6, Rostock, E-Mail: goerres.grenzdoerffer@uni-rostock.de

Zusammenfassung: UAS bzw. Drohnen werden in wenigen Jahren schon zum Stan-dardwerkzeug im Feldversuchswesen gehören, da viele pflanzenbauliche relevante In-formationen auf der Ebene der Einzelpflanzen mehr oder weniger automatisch aus den 3D-Geodaten extrahiert werden können. Am Beispiel eines Eisbergsalatversuchs wird der generelle Workflow vorgestellt und erläutert.

Deskriptoren: Feldversuchswesen, UAS, Photogrammetrie, 3D-Punktwolke,

Abstract: In a few years, UAS or Drones will be a standard tool for field trials, since many plant-related relevant information can be extracted more or less automatically from the 3D geodata at the level of the individual plants. The general workflow is pre-sented and explained using the example of an iceberg salad trial.

Keywords: field trials, UAS, Photogrammetry, 3D-point cloud

1 Einleitung

Unbemannte Flugsysteme (UAS) sind für das Feldversuchswesen in vielerlei Weise ein prädestiniertes Anwendungsfeld, da viele pflanzenbaulich relevante Informationen zu definierten Zeitpunkten, schnell, berührungslos, objektiv, und automatisiert erfasst wer-den können. Auch das Thema Phenotyping ist im Kontext von großem Interesse, da in Abhängigkeit der Kultur eine Identifikation der Einzelpflanze möglich ist, und deren Wachstumsverlauf individuell erfasst, verglichen und bewertet werden kann.

1.1 Auf die Auflösung kommt es an

Der Begriff der Auflösung ist in der Fernerkundung ein sehr zentraler, denn er bestimmt was aus den Luftbildinformationen extrahiert werden kann. Dabei unterscheidet man zwischen räumlicher, radiometrischer, spektraler und temporaler Auflösung.

Die mehr oder wenige freie Wahl der räumlichen Auflösung, bzw. der Bodenauflösung beim Einsatz von Flugrobotern vervielfachen die Anwendungsmöglichkeiten, denn die freie Skalierbarkeit ermöglicht sowohl den selektiven Blick auf die einzelne Pflanze als auch den großen Überblick des Pflanzenbestandes aus der Vogelperspektive.

In der Praxis gibt es zwei Möglichkeiten die Bodenauflösung zu variieren. Zum einen über die Flughöhe, d.h. bei größerer Flughöhe wird die Bodenauflösung geringer. Oder zum anderen über die Brennweite, d.h. bei gleicher Flughöhe kann mit einer längeren Brennweite (Zoom) eine höhere Bodenauflösung erzielt werden. Mit der Bodenauflö-sung eng verbunden ist die räumliche Skale, bzw. Betrachtungsebene, die von der Blattebene über die Einzelpflanzenebene bis zur Parzellen- und Bestandsebene reicht.

Die Bodenauflösung ist deshalb in mehrerlei Hinsicht von großer Bedeutung und hat auch diverse Konsequenzen zur Folge:

1. Die Bodenauflösung bestimmt über die Erkennbarkeit bzw. Trennbarkeit einzelner Objekte und somit auch über die Skalenebene. Bei höchster Bodenauflösung im mm-Bereich können einzelne Blätter, bzw. deren Aufbau und Struktur identifiziert werden. Diese hohen Bodenauflösungen werden in der Regel im Labor realisiert.

Bei Bodenauflösungen von 0.5 - 4 cm können, je nach Pflanzenart und Entwick-lungsstadium, größere Blätter und einzelne Pflanzen eindeutig separiert werden.

Bei Bodenauflösungen von < 4 cm beginnt der Übergang zur Parzellen- bzw. Be-standsebene, d.h. einzelne Pflanzen können nicht mehr separiert werden und der Sensor zeichnet ein Mischsignal auf, dass sich aus mehreren Komponenten (Pflan-ze, Schatten, Boden) zusammensetzt, wie wir es aus der Flugzeug oder Satelliten-fernerkundung kennen.

2. Der Befliegungs- und Speicheraufwand steigt exponentiell mit der Bodenauflösung.

Eine Halbierung der Bodenauflösung bedeutet gleichzeitig eine Vervierfachung der Datenmenge und der Flugzeit.

3. Mit den Skalenübergängen sind verschiedene Probleme verbunden. Das betrifft insbesondere die Tatsache, dass sich die spektralen Reflexionseigenschaften stark verändern, je nachdem ob diese an einem einzelnen Blatt(teil) (Leaf Level) gemes-sen werden oder einen Mittelwert aus mehreren Komponenten, wie etwa Boden, Pflanze und Schattenanteilen (canopy level) darstellen. Da die Sonne als Lichtquel-le fungiert, ändern sich die Einstrahlungsbedingungen in Abhängigkeit des Sonnen-standes, der Lichtstärke (Wolkenbedeckung) und der Pflanzenarchitektur. Darüber hinaus ändern sich die Reflexionseigenschaften auch kontinuierlich während des Pflanzenwachstums und durch Stress. Um es an dieser Stelle abzukürzen, eine quantitative Ableitung von biophysikalischen Parametern in einer Skale und über Skalengrenzen hinweg ist sehr diffizil und Gegenstand vieler Forschungsaktivitäten.

Allerdings wird es noch einige Zeit dauern, bis ausgereifte und automatisierte Ver-fahren zur Verfügung stehen.

Grenzdörffer 192

Der besondere und einzigartige Vorteil UAS-gestützter Fernerkundung ist die hohe zeit-liche (temporale) Auflösung mit der die hochaufgelösten fernerkundzeit-lichen Daten erho-ben werden können. Da unterhalb der Wolken geflogen werden kann, ist es möglich nahezu an jedem Tag zu fliegen. Man ist also nicht mehr unbedingt auf wolkenlosen Himmel angewiesen, sondern kann auch bei bedecktem Himmel fliegen, was insbeson-dere die spektrale Kalibrierung stark vereinfachen kann, da die bidirektionalen Reflek-tionseigenschaften (BRDF) des direkt einfallenden Sonnenlichts nicht berücksichtigt und modelliert werden müssen. Zudem kann man vor Ort flexibel auf wechselnde Witte-rungsbedingungen reagieren und - wenn möglich - die sonnigen oder voll bedeckten Minuten, bzw. Stunden voll ausnützen. Die damit mögliche kontinuierliche Erfassung des Aufwuchses eröffnet viele neue Anwendungsmöglichkeiten, um z.B. den Verlauf der Pflanzenentwicklung und somit auch Prozesse, wie die Düngeaufnahme und den Verlauf von Pflanzenkrankheiten zu erfassen und zu dokumentieren. Das setzt aller-dings voraus, dass die Datenprozessierung und -auswertung mehr oder weniger auto-matisch geschieht.

Auf der Grundlage eines systematischen Bildflugs, entsprechende Passpunkte und eine solide photogrammetrische Datenauswertung vorausgesetzt, liefern UAS-Aufnahmen nicht nur zweidimensionale Bilder sondern dreidimensionale Geodaten, die sich ent-sprechend (automatisch) auswerten und interpretieren lassen. Zusammengefasst las-sen sich aus den UAS-Aufnahmen viele Informationen ableiten, bei denen die geomet-rischen, spektralen oder temporalen Eigenschaften der Pflanzenentwicklung im Vorder-grund stehen. Geometrische Parameter, wie die Wuchshöhe oder auch der Bodenbe-deckungsgrad lassen sich mit preisgünstigen Sensoren (Farbdigitalkamera) weitestge-hend automatisch berechnen, und sollen deshalb im nachfolgenden genauer vorgestellt werden. Abbildung 1. gibt einen groben Überblick über die aus UAS-Aufnahmen ab-leitbaren Informationen in Abhängigkeit ihrer geometrischen, spektralen und temporalen Auflösung. An dieser Stelle sei noch angemerkt, dass manche der in Abbildung 1 auf-geführten Parameter nur zu bestimmten phänologischen Entwicklungsstadien zu be-obachten sind.

Abbildung 1: Übersicht verschiedener Informationen bzw. Pflanzeneigenschaften für das Feld-versuchswesen, die aus UAS-Aufnahmen ableitbar sind

In Abhängigkeit der gewählten Bodenauflösung (Bestandsebene oder Einzelpflanzen-ebene) und der betrachteten Kultur lassen sich verschiedene geometrischen Informati-onen, wie z.B. die Wuchshöhe (GRENZDÖRFFER 2014), der Bedeckungsgrad (TORRES -SANCHEZ et al. 2014), individuelle Pflanzen und/oder Unkräuter mit einem hohen Auto-mationsgrad bestimmen. Während der Fokus dieses Beitrags auf der Ableitung geomet-rischer Parameter liegt, ist es natürlich auch möglich die Spektralwerte einer RGB-Kamera zu nutzen, um diese beispielsweise mit biophysikalischen Parametern zu korre-lieren, z.B. RASMUSSEN et al. 2016 oder SCHIRRMANN et al. 2016.

Gleichwohl ist es nicht so, dass man einfach mit einem UAS und Kamera über ein Ver-suchsfeld fliegt und die gewünschten Daten erscheinen automatisch und wohl struktu-riert auf dem heimischen Computer. Vielmehr sind an die jeweilige Kultur und Fragestel-lung angepasste Befliegungs- und Auswertestrategien zu entwickeln.

Schwerpunkt des Beitrags ist die Vorstellung von verschiedenen automatisch abgeleite-ten geometrischen Parametern anhand eines Eisbergsalatversuchs. Dazu wurden drei UAS Befliegungen in geringer Höhe, d.h. 10 – 20 m durchgeführt, um einzelne Pflanzen identifizieren, analysieren und bewerten zu können. Ziel des Eisbergsalatversuchs im Sommer 2015 war es, die individuellen Pflanzen nach der Pflanzung möglichst automa-tisch zu erfassen und das Wachstum der Pflanzen zu beobachten.

Grenzdörffer 194

2 Material und Methoden

Dem individuellen Teil des nachfolgend vorgestellten Versuchs wird ein allgemeiner, methodischer Teil vorangestellt, der die Aufnahme und photogrammetrische Auswer-tung der UAS-Bilder beschreibt.

2.1 UAS Bildflüge

Über den Testflächen wurden drei UAS Befliegungen mit einem Falcon 8 der Firma Intel in geringer Höhe, d.h. 10 – 20 m durchgeführt. Als Payload kam eine RGB-Kamera (Sony NEX 5) zum Einsatz. Die aus der Flughöhe, der Sensorgröße und der Brennweite resultierende Bodenauflösung betrug 3 – 6 mm pro Pixel. Die Befliegungen erfolgten systematisch mit einer Längs- und Querüberlappung von 80% bzw. 60%. Die Bilder wurden mit der Software Photoscan Professional (Agisoft LLC) und mehreren hochge-nau eingemessenen signalisierten Passpunkten photogrammetrisch ausgewertet. Die absolute Lage- und Höhengenauigkeit ist durch die mit GPS eingemessenen Passpunk-te limitiert und lag bei 1 – 2 cm. Gleichwohl ist eine Grundvoraussetzung für multiPasspunk-tempo- multitempo-rale Auswertungen erfüllt, da die verschiedenen Epochen lagerichtig mit einander ver-glichen werden können. Als Ergebnis der photogrammetrischen Prozessierung standen ein digitales Orthophoto, die 3D-Punktwolke und das daraus abgeleitete digitale Ober-flächenmodell (DOM).

Im Gegensatz zum Orthophoto, dass in der in Regel auf die Größe eines Bildpixels ge-rechnet wird, wird die 3D-Punktwolke bzw. DOM aus verschiedenen Gründen häufig in einer geringeren Auflösung berechnet und darüber hinaus oft auch gefiltert, bzw. geglät-tet. Der wesentliche Grund für die Verwendung einer verringerten Auflösung, ist die damit verbundene Zeitersparnis, da das Stereo- bzw. Multi-ray-matching ein sehr re-chenintensiver Schritt ist. Der Zeitaufwand und die Anzahl der berechneten Punkte nehmen exponentiell zu, während die absolute Höhengenauigkeit kaum steigt, bzw. das Rauschen eher zunimmt. Der nachfolgende Vergleich auf der Basis von 104 Aufnah-men soll dies verdeutlichen.

Tabelle 1: Vergleich aus Luftbildern abgeleiteter 3D-Punktwolken in Abh. der Softwareeinstel-lungen bei Agisoft Photoscan Professional (Vers. 1.25) und der Software SURE

Lowest Low Medium High SURE

Dauer (ca.)* 2 Min 20 Min. 110 Min 583 Min. 700 Min.

Anz. Punkte 693.110 3.027.101 12.964.793 53.344.487 2.523.962.588

GSD DEM 5 cm 2.5 cm 1.25 cm 0.625 cm 0.3 cm

* Rechenzeit auf PC mit 32 GB-RAM

Der Vergleich zeigt auch, dass erst ab einer bestimmten Stufe, bzw. Bodenauflösung der Übergang von der Bestandsebene hin zur Charakterisierung individueller Pflanzen in der 3D-Punktwolke möglich ist.

2.2 Eisbergsalat Versuch, Sommer 2015

Die Pflanzen waren zur ersten Befliegung kurz nach der Pflanzung im Drei bis Fünf-blattstadium und ca. 3 – 5 cm groß. Zur Identifikation wurde ein spezieller Workflow entwickelt, der in einem ersten Schritt die Trennung der grünen Pflanzen und dem Bo-den beinhaltet. Dazu wurde der Vegetationsindex VARI verwandt (STARK et al. 2000).

Über einen Schwellwert konnte eine zuverlässige Trennung zwischen Boden und den Pflanzen erreicht werden. Anschließend wurden die identifizierten Vegetationspixel morphologisch gefiltert, vektorisiert, gebuffert und über einen Größenfilter Setzlinge von anderen Pflanzen oder Fehlzuordnungen getrennt.

3 Ergebnisse

Der Klassifikationserfolg lag in Abhängigkeit der Pflanzmethode zwischen 5 und über 95%, vgl. Abbildung 2. Die große Variation im Klassifikationserfolg erklärt sich durch den eigentlich zu frühen Befliegungstermin. Ein Teil der Pflanzen waren verschlämmt und sehr klein und somit auf den Bildern schlicht und ergreifend nicht sichtbar. Da half auch eine höhere Bodenauflösung aus der 10 m Befliegung nichts, die Ergebnisse aus der 10 und 20 m Befliegung unterschieden sich nur marginal. Aus diesem Grund muss-te inmuss-teraktiv nachgearbeimuss-tet werden. Auf der Grundlage der identifiziermuss-ten Pflanzen konnten im Anschluss mehrere Informationen abgeleitet werden.

Grenzdörffer 196

Abbildung 2: Automatisch klassifizierte Salatpflanzen im Drei- bis Fünfblattstadium, Daten-grundlage UAS-Orthophoto vom 20.6.2015

Unter anderem der zur Verfügung stehende Wuchsraum der einzelnen Pflanzen, der sich aus dem Abstand der Pflanzen untereinander berechnet und als Thiessenpolygon darstellen lässt, siehe Abbildung 3.

Abbildung 3: Individueller Wuchsraum pro Eisbergsalatpflanze in m², Datengrundlage UAS-Orthophoto vom 20.6.2015

Im Laufe der Vegetationsperiode haben die Salatpflanzen den vorhandenen Wuchs-raum komplett ausgenutzt und die äußeren Hüllblätter überlappen sich teilweise.

Gleichwohl konnte das Wachstum der einzelnen Pflanzen beobachtet werden. Zur Be-stimmung des Aufwuchses wurden die Höhen und Volumen über eine Differenz zur ers-ten Epoche ermittelt, vgl. Abbildung 4. Das Volumen eines Salatkopfes wurde über die Summe der Höhen in einem Kreis mit einem Durchmesser von 25 cm definiert.

Abbildung 4: Automatisch berechnete Wuchshöhe von Eisbergsalatköpfen, Bildflug 29.07.2015, Salatköpfe mit Wuchshöhen < 5 cm sind vor dem Bildflug geerntet worden.

Dabei zeigte sich, dass das Wachstumsverhalten der Pflanzen – erwartungsgemäß - in Abhängigkeit der Prüfglieder unterschiedlich war und auch innerhalb der verschiedenen Parzellen variierte.

Leider wurden die Salatköpfe vor den letzten Befliegungen teilweise geerntet, so dass eine Korrelation zwischen dem aus den Bildern ermittelten Volumen und der Biomasse nicht berechnet werden konnte.

Es bleibt festzuhalten, dass mit der individuellen Betrachtungsweise viele interessante Daten gewonnen werden können, wie z.B. Information zur Variabilität innerhalb einer Parzelle. Zudem können individuelle Ausreißer, Randeffekte etc. identifiziert werden.

Neben den automatisch abgeleiteten Informationen liefern die sehr hoch aufgelösten UAS-Bilddaten noch viele weitere Informationen die in der üblichen statistischen Be-trachtungsweise der Bonituren keinen oder nur einen geringen Niederschlag finden, z.B. zur Blattstellung und Blattform, zum Lochfraß durch Insekten, Verunkrautung, Schäden durch Vogelfraß, den Bedeckungsgrad und vieles mehr.

Grenzdörffer 198

4 Diskussion

Zukünftige Forschungen sollen im Dialog mit den Experten und Versuchsanstellern wei-tere pflanzenbaulich inwei-teressante Parameter für die jeweilige Kultur identifizieren und diese möglichst automatisch erfassen und validieren. Der phänologische Befliegungs-zeitpunkt spielt für viele Fragestellungen eine entscheidende Rolle, auch hier ist ein Lernprozess von Nöten, da sich manche Entwicklungsphasen bei einer manuellen Boni-tur zu einem anderen Zeitpunkt differenzierbar sind als aus der Vogelperspektive. Kurz-um, es ist und bleibt spannend.

Literaturverzeichnis

GRENZDÖRFFER G.(2014):Crop Height Determination with UAS Point Clouds.- Int. Arch. Photo-gramm. Remote Sens. Spatial Inf. Sci., XL-1, pp. 135-140, doi:10.5194/isprsarchives-XL-1-135-2014.

RASMUSSEN J.,NTAKOS G.,NIELSEN J.,SVENSGAARD J.,POULSEN R.N.,CHRISTENSEN S.(2016):

Are vegetation indices derived from consumer-grade cameras mounted on UAVs sufficiently reliable for assessing experimental plots? Eur. J. Agron. 2016, 74, pp. 75–92.

SCHIRRMANN M., GIEBEL A., GLEINIGER F., PFLANZ M., LENTSCHKE J., DAMMER K.-H. (2016):

Monitoring Agronomic Parameters of Winter Wheat Crops with Low-Cost UAV Imagery.- Remote Sens. 2016, 8, 706; doi:10.3390/rs8090706.

STARK R.,GITELSON A.,GRITS U.,RUNDQUIST D.,KAUFMAN Y.(2000):New technique for remote estimation of vegetation fraction: principles, algorithms and validation, Aspects of Applied Biology, 60, pp. 241 - 246.

TORRES-SÁNCHEZ J. PEÑA J.M., DE CASTRO A.I., LÓPEZ-GRANADOS F. (2014): Multi-temporal mapping of the vegetation fraction in early-season wheat fields using images from UAV.- Computers and Electronics in Agriculture 103, pp. 104–113.

Höhenwachstum im Weizen: Genotypen unterscheiden sich