• Keine Ergebnisse gefunden

5.7 Diskussion und Fazit

5.7.2 Diskussion der Methoden

Dieser Abschnitt beinhaltet eine kritische Diskussion der verwendeten Methoden für dieses Kapi-tel. Ausgehend von den numerischen Bausteinen des Programms werden die Methoden zur Para-meteridentifiation (Parallel Tempering) und die Bilddatenanalyse behandelt.

Numerische Lösungsmethode

Das Modell wurde als PDGL-System formuliert und über die Linienmethode instationär gelöst.

Das eindimensionale Problem konnte als finite Volumina aufgeschrieben und die Flüsse über die Zellengrenzen mithilfe eines WENO-Verfahrens geschätzt werden. Das Gleichungssystem wurde anschließend transformiert, um mit der Hyphe „mitwachsen” zu können. Die Transportgeschwin-digkeit der bilanzierten SV,𝑢(𝑡, 𝑥), innerhalb der Hyphe lag deutlich oberhalb der Wachstumsge-schwindigkeit der Hyphe und war hierdurch der geWachstumsge-schwindigkeitsbestimmende Teilprozess der

Simulation.

Die Tatsache, dass sich in realen, ausgebildeten Hyphen die SV-Akkumulation in der Spitze sta-tionär „mitbewegt”, legt nahe, dass sich dieses Phänomen mit einem stasta-tionären und u. U. linea-ren Ersatzmodell ersichtlich unkomplizierter (und unter geringerem Rechenaufwand) hätte lösen lassen können. Dies hätte allerdings nicht erlaubt, die Entstehungsdynamik dieser Spitzenüberhö-hung nach der Keimung zu simulieren. Außerdem wäre in dieser Form kein exponentielles An-fangswachstum über die direkte Kopplung des SV-Verbrauchs mit dem Längenwachstum zu er-halten gewesen. Es sind aber grundsätzlich Hybridmethoden denkbar, bei der die Etablierung des Vesikelclusters (instationär) berechnet, anschließend die SV-Verteilung konstant gehalten und die-se bis zum Eintreten eines Wachstumdie-sereignisdie-ses stationär gelöst wird.

Die verwendete Formulierung eines beweglichen, rechten Randwertes (front-fixing-Methode, Unterkapitel 5.3, S. 64) ermöglichte es, auf Strategien zur Gittererweiterung zu verzichten und das Problem auf einem festen Raster zu lösen. Die örtliche Auflösung der Gitterknoten nahm mit Fort-schreiten der Computersimulation – und damit mit steigender Hyphenlänge – natürlicherweise ab.

Wurde die Anzahl der Knotenpunkte zu Beginn der Simulation zu gering gewählt, reichte sie ab ei-ner bestimmten Länge nicht mehr aus, um die Spitzenakkumulation in ihrem Verlauf darzustellen.

Im Grenzfall reduzierte sich damit die in der Spitze befindliche SV-Erhöhung auf eine Zelle. Trotz der erhöhten, fünften Ordnung des verwendeten Diskretisierungsverfahrens (WENO-35) wuchs der Diskretisierungsfehler bei derart wenigen Knoten stark an, wodurch ebenfalls numerisch dif-fusive Effekte verstärkt wurden. Wurde die Anzahl der Zellen allerdings zu hoch angesetzt, stieg die Steifigkeit des DGL-Systems gerade zu Beginn der Simulation u. U. stark an. Dies hatte zur Fol-ge, dass die Simulation mit dem angesetzten expliziten Integrationsverfahren nach Runge-Kutta zunehmend ineffizient wurde. In diesem Fall sollte zukünftig auf implizite Integrationsverfahren zurückgegriffen werden.

Im gegebenen Fall wurde die Anzahl der Zellinnenknoten unter Kenntnis der finalen Wachs-tumslänge der Messung auf 𝑁𝑥 = 110 festgelegt, was einer Anfangslänge pro Zelle von Δ𝑥 = 0.0455μm entsprach. Mit dieser Wahl der Zellendichte konnte die Transportdynamik im Spitzen-bereich bei akzeptabler Rechenzeit aufgelöst werden. Eine zusätzliche Begrenzung des Parameter-raums während der Optimierung ergab die in den Ergebnissen beschriebene beste Schätzung.

Insgesamt erwies sich die Front-Fixing-Methode als restriktiv bei der Berechnung des Hyphen-wachstums, da die Dichte der Zellinnenknoten nicht direkt beeinflussbar oder vielmehr nicht kon-stant zu halten war. Der relative Vorteil der fixen Anzahl an Gleichungen ging verloren, da, statt-dessen, mehr Zeit in die Kalibrierung und in die schrittweise Beschränkung des Parameterraums bei der Identifikation investiert werden musste. Die numerischen Schwierigkeiten eines eventu-ell zu steifen Systems bei der Integration oder – im anderen Grenzfall – numerische Artefakte bei Unterschreiten einer Mindestzelldichte begrenzten die Eignung dieser Transformation für den Anwendungsfall. Alternativ sollte ein klassisches Verfahren der Gittererweiterung in Betracht ge-zogen werden. Eine schrittweise Erweiterung des Gleichungssystems könnte z. B. die Mindestzell-dichte garantieren. Eine entsprechende Implementierung des Modells mit erweiterbarem rechten Rand wurde bereits alsC-Code ausgearbeitet.

Schemata niedrigerer Ordnung (insbesondere Aufwind-Schemata) induzieren eine künstliche numerische Diffusion, die sich danach nicht mehr von der Modelldiffusion unterscheiden lässt.

Anstelle dieser zumeist linearen Approximationsverfahren wurde für die Berechnung der örtlichen

5.7 Diskussion und Fazit

Ableitungen an den Zellengrenzen ein WENO-35–Schema verwendet. Die WENO-Approximation erlaubte die Simulation des Transports des steilen Konzentrationsgradientens, ohne dass Oszilla-tionseffekte auftraten. Sie erwiesen sich allerdings als deutlich rechenintensiver als die linearen Approximationsverfahren. Bei der Verwendung von MCMC-Methoden musste die Simulation mit veränderten Parametern häufig – d. h. mehrere 10000 Mal – ausgeführt werden und die Ausführ-dauer fiel besonders ins Gewicht. Aus diesem Grund wurde die Simulation inC-Code (zur Ausfüh-rung aus Matlab heraus) ausgelagert.

Im gegebenen Anwendungsfall wurde von einem unidirektionalen Transport der SV zur Hy-phenspitze ausgegangen, wodurch der mit dem WENO-Schema grundsätzlich mögliche Rücktrans-port ausgeschlossen war. Diese Überdimensionierung (im Hinblick auf die TransRücktrans-portrichtung) hat-te ebenfalls Auswirkungen auf die Rechenzeit, welche für WENO-35-LF etwa das 6.5-Fache der Rechenzeit mit einfachen Aufwind-Differenzen betrug. Diese Implementierung des Modells wurde allerdings für einen universellen Anwendungszweck geschaffen, in dem zukünftig mehrere Zell-bestandteile in beide Richtung migrieren und interagieren können sollten.

Parameteridentifikation

Die Parameteridentifikation wurde schrittweise durchgeführt, wie in Unterkapitel 2.4, S. 21 im De-tail geschildert ist. Bereits früh während der Identifikation ergaben sich numerische Probleme bei der Integration des Gleichungssystems, wie im vorherigen Abschnitt beschrieben wurde. Diese er-gaben sich aus einer zu hohen oder zu niedrigen Knotendichte. Um eine Mindestzelldichte nicht zu unterschreiten, musste bei der Parameteridentifikation darauf geachtet werden, dass die fina-le Simulationslänge die gemessene Länge nicht stark überschritt. Dieser zusätzlichen Restriktion wurde Rechnung getragen, indem die (für das Längenwachstum) sensitiveren Parameter𝑌𝐿,𝑟und 𝐷festgesetzt, lineare Abhängigkeiten dadurch vermieden und die Wachstumslänge als zusätzlicher Term in das Gütefunktional, Gleichung 5.14, S. 69, integriert wurde. Letztere Maßnahme gewichte-te damit zusätzlich Abweichungen der simuliergewichte-ten von der gemessenen Hyphenlänge. Das finale, inverse Problem war schließlich problemlos identifizierbar. Es schien ebenfalls gut skaliert zu sein, da die identifizierten Parameter in ähnlichen Größenordnungen lagen.

Das Parallel Tempering verbindet wirksame Eigenschaften bei der Identifikation großer, mehrdi-mensionaler Parameterräume (effektive Durchmischung, d. h. Abdeckung durch Temperaturwech-sel zwischen Läufern) mit Stärken bei der Abtastung von korrelierten Parameterräumen (Adapti-on der Verteilung und, in der K(Adapti-onsequenz, erhöhte Akzeptanzraten für Kandidaten-Parameter) und ist damit für ein breites Spektrum von Anwendungsfällen geeignet. Für das gegebe-ne Identifikationsproblem konnte das Parallel Tempering seigegebe-ne Stärken bedingt ausspielen, da die Anzahl der zu identifizierenden Parameter gegenüber der Vorveröffentlichung stark erweitert und die Totzeit-Terme der Messdatensätze mitgeschätzt wurden. Die identifizierten Parameter wiesen in den meisten Fällen Gaus’sche Verteilungen auf und waren (bis auf ˆ𝑘C, ˆ𝐾Cund ˆ𝜃P) nur schwach korreliert. Die eigentliche Stärke einer MCMC-Schätzung, auch nicht-Gauß’sche oder multimoda-le Parameterunsicherheiten annähern zu können, konnten in diesem Fall nur beim Abklingfaktor, 𝑓ˆLF, wirksam werden. Insgesamt konvergierte der verwendete Parallel-Tempering-MCMC-Sampler schnell zur gesuchten A-posteriori-Verteilung, siehe Abbildung 5.14, S. 75.

Messung und Bilddatenauswertung

Bei den CLSM-Messungen musste der richtige Kompromiss zwischen optischer Vergrößerung, räumlicher Auflösung (lateral und axial), zeitlicher Auflösung, Anrege-Intensität des Lasers, Detektor-Sensitivität, Geschwindigkeit der Laserbewegung beim Rastern des Bildausschnitts und der Größe der Lochblende gefunden werden. Die Ziele der Messung waren hierbei grundsätzlich widersprüchlich bzw. entgegengesetzt: Sporen sollten detailgenau aufgenommen werden (d. h.

mit großer Vergrößerung), allerdings keimten nicht alle Sporen aus. Daher mussten ausreichend viele Einzelsporen vorausgewählt und die entsprechenden Regionen in festgelegter Reihenfolge angefahren werden. Damit erhöhte sich wiederum der temporäre Abstand zwischen subsequenten Aufnahmen pro Ort, was die zeitliche Auflösung minderte.

Der entwickelte Algorithmus extrahiert mittlere axiale Verteilungen von zeitaufgelösten dreidi-mensionalen Hyphenstrukturen und wurde zur Quantifizierung von SV innerhalb jungerA. niger Hyphen verwendet. Das Programm stellt verhältnismäßig hohe Anforderungen an die Qualität der Probenobjekte, da diese leicht voneinander trennbar sein müssen. Dies war bei keimenden Sporen im Experiment nur dann gewährleistet, wenn die Sporendichte niedrig genug – die Abstände zwi-schen den Sporen daher ausreichend groß waren. Damit stieg die Wahrscheinlichkeit, mehrere Sporen pro Bildausschnitt gleichzeitig aufnehmen zu können und trug zur bereits angedeuteten, erhöhten Anzahl von Bildausschnitten bei. Dieses Vorgehen konnte allerdings nicht verhindern, dass sich Hyphen im Laufe der Zeit überschnitten.

Ein grundlegendes Problem bei der Segmentierung auf der Basis einer binarisierten Projektion (Algorithmus 3.6, S. 39) ist, dass die Abbildung von den beobachteten Objekten auf ihr Bild nicht bijektiv ist, d. h., dass Information im Abbildungsprozess verloren geht [60]. Daher können Fälle konstruiert werden, in denen entweder der Punkt mit der größten Entfernung zur Spore nicht die Spitze, sondern eine enge innere Kurve senkrecht zur Ansicht ist oder die Mittelachse aus dem pro-jizierten Bild nicht zu erkennen ist (z. B. bei einer sternförmigen Struktur). Das Programm könnte in diesen Fällen eine Mittellinie identifizieren, die kürzer ist als die reale. Das frühe Spitzenwachs-tum nach der Keimung, welches in unserem Experiment gemessen wird, ist jedoch durch eher gradlinigen Wuchs gekennzeichnet. Dies verringert das Risiko des Auftretens des obigen Falls.