4.1 Ableitung der Ursachen
4.1.2 E6: Ursachen im Algorithmus (Trainingsprozess)
Fahrstil, welcher nicht in den Trainingsdaten vorhanden ist, im Betrieb auf, wird der Algo-rithmus eine falsche Aussage treffen.
E16: Messfehler verdeckt relevante Zusammenhänge zu stark
Sind die zur Problemlösung erforderlichen Zusammenhänge im Datensatz vorhanden, ist es möglich, dass Messfehler diese für den Lernalgorithmus so stark verdecken, dass diese nicht in ihrer eigentlichen Form identifiziert werden und das gelernte Modell im Betrieb, wenn diese Messfehler nicht mehr oder anderweitig vorhanden sind, Fehlverhalten zeigt.
Die Ursachen der Messfehler sind vielfältig und in der Literatur (beispielsweise Hering und Schönfelder189) ausführlich beschrieben.
E17: Label nicht korrekt
Eine unzureichende Qualität der Label führt zu inkorrekten gelernten Regeln des Modells im Vergleich zur Realität.190 Diese Ursache tritt prinzipbedingt lediglich im Rahmen von Supervised-Lernansätzen auf. Sie ist dabei auf Label bezogen, die basierend auf den bereits aufgenommenen Ausgangsgrößen entweder manuell oder automatisiert nachträglich gene-riert wurden. Generelle unzureichende Qualität der aufgenommenen Daten (unabhängig ob Ein- oder Ausgangsgrößen) ist unter der Ursache E16 geführt und unterscheidet sich hin-sichtlich späterer Vermeidungsmaßnahmen von der hier diskutierten Ursache. Nachträglich generierte Label finden dabei vor allem bei bildbasierten Ausgangsgrößen Anwendung, um beispielsweise Objekte wie Fußgänger anhand des zugehörigen Pixelbereichs manuell zu kennzeichnen. Dieser Datensatz wird z.B. genutzt, um ein Modell zur Fußgängerdetektion zu trainieren. Ein Beispiel für manuell generierte, nachträgliche Label außerhalb des Bild-bereichs besteht in der Selbsteinschätzung eines Fahrers hinsichtlich seines Fahrstils basie-rend auf der vergangenen Fahrt. Hier besteht das Problem darin, dass keine eindeutige Ground-Truth191 vorhanden ist, auf die im Annotationsprozess Bezug genommen wird. Im obigen Beispiel ist es fragwürdig, auf welche Referenz die Fahrer sich selbst beziehen und wie sinnvoll dieses Label überhaupt für ein Training zu nutzen ist.
Abbildung 4-3: Ursachen in den Trainingsalgorithmen
E21: Mikroskopische anstelle makroskopischer Zusammenhänge erlernt
Eine Ursache für unzureichende Generalisierung besteht darin, dass die durch die Zielfunk-tion generierten Zusammenhänge aus mikroskopischen anstelle von makroskopischen Be-ziehungen der Daten bestehen. Die Ursache ist bereits in Unterkapitel 3.3 anhand des Bei-spiels mit der Fellstruktur eines Tieres als mikroskopisches Merkmal erläutert. Sie tritt bei komplexen Algorithmen auf, welche sich auf lokale Bereiche der Daten fokussieren.193 Ein weiteres Beispiel besteht in einem Neuronalen Netz, das zur bildbasierten Unterscheidung genutzt wird, ob eine Person Lippenstift trägt oder nicht. Das Netz sagt dabei fälschlicher-weise das Vorhandensein von Lippenstift als wahrscheinlich voraus, selbst wenn der Mund mit einem schwarzen Balken verdeckt ist. Das liegt daran, dass das Netz einen Zusammen-hang zwischen Augen-Make-Up und Lippenstift gelernt hat, anstatt lediglich den Fokus auf den Lippenstift an sich zu setzen.194
193 Vgl. Khurshudov, A.: Suddenly, a leopard print sofa appears (2015).
194 Vgl. Zhang, Q.-s.; Zhu, S.-c.: Visual interpretability for Deep Learning (2018), S. 3.
Ursachen im Algorithmus
E6
Ursachen in der
„objective function“
Ursachen im Rahmen der Implementierung
E18 E20
Mikroskopische Zusammenhänge statt
makroskopischer erlernt
Overfitting / Underfitting
Formal falsch definiert
E21
E22
E23
Lokales Minimum statt globalem Minimum erreicht
E25
Vorgehen bei komplexen Berechnungen falsch
E26
Sensitivität auf Störungen (adverserial
examples) E24
E22: Overfitting/ Underfitting
Besitzt der gewählte Lernalgorithmus mehr Anpassungsparameter als vom zur Verfügung stehenden Datensatz gerechtfertigt ist, ist eine Überanpassung bzw. Overfitting möglich, wie in Abbildung 4-4 dargestellt.195a Durch diese Überanpassung an den Datensatz ist die erzielte Leistungsfähigkeit auf dem Trainingsdatensatz hoch. Im Gegensatz hierzu führen zu wenige Anpassungsparameter zu Underfitting.195b Underfitting wird jedoch im Entwick-lungsprozess normalerweise durch eine geringe Leistungsfähigkeit bereits im Trainings-prozess schnell identifiziert. Overfitting ist mit dem Validierungsdatensatz identifizierbar, worauf in Kapitel 4.2 eingegangen wird.
Abbildung 4-4: Overfitting E23: Formal falsch definiert
Formale Fehler in der Aufstellung der Funktion, wie beispielsweise Vorzeichenfehler, stel-len eine Ursache fehstel-lender Generalisierbarkeit dar. Normalerweise wird diese Ursache durch die resultierende geringe Leistungsfähigkeit des gelernten Modells bei Supervised und Unsupervised Ansätzen bereits im Trainingsprozess offenbart.
E24: Sensitivität auf Störungen (adverserial examples)
Die unter dem Begriff „adverserial examples“ bekannt gewordene Problematik der Stö-rungssensitivität stellt ebenfalls eine Ursache fehlender Generalisierbarkeit dar. Durch eine Generierung von Störungsgrößen, die auf die größtmögliche Änderung der Ausgangsgröße bei gleichzeitig kleinstmöglicher Änderung der Eingangsgröße optimiert sind, werden Vorhersagen des gelernten Modells hervorgerufen, die trotz hoher Selbstbewertung der Zuverlässigkeit der Vorhersage falsch sind. Das menschliche Detektionsvermögen wird von diesen Störgrößen nicht beeinflusst, was im Rahmen einer Objektdetektion im Bildbe-reich deutlich wird.196 197 Wie in Abbildung 4-5 gezeigt, wird ein originales Bild (links) mit einer Störung (Mitte) beaufschlagt, wodurch ein verändertes Bild entsteht (rechts). Für Menschen stellt auch das Bild mit Störgrößen eindeutig einen Panda dar, wohingegen ein gelerntes Neuronales Netz mit hoher Zuverlässigkeit das Vorliegen eines Gibbons vorher-sagt.
195 Vgl. Everitt, B.; Skrondal, A.: The Cambridge dictionary of statistics (2010), a: S. 318; b: S. 440.
196 Vgl. Szegedy, C. et al.: Intriguing properties of neural networks (2013).
197 Vgl. Goodfellow, I. J. et al.: Explaining and harnessing adversarial examples (2014).
Abbildung 4-5: Adverserial example198
E25: Lokales statt globalem Minimum erreicht
Im Rahmen der Suche des Optimums der „objective function“ ist es möglich, dass lokale Optima statt dem globalen Optimum erreicht werden und hierdurch das resultierende Mo-dell nicht die bestmögliche Lösung darstellt.199 Fehlende Generalisierbarkeit resultiert in diesem Fall aus der möglichen besseren Darstellung der Zusammenhänge der Trainingsda-ten, deren Suche lediglich zu früh abgebrochen wurde. Diese Ursache tritt nicht im Rah-men von konvexen Funktionen, wie beispielsweise SVM, auf.200
E26: Vorgehen bei komplexen Berechnungen falsch
Beim Training des Modells sind teilweise komplexe Berechnungen notwendig. Für eine effiziente Implementierung wird häufig der Vektorraum genutzt, wodurch verschiedene Matrixoperationen, wie die Berechnung der Matrixinversen, benötigt werden.201 Je nach verwendeter Implementierungssprache werden diese Berechnungen unterschiedlich, z.T.
mit Vereinfachungen durchgeführt, wodurch ebenfalls fehlende Generalisierbarkeit mög-lich ist.