• Keine Ergebnisse gefunden

5 Nicht/leicht behindert, normale Lebensführung trotz eventuell geringer Ausfälle, nur geringe oder keine Einschränkung der Erwerbsfähigkeit

2.7 Auswertung der Daten

Zur Übersichtlichkeit hier noch einmal eine kurze Darstellung der verschiedenen erhobenen Daten:

1. Patientenakten mit generellen Informationen wie z.B. Alter des Patienten, Schädigungsursache, vergangene Zeit seit der Schädigungsursache…(n = 175)

2. EEG / EKP-Daten der Kliniken Schmieder (n= 175)

3. Outcome Daten der Patienten zwei bis 13 Jahre nach Entlassung aus den Kliniken Schmieder (n = 92)

Die aus den Akten entnommen Informationen, ebenso wie die Outcome Daten der Patienten, wurden in Tabellen zusammengefasst um später mit dem Auftreten von EKP-Komponenten

und ihrem prognostischen Wert in Verbindung gebracht werden zu können. Im Folgenden wird daher in erster Linie die Vorbereitung und Auswertung der EEG / EKP-Daten beschrieben. Diese Auswertung erfolgte durch zwei Verfahren. Das Erste ist ein mittelungs-basiertes visuelles Auswertverfahren, das Zweite eine „Continuous Wavelet Analyse“ (CWT).

2.7.1 Datenvorbereitung

Die Daten wurden mit einem Vorwärts-Hochpassfilter bei 0,16 Hz gefiltert. Anschließend wurde das fortlaufende EEG in 1200 ms lange Epochen um die Trigger herum zerlegt. Dabei lagen 200 ms vor dem Trigger (Baseline) und 1000 ms danach. Innerhalb dieser Epochen wurde dann nach Artefakten gesucht. Für Datensätze mit guter Datenqualität (niedrig amplitudiges Grund EEG welches sich gut von Artefakten wie Blinzeln unterscheiden ließ) wurden individuelle Schwellenwerte für Amplitude und Gradient des Signals mit Hilfe der Auswertesoftware Besa definiert. Epochen die in Amplitude oder Gradient über dem definierten Schwellenwert lagen wurden als Artefaktbelastet von der weiteren Auswertung ausgeschlossen. Bei Datensätze mit schlechter Datenqualität (besonders hoch amplitudiges Grund EEG oder viele triggerunabhängige ‚Blinks’) wurde jede einzelne Epoche von Hand durchgegangen und entschieden ob es sich um einen verwertbaren Trial handelt oder nicht.

Die Anzahl der in die weitere Verarbeitung eingehenden Trials unterscheidet sich daher stark zwischen den Patienten und zum Teil auch zwischen den Paradigmen.

2.7.2 Visuelle Auswertung

Die visuelle Komponentenanalyse wurde von zwei unabhängigen Ratern durchgeführt. Dabei war der zweite Rater „verblindet“ gegen das Outcome der Patienten und die bereits erfolgte erste Bewertung von Rater 1. Rater 1 untersuchte die Patienten während ihres Aufenthalts in der Klinik, Rater 2 bewertete die von Rater 1 aufgezeichneten Daten einige Zeit später.

Rater 1 verwendete für die Auswertung der Daten das Software-Paket SCAN (Fa.

NeuroScan). Die Artefaktkorrektur wurde von ihm nach eigenen Kriterien durchgeführt.

Grundsätzlich erhielt Rater 1 etwas mehr Durchgänge für seine Mittelungen als Rater 2, da in SCAN eine Augen-Artefakt-Korrektur zur Verfügung stand welche sich auch über nur 5 vorhandenen Elektroden anwenden ließ. Über die Ergebnisse seiner Auswertungen verfasste er über jeden Patienten und jedes Paradigma einen detaillierten Bericht.

Rater 2 verwendete für die Auswertung derselben EEG-Ableitungen das Software Programm Besa (MEGIS Software). Die Artefaktkorrektur erfolgte wie in ´2.8.1 Vorbereitung der Daten´ beschrieben. Eine Augen-Artefakt-Korrektur konnte in Besa nicht gerechnet werden da diese Option erst ab min. 12 Elektroden zur Verfügung steht. Aus diesem Grund standen für die Mittelungen von Rater 2 häufig weniger Durchgänge zur Verfügung als bei den Mittelungen von Rater 1 da Rater 2 Durchgänge wegen ‚Blinks’ ausschließen musste welche Rater 1 aufgrund seiner Augen-Artefakt-Korrektur einbeziehen konnte.

Von den zur weiteren Verarbeitung ausgewählten Trials wurden dann Mittelungen für die jeweilige experimentelle Bedingung durchgeführt. Die daraus entstehenden „Average-Kurven“ wurden anschließend für jede Elektrode dargestellt. Je nach Qualität der Ursprungsdaten und der in die Mittelung eingegangenen Anzahl an Trials wurde an diesem Punkt nach Bedarf ein Tiefpassfilter (max. 15Hz) eingesetzt um die EKPs (falls vorhanden) klarer hervor treten zu lassen. Über die visuelle Inspektion der Differenzen der experimentellen Bedingungen wurde jedem Patient ein „gesuchte EKP Komponente vorhanden (Ja)“, „vielleicht vorhanden (Vielleicht)“ oder „nicht vorhanden (Nein)“ zugeteilt.

Durch die Mehrfachabstufung des Messobjektes (Ja, Vielleicht, Nein) bietet sich zur Beurteilung der Inter-Rater-Reliabilität eine Gewichtung des Kappas an. Dieses Maß wurde gewählt um dem Umstand Rechnung zu tragen, dass im übertragenen Sinne eine Bewertung durch Rater 1 mit „Ja“ und eine Berwertung von Rater 2 mit „Vielleicht“ nicht so weit von einander entfernt liegen wie Bewertungen mit „Ja“ und „Nein“. Mathematisch bedeutet das, dass für jede Zelle der Kontignenztafel ein Gewichtungsfaktor definiert wird. Dieser Faktor kann sich z.B. daran orientieren, wie groß die Abweichung von der Mitteldiagnonalen ist. In diesem Fall wurde die quadrierte Abweichung von den Mitteldiagnonalzellen gewählt (Bortz, 1999).

2.7.3 Continuous Wavelet Transform (CWT)

In die computergestützte Auswertung gingen die gleichen Durchgänge ein wie in die visuelle Auswertung von Rater 2. Eine rein computerisierte Artefaktkorrektur erschien aufgrund der Heterogenität der Datenqualität ebenso wenig ratsam wie ein genereller Verzicht auf eine Artefaktkorrektur. Auch für einen späteren Vergleich der beiden Analyseverfahren schien es ratsam, die beiden Auswertungen auf den gleichen „Grund-Daten“ basieren zu lassen. Aus diesem Grund wurden die gleichen Durchgänge und Filter verwendet wie für die visuelle Inspektion. Die Daten wurden vor dem Einlesen mit einem Vorwärts Hochpassfilter (0.16 Hz)

und einem Nullphasen-Tiefpassfilter (15 Hz) gefiltert. Die hier verwendete spezielle CWT, die tCWT, basierte auf einem von Vladimir Bostanov entwickelten Algorithmus.1 Die tCWT wurde in der Literatur schon verschiedentlich zur Auswertung von EKPs verwendet (z.B.

Bostanov & Kotchoubey, 2006).

2.7.3.1 Generelle Funktionsweise der CWT

Aus der Fourier Theorie ist bekannt, dass sich jedes komplexe Signal in, möglicherweise unendlich viele, Sinus und Cosinus Wellen verschiedener Frequenzen zerlegen lässt. Das Problem der Fourier Transformation ist dabei, dass sie keine Zeitauflösung anbietet. Am Ende einer solchen Transformation sind demnach die am Signal beteiligten Frequenzen bekannt, aber wir erhalten keine Anhaltspunkte dafür, wann (wo) im Signal sie auftreten. Die CWT ist ein Verfahren, welches entwickelt wurde, um die Zeit - Frequenz – Auflösung zu optimieren.

Dabei funktioniert die CWT auf eine ähnliche Art und Weise wie die „Short Term Fourier Transform“ (STFT). In beiden Verfahren wird ein zu analysierendes Signal mit einer Funktion (CWT-> wavelet; STFT-> window funktion) multipliziert. Das Wavelet wird dabei für jedes Segment des zu analysierenden Zeitbereiches einzeln berechnet.

Die CWT ist mathematisch wie folgt definiert:

Dabei steht für die CWT des EEG Signals . Weiter steht k für den Kanal, an dem das Signal abgeleitet wurde, und n für den jeweiligen Durchgang. steht für den Wert, um den sich das Wavelet auf der Zeitachse vorwärts bewegt, s steht für den Wert, um den sich das Wavelet verändert.

Darüber hinaus kann man an der Formel sehen, dass das Wavelet (Psi) eine Funktion der beiden Variablen, und s, die „translation“ und „scale“ Parameter ist. steht für das Wavelet selbst als sich verändernde Funktion. Diese Funktion wird auch „Mutter Welle“

(mother wavelet) genannt. Auf ‚translation’, ‚scale’ und die für diese Arbeit gewählte ‚Mutter Welle’ wird im Folgenden noch genauer eingegangen.

Der Term „wavelet“ steht allgemein für „kleine Welle“. Das „klein“ bezieht sich dabei auf den Umstand, dass die Fenster-Funkion von begrenzter Länge ist (im englischen spricht man

1 Für die Implementierung der in dieser Studie verwendeten tCWT danke ich ganz herzlich Todor Jordanov

von: „compactly supported“)(zur begrenzten Länge der Fensterfunktion siehe auch Abbildung 2.3). Die „Welle“ bezieht sich auf den Umstand, dass die Funktion oszilliert. Der Term

„mother“ wurde gewählt, weil die „mother wavelet“ den Prototypen darstellt, von dem sich alle anderen Fenster-Funktionen (Wavelets) ableiten. Dabei kann nicht jede beliebige Welle als Wavelet genutzt werden. Ein Wavelet muss bestimmte Voraussetzungen erfüllen wie z.B.

die „Admissibility“ Vorraussetzung. Dies bedeutet, dass die positiven und negativen Flächen

´unter´ der Welle sich gegenseitig aufheben, also 0 ergeben müssen. Dies ist wichtig, damit man mit Hilfe dieses Wavelets ein Signal zuerst analysieren und später eindeutig rück transformieren kann ohne dabei Information zu verlieren. Mit anderen Worten, die

„Admissibility“ Vorraussetzung verhindert, dass sich aus einem transformierten Signal bei der Rücktransformation mehrere Signale ergeben könnten. Es gibt zwei sehr bekannte Wellen, welche diese Voraussetzung erfüllen und häufig als Wavelets verwendet werden. Die eine ist der so genannte „Mexican Hat“, die andere die „Morlet wavelet“. Beide sind in Abbildung 2.1 dargestellt.

Abbildung 2.1: verschiedene Wavelets

Für welches Wavelet man sich entscheidet hängt damit zusammen, auf welche Eigenschaften man ein Signal untersuchen will. Der Mexican Hat ist durch seine ´eine Welle´ besser in der Zeit lokalisiert als das Morlet Wavelet. Daher eignet sich ersterer besser zur Detektion von EKP-Komponenten während letztere sich besser dazu eignet aufgelagerte Schwingungen zu finden. (Ende et al. 1998; Senkowski and Herrmann 2002.

Der Term „translation“ steht für den Ort, an dem sich ein Fenster gerade befindet während es sich durch das Signal bewegt. Dieser Ausdruck steht also offensichtlich für Zeitinformationen. In Abbildung 2.2 stellt die durchgezogene Linie das zu analysierende Signal dar. In diesem Fall handelt es sich um eine reine Cosinus-Welle. Als Wavelet ist hier mit der gepunkteten Linie ein (auf den Kopf gestellter) Mexican Hat dargestellt. In der

Graphik kann man sehen, wie sich der Mexican Hat durch das zu analysierende Signal bewegt. An jeder Stelle an der der Mexican Hat an das Signal „angelegt“

wird, wird er mit diesem multipliziert. Daraus ergibt sich

ein Wert für die

Übereinstimmung (´match´) des Wavelets (mit seiner derzeitigen Frequenz zu diesem Zeitpunkt) und dem Signal (mit dessen vorhandenen Frequenzen zu diesem Zeitpunkt).

Der Ausdruck „scale“ steht für die Frequenzinformationen. Er ist aber nicht als „Frequenz“

benannt weil dieser Ausdruck für die STFT reserviert ist. Scale ist definiert als 1/Frequenz.

Der Parameter Scale in einer Wavelet Analyse ist ähnlich zu verstehen, wie die Skalen die in Karten verwendet werden. In Karten steht ein hoher Maßstab für eine Übersichtskarte und niedrige Maßstäbe stehen für Detailkarten. Ähnlich, im Bezug auf Frequenzen, stehen niedrige Frequenzen (hohe Scales) für eher globale Informationen über das Signal. Tiefe Frequenzen bestehen meist über die gesamte analysierte Signaldauer. Hohe Frequenzen (tiefe Scales) sind meist in das Signal eingesprengt vorhanden und stehen für Muster oder Reaktionen, also eher Detailinformationen im Signal. Skalieren, als eine mathematische Operation, kann ein Signal dehnen oder komprimieren. Hohe Scales stehen für ein Dehnen von Signalen, tiefe Scales für komprimierte Signale. Ist also f(t) eine gegebene Funktion, so steht f(st) für eine komprimierte Version von f(t) wenn s größer als 1 ist, oder für eine gedehnte Version von f(t) wenn s kleiner als 1 ist. Da aber s in der Gleichung der CWT im Nenner steht, ist für die CWT eigentlich das Gegenteil wahr. Also, wenn s größer ist als 1, wird das Signal gedehnt, während ein s kleiner als 1 das Signal komprimiert.

Die Abbildung 2.3 zeigt verschiedene skalierte Formen des in Abbildung 2.2 schon gezeigten Mexican Hat als gepunktete Linie. Die durchgezogene Linie steht wieder für das zu analysierende Signal. Die gestrichelte Linie steht in dieser Abbildung für den `match`

zwischen den verschiedenen Wavelets und dem Kosinus-Signal. Ganz hohe und tiefe Frequenzen finden keine Entsprechung im Signal und ergeben deshalb einen Match von 0. Je

mehr sich die Frequenz des Mexican Hat der Frequenz des Signals annähert desto besser sind die maximalen und minimalen ´matches´ zu erkenne. Maximale ´matches´

ergeben sich, wenn Wavelet und Signal in Frequenz und Phase übereinstimmen, minimale

´matches´ entstehen bei übereinstimmender Frequenz aber genau gegenläufiger Phase.

Zusammenfassend entsteht also die Zeitauflösung durch das

„Wandern“ der Wavelets durch das Signal und die Frequenzauflösung, durch die ´matches´

des Signals mit verschieden skalierten Wavelets. Darüber hinaus kann man an Abbildung 2.3 auch noch erkennen, dass das Zeitfenster der gestreckten Wavelets deutlich länger ist, als das des komprimierten Wavelets (Zeitspanne zwischen den senkrechten Strichen). Hieraus ergibt sich die Tatsache, dass hohe Frequenzen mit einer besseren zeitlichen Auflösung darstellbar sind als langsame Frequenzen. Letztere können dafür mit einer besseren Frequenzauflösung abgebildet werden.Das Ergebnis einer CWT ist das so genannte Skalogramm. Dies ist eine zweidimensionale Darstellung mit der Zeit auf der x-Achse und der Scale auf der y-Achse.

(Zur Erinnerung: Scale repräsentiert die Frequenz, Scale= 1/Frequenz). Für das Skalogramm werden die in Abbildung 2.3 dargestellten ´matches´ in die 2-D-Darstellung übertragen. Dies ist in Abbildung 2.4 dargestellt.

Wie in Abbildung 2.3 zu erkennen war, erzeugten sehr gestreckte und sehr komprimierte Wavelets keinen ´match´. Demzufolge ist auch das Skalogramm

ganz oben (tiefe Frequenzen) und ganz unten (hohe Frequenzen) leer. Der beginnende ´match´

im mittleren Frequenzbereich zeigt sich im Skalogramm durch die zuerst sehr großen Kreise.

Die größte Übereinstimmung ist durch den kleinsten Kreis in der Mitte dargestellt. Auch Maxima und Minima, sprich, ob sich der Wavelet und das Signal in der gleichen oder in gegenläufiger Phase befunden haben, ist im Skalogramm zu erkennen. In diesem Beispiel sind Maxima als durchgezogene Kreise dargestellt, Minima dagegen sind gepunktet. Der Sinn einer solchen Darstellung des Signals wird deutlicher bei komplexeren Signalen. In Abbildung 2.5 ist das Skalogramm eines komplexen Signals zu sehen. Das Signal setzt sich zusammen aus drei Kosinus-Wellen unterschiedlicher Frequenz und Phase. Im Skalogramm werden die Frequenzen deutlich getrennt von einander dargestellt. Wie in Abbildung 2.4 ist auch hier die Phase durch gepunktete und durchgezogene Linien markiert und die Zeit auf der x-Achse dargestellt.

Abbildungen 2.2 bis 2.5 sind, in teilweise leicht veränderter Form, entliehen aus: http://www.ecs.syr.edu/faculty/lewalle/tutor/node3.html, 30.11.2009

2.7.3.2 Die tCWT

Die tCWT ist eine Weiterentwicklung der CWT durch Vladimir Bostanov (Bostanov &

Kotchoubey, 2006).

Diese Variante wurde speziell zur EKP-Detektion entwickelt. Die Verarbeitung des Signals endet hier nicht mit der Darstellung des Skalogramms.

Die CWT wird generell durchgeführt wie oben beschrieben und zwar für jeden Patienten, jede Elektrode und jede experimentelle Bedingung einzeln. Im Ergebnis liegen dann z.B. von Versuchsperson 1 je ein Skalogramm für passende Satzenden und ein Skalogramm für unpassende Satzenden für jeden Kanal vor. Darüber hinaus werden diese Skalogramme nicht aus den Averages der einzelnen Bedingungen gebildet sondern aus dem Signal jedes einzelnen Durchganges. Dies hat den Vorteil, dass die Inter-Trial-Varianz nicht verloren geht.

Unter Anwendung des Student´s t Test werden dann die Skalogramme der unterschiedlichen

Bedingungen verglichen. Endergebnis der tCWT ist demnach nicht ein Skalogramm welches die unterschiedlichen Frequenzen zu verschiedenen Zeitpunkten eines Signals anzeigt, sondern ein Differenz-Skalogramm. Also ein Skalogramm welches durch seine lokalen Maxima Unterschiede zwischen den Skalogrammen der experimentellen Bedingungen anzeigt. Die dazu ausgegebenen t-Werte erlauben gleichzeitig eine Einschätzung der Signifikanz der Unterschiede zwischen den Bedingungen. Aus diesem Grund spricht man auch von dem so genannten t-Wert-Skalogramm.

Zum besseren Verständnis hier einmal der Differenz-Plot der Average Auswertung wie sie zur visuellen Auswertung erstellt wurden (Abbildung 2.6) im Vergleich zum t-Wert-Skalogramm der tCWT (Abbildung 2.7). In beiden Abbildungen ist die Elektrode Pz dargestellt. Die zugrunde liegenden Daten sind die Reaktionen einer Kontrollperson auf sinnlose und sinnvolle Satzenden. In Abbildung 2.6 unterscheidet sich die Verarbeitung des sinnlosen letzen Wortes (rote Linie) deutlich von der sinnvollen Bedingung (blaue Linie).

Dies ist die in diesem Paradigma gesuchte N400. Ebenfalls typisch ist die anschließende Positivierung der sinnlosen Enden. Diese Komponente wurde allerdings in dieser Studie nicht weiter untersucht.

Abbildung 2.6: Mittelung einer N400, Elektrode Pz, eine Kontrollperson

Auf der x-Achse ist die Zeit dargestellt, auf der y-Achse die Amplitude der Komponente. Die blaue Linie zeigt die Verarbeitung eines sinnvollen letzen Wortes, die rote Linie zeigt die Verarbeitung des sinnlosen letzen

Wortes. Negative Amplituden sind nach oben abgetragen. Nach der für beide Bedingungen sichtbaren N1 unterscheidet sich die sinnlose Bedingung deutlich von der sinnvollen. Dies ist die N400 Komponente.

Abbildung 2.7: t-Wert-Skalogramm der N400, Elektrode Pz, eine Kontrollperson

Auf der x- Achse ist die Zeit dargestellt (Trigger bei 100 ms), y-Achse zeigt die Frequenz. Der Farbbalken kodiert die t-Werte. Die Farbe Rot wird dargestellt, wenn die sinnlose Bedingung in diesem Moment positiver ist

als die sinnvolle, blau dagegen zeigt an, dass die sinnlosen Enden gerade negativer sind als die sinnvollen. Je kräftiger die Farbe, desto höher der ihr zugrunde liegende t-Wert und damit desto kleiner die Wahrscheinlichkeit,

dass der beobachtete Unterschied zufällig zustande gekommen ist. Deutlich sichtbar ist der überzufällige Unterschied zischen den Bedingungen bei ca. 450 ms ab Trigger in dunklem blau. Dies ist die N400

Komponente.

Im Skalogramm aus Abbildung 2.7 steht ebenfalls auf der x-Achse die Zeit abgetragen. Auf der y-Achse ist die Scale. Da sie hier in Schritten von 100 angegeben ist, gilt für die Berechnung der Frequenz nicht 1/Scale, sondern in diesem Fall 1000/Scale. Eine Scale von 100 steht demnach für eine Frequenz von 10 Hz, eine Scale von 500 steht für 2 Hz und eine Scale von 1000 für 1 Hz. Der Farbbalken auf der rechten Seite codiert die Signifikanz der abgebildeten T-Werte. In diesem Beispiel überschreiten Werte von +2,5 und höher und -2.5 und niedriger die Signifikanzgrenze von 0.05. In anderen Worten, kräftiges rot und blau stehen für signifikante Unterschiede zwischen den beiden experimentellen Bedingungen. Die Farben Rot und Blau codieren ihrerseits Maxima und Minima. In diesem konkreten Fall steht blau dafür, dass die Bedingung sinnloses Satzende zu diesem Zeitpunkt negativer ist als die Bedingung sinnvolles Satzende.

Der Trigger im Skalogramm muss bei 100 ms gesetzt werden. Man kann sehen, dass die Unterschiede in den Bedingungen um die Zeit des Triggers, davor und auch kurze Zeit danach nicht das Signifikanz Niveau erreichen. Dies bedeutet, es gibt keine überzufälligen Unterschiede in der 100 ms dauernden Baseline und über die Zeit der N100. Ein deutlich signifikanter Unterschied ergibt sich dann bei ca. 450 ms ab Trigger mit dem Maximum bei ca. 600 Scale, also ca. 1.7 Hz. Dies ist die gesuchte N400 Komponente. .

Es ist zu beachten, dass Abbildung 2.6 trotz der großen Übereinstimmung nicht 1 zu 1 übertragbar ist auf Abbildung 2.7. Abbildung 2.6 ist NICHT die Grundlage für Abbildung 2.7.

Abbildung 2.6 dient hier zur Veranschaulichung der verschiedenen Signaltransformationen.

Mathematisch gliedert sich die Berechnung der tCWT in vier Schritte. Um hier einmal V.

Bostanov zu zitieren: „It is performed in […] simple steps.“ (Bostanov, 2003).

Schritt 1: Die CWT wird, wie weiter oben beschrieben, für jeden Kanal und jede Bedingung durchgeführt. Der als Wavelet ( ) verwendete Mexican Hat definiert sich in Bostanovs tCWT durch:

Diese Definition des Mexican Hat entspricht nicht der Standard-Definition der üblicherweise in CWTs verwendeten Mexican Hat Wavelets. Die Scale der hier verwendeten Definition ist etwas größer (4x so groß) als beim gängigen Mexican Hat. Diese abweichende Version wurde gewählt damit die Scale in etwa der Wellenlänge des Mexican Hat entspricht. Auf EKPs angewandt entspricht das dann der geschätzten Dauer einer EKP Welle.