• Keine Ergebnisse gefunden

Ausblick auf die Auswertung der Datenbasis .1 Kategorisierung der zu erwartenden Ergebnisse

Im Dokument Weiterbildung in der ARGE (Seite 137-141)

Zur Erhebung des motorischen Leistungsniveaus der 11- bis 14jährigen Schülerinnen und Schüler in

5 Auswertung der Daten

5.1 Ausblick auf die Auswertung der Datenbasis .1 Kategorisierung der zu erwartenden Ergebnisse

Die aus der Studie Klug & Fit zu erwartenden Ergebnisse lassen sich hinsichtlich der Katego-risierung vier Gruppen zuordnen:

! nationale deskriptive Ergebnisse: Beschreibende Analysen aus den Daten der sport-motorischen Tests und Muskelfunktionsprüfungen erlauben unter Einbindung der Rahmenva-riablen eine übersichtliche Darstellung.

! vergleichende internationale Ergebnisse: Hier sollen die Statistiken ähnlicher Studien als Vergleichsbasis zur Klug & Fit-Studie einfließen. Wie hat sich das motorische Leistungs-niveau in den letzten Jahren verändert?

! explanatorische Ergebnisse: Da sowohl die Leistungsdaten der Schüler als auch die entsprechenden Hintergrundinformationen (Schultyp, Alter, Geschlecht, Stadt-Land, Bundes-land, usw.) verfügbar sind, ist es möglich einfache Modelle über die Faktoren zu prüfen, die Leistungen auf verschiedenen Ebenen beeinflussen.

! methodische Ergebnisse: Hierbei geht es um die Überprüfung der eingesetzten Test-instrumente und die Weiterentwicklung und kritische Betrachtung der diversen Tests.

5.2 Auswertungssystematik

5.2.1 Prinzipien und Strategien der Datenanalyse

Die durchgeführte Datenerhebung hat zahlreiche Informationen zu individuellen sport-motorischen Leistungen bereit gestellt. Auf Grund der zu bearbeitenden Problemstellung soll die Darstellung und Analyse der Daten der insgesamt 65.518 Testbögen möglichst gezielt im Hinblick auf die Beantwortung der Frage nach dem Leistungsstand der 11- bis 14jährigen

136 Andreas Sandmayr

Schüler vorgenommen werden. Die Datenanalyse ist bereits durch die Konzeptualisierung und die Durchführung der sportmotorischen Tests und Muskelfunktionsprüfungen gezeichnet und erfordert eine sorgfältige Behandlung des Datenmaterials im Sinne eines Datenscreenings.

Bei einer Studie dieser Größenordnung sind bestimmte Verfahren im Rahmen der Datenana-lyse von besonderer Bedeutung (BRANDT 1999,STRAUSS/HAAG/KOLB 1999). Die vorberei-tenden Schritte vor Erstellung deskriptiver und analytischer Verfahren umfassen dabei das Aufdecken von Mess-, Aufzeichnungsfehlern und Ausreißern sowie das Gewichten der Da-ten, das Erstellen von Indizes und RohwerDa-ten, die Klassenbildung, Scorebildungen mit Hilfe der Z-Transformation und der linearen Regression.

NAGEL/WERNECKE/FLEISCHER (1994, 22-24) unterteilen den Bereich der Datenanalyse in die exploratorische (EDA) und konfirmatorische Datenanalyse (CDA). Dabei zielt die explorato-rische Datenanalyse auf die Suche nach Mustern und Eigentümlichkeiten innerhalb der Daten ab. Typische Fragestellungen der EDA richten sich auf

• den Wertebereich, die Verteilung und Kenngrößen der einzelnen Merkmale,

• Abhängigkeiten zwischen den Merkmalen,

• Möglichkeiten der Datenreduktion,

• Ähnlichkeits- und Gruppenstruktur der Daten,

• auffälliges Verhalten einzelner Objekte und

• Strukturierung der Datenmenge.

Das Anliegen der konfirmatorischen Datenanalyse ist es, reproduzierbare Effekte oder Muster in den Daten zu sichern. Das Methodenspektrum der CDA ist mit dem der mathematischen Statistik identisch.

Im Rahmen der Datenanalyse beziehe ich mich in erster Linie auf das Modell von RAO (1995, 105), der eine systematische Vorgangsweise unter Einbeziehung der deskriptiven, explorati-ven und inferentiellen Datenanalyse sowie der Kreuzuntersuchung der Daten vorsieht (Abb. 8). Die Daten repräsentieren sowohl die gesamte Menge an aufgezeichneten Messungen als auch die Verfahren zur Aufzeichnung der Daten und jegliche Vorinformation über die Be-schaffung der Daten und über das zugrundeliegende stochastische Modell.

Die „Klug & Fit“ Studie 137

Datenanalyse (IDA)

Die Kreuzuntersuchung der Daten (KUD) umfasst alle durchgeführten explorativen und an-fänglichen Untersuchungen über die Beschaffenheit der Daten, zur Aufdeckung von Messfeh-lern und Ausreissern und zur Überprüfung der Validität. Wichtig erscheint die Notwendigkeit der Datenbereinigung, um mögliche Fehler zu beseitigen, die die aus der statistischen Analyse gezogenen Schlüsse beeinträchtigen können. Eine Kreuzuntersuchung ist notwendig, um alle Informationen zu erhalten, die für eine sinnvolle Datenanalyse und Interpretation der Daten nötig sind. Mögliche Hauptfragen sind dabei:

• Wie wurden die Daten erhoben und aufgezeichnet?

• Sind die Daten frei von Mess- und Aufzeichnungsfehlern?

• Sind die Konzepte und Definitionen bezüglich der Messungen klar definiert?

• Sind die Daten echt, d.h. erhoben wie angegeben, oder verfälscht, editiert oder auf irgend eine Art verändert?

Abb. 8: Statistische Datenanalyse nach Rao

Adaptiertes Konzept der Datenanalyse bei der Analyse großer Datensätze in Anlehnung an RAO, wel-ches Elemente der deskriptiven Datenanalyse von K. Pearson, der inferentiellen von R.A. Fisher und der explorativen von J. Tukey enthält.

Anfängliche explorative Aufdeckungsanalyse (Aufdecken von Ausreißern, Fehlern, interne Konsistenz,

externe Validierung, spezielle Charakteristika)

Spezifizierung

(Kreuzvalidierung, wie verwendet man Expertenwissen und frühere Resultate)

Beschreibende Datenanalyse

(Aufzählen von Häufigkeiten, Bildung von Relativzahlen, Eintei-lung zu Klassen, Angabe von Prozentwerten, Ordnen und

über-sichtliches Darstellen)

Orientierungshilfe für zukünftige Untersuchungen

Meta- Zusammenfassende Grafische analyse Statistiken Darstellung

Testen von Schätzen Entscheidungs-

Hypothesen (Punkt, Intervall) findung

138 Andreas Sandmayr

• Befinden sich Ausreißer in den Daten, die einen übermäßigen Einfluss auf die statistische Inferenz haben?

• Was ist die tatsächliche Grundgesamtheit, über die die beobachteten Daten Informationen liefern?

• Gibt es (teilweisen oder vollständigen) Non-Response von ausgewählten Elementen einer untersuchten Grundgesamtheit?

• Wurden die Daten aus einer homogenen oder gemischten Grundgesamtheit erhoben?

• Sind alle relevanten Faktoren zur Identifizierung und Klassifizierung der Stich-probenelemente aufgezeichnet?

• Gibt es Vorinformationen über die untersuchte Fragestellung oder über die Beschaffenheit der beobachteten Daten?

Die deskriptive Datenanalyse (DDA) bietet durch Aufzählen von Häufigkeiten, Bildung von Relativzahlen, Einteilung zu Klassen oder die Angabe von Prozentwerten die Möglichkeiten, alle intervallskalierten, aber auch nominal- und ordinalskalierten Variablen zu ordnen und übersichtlich darzustellen. Es kann eine Vielzahl vorliegender Einzeldaten durch charak-teristische Maßzahlen für die zentrale Tendenz (Mittelwert, Median) und die Streuung (Stan-dardabweichung, Quartilangaben) zusammengefasst werden. Lage- und Dispersionsmaße, die Darstellung hervorstechender Charakteristiken der Daten mittels Graphen werden verwendet, um verschiedene Datensätze zu vergleichen. Diese deskriptive Datenanalyse steht im Vorder-grund meiner Auswertungen.

Bei der Verteilung der Statistiken geht es aber auch darum, Grenzen der Unsicherheit in der Inferenz über unbekannte Parameter zu bestimmen und mittels Signifikanzprüfungen auf eine Grundgesamtheit schließen zu können. Diese Methodologie wird inferentielle Datenanalyse (IDA) genannt. Inferentielle Datenanalyse steht für die gesamte Menge an statistischen Me-thoden, basierend auf einem ausgewählten stochastischen Modell zur Schätzung unbekannter Parameter, zum Testen festgelegter Hypothesen, zur Vorhersage zukünftiger Beobachtungen und zur Entscheidungsfindung. Das Ziel der Datenanalyse sollte stets sein, sämtliche vorhan-dene Informationen aus den Daten zu ziehen und sich nicht nur auf die Beantwortung be-stimmter Fragen zu beschränken.

Darüber hinaus ist auch ein integrierter Ansatz nötig, der Methoden bereitstellt, zum richtigen Verständnis sowohl der Daten selber, als auch ihrer Fehler und ihrer speziellen Eigenschaften.

Dieser Ansatz sollte zusätzlich Methoden zur Auswahl eines passenden stochastischen Mo-dells oder einer Klasse von Modellen zur Analyse der Daten liefern, um bestimmte Fragen beantworten und neue Fragen für zukünftige Untersuchungen stellen zu können. Die als explorative Datenanalyse (EDA) bekannte Methodik ist das Verständnis der speziellen

Cha-Die „Klug & Fit“ Studie 139

rakteristika von Daten und die Anwendung robuster Verfahren, um eine breite Klasse in Frage kommender stochastischer Modelle für die Daten einzubeziehen (RAO 1995, 99-107).

Für den Vergleich von Stichproben stehen zahlreiche statistische Prüfverfahren zur Ver-fügung (RAO 1995, WILLIMCZIK 1993). Bei der Bestimmung des methodischen Vorgehens zur Prüfung der Hypothesen sind allerdings die Anwendungsvoraussetzungen der unterschiedli-chen methodisunterschiedli-chen Möglichkeiten wie z.B. die Art, der Umfang sowie die Abhängigkeit der Untersuchungsgruppen, das Skalenniveau und die Verteilungsart in den betreffenden Grund-gesamtheiten zu berücksichtigen.

5.2.2 Auswertungsübersicht

Wie eben beschrieben bieten sich zur Darstellung der bei Untersuchungen zu Ent-wicklungsfragen gewonnenen Daten verschiedene statistische Verfahren an. Die Analyse der im Rahmen der empirischen Untersuchung erhobenen Daten erfolgte mit Hilfe verschiedener Verfahren der deskriptiven Statistik sowie der einfachen und multivariaten Inferenzstatistik.

Alle Verfahren werden in der einschlägigen Literatur (BACKHAUS/ERICHSON/PLINKE/WEIBER

2000, BÖS/HÄNSEL/SCHOTT 2000, WERNECKE 1995, HEISE 1994, NAGEL/ WERNECKE/ FLEISCHER 1994,WILLIMCZIK 1993, BORTZ 1993,SACHS 1993, SACHS 1990) ausführlich be-schrieben, so dass es ausreichend erscheint, die verwendeten Verfahren anzugeben und auf Besonderheiten und spezifische Probleme bei der im Rahmen dieser Arbeit durchgeführten Datenanalysen einzugehen.

Von manchen Testpersonen fehlten einige Daten. Diese wurden als Missing-Angaben ausge-wiesen. Dadurch ergaben sich unterschiedliche Stichproben- und Subpopulationsumfänge.

Die Testergebnisse teilen sich nach ihrer Skalierung in zwei Gruppen. Die Ergebnissse der motorischen Konditions- und Koordinationstests sind intervallskaliert, die Ergebnisse der Muskelfunktionstests sind ordinalskaliert.

Im Dokument Weiterbildung in der ARGE (Seite 137-141)