• Keine Ergebnisse gefunden

3. FÖRDERUNG DER PHONETISCHEN KOMPETENZEN DURCH MUSIK

3.2 Erkenntnisse zur Verbindung von Musik und phonetischen Kompetenzen

3.2.2 L2-Studien: ‚Musical-ability hypothesis’

Untersuchungen zur Verbindung von fremdsprachlichen phonetischen und musikalischen Fähigkeiten bei Erwachsenen finden sich zunächst bei Nakata (2002). Die Studie untersucht bei erwachsenen englischen Muttersprachlern Rhythmus, Dauer, Tonhöhe der Musik sowie Fähigkeiten im Vergleich zur Gemination, Vokaldauer und zu den Tonhöhenakzenten in der L2 Japanisch. Die Ergebnisse zeigen Korrelationen zwischen Rhythmus in Musik und Gemination (längere Aussprache von Konsonanten) in der Phonetik. In der Studie von Tanaka (2004) mit japanischen Studierenden wird das auditive Gedächtnis untersucht und beobachtet „that the memory for both verbal and musical tasks affects proficiency of second language pronunciation, including prosodic features such as stress in word or intonation through a couple of sentences“ (Tanaka 2004: 723).

Die zentrale Grundlage zur Verbindung von fremdsprachlichen phonetischen und musikalischen Fähigkeiten bei Erwachsenen bildet jedoch die empirische Studie von Slevc & Miyake aus dem Jahre 2006 (vgl. Jäncke 2008:

365; Patel 2012: 217-218). Slevc & Miyake bauen ihre ‚Musical-Ability-Hypothesis’ auf drei theoretische Grundlagen auf (vgl. Slevc & Miyake 2006: 3):

• Sprache und Musik sind hierarchisch strukturierte Sequenzen (vgl. Patel 2003)

• neurowissenschaftliche Erkenntnisse belegen, dass sprachspezifische Hirnregionen auch bei musikalischen Prozessen beteiligt sind (vgl. Levitin & Menon 2003)

• musikalische Fähigkeiten können Aspekte der L1 vorhersagen (vgl. Anvary et al. 2002)

In ihrer Studie mit 50 japanischen in den USA lebenden Probanden (late arrival: 11-47 years) belegen sie erstmals empirisch die ‚Musical-ability hypothesis’ für die L2-Perzeption und L2-Produktion bei Erwachsenen.

Neben diversen Sprach- und Sprechtests zur L2 Englisch (Wort-, Satz-, Abschnittsebene) wurden dabei die musikalischen Fähigkeiten der Probanden im Rahmen eines Musiktests mit Akkordanalysen (Anzahl der Töne), Markierungen von Tonhöhenveränderungen und Aufgaben zum Melodiegedächtnis in der Perzeption (3-10 Noten) und Produktion (3-7 Noten) überprüft. Auch andere Variablen wie Aufenthaltsdauer, Häufigkeit und Motivation der L2-Anwendung, Alter bei Übersiedlung, Spracherfahrungen und phonologisches Arbeitsgedächtnis (Kurzzeitgedächtnis) wurden in dieser Studie miteinbezogen und konnten so mit den musikalischen Fähigkeiten verglichen werden (siehe Abb. 3.4). Slevc & Miyake kommen zu dem Ergebnis, dass mit Abstand keine andere Variable die phonologischen Leistungen der L2-Perzeption mehr als die musikalischen Fähigkeiten beeinflusste. Auch bei der L2-Produktion waren die musikalischen Fähigkeiten unmittelbar nach der Aufenthaltsdauer von größter Bedeutung. Probanden mit besseren Leistungen im Musiktest erzielten auch bessere Leistungen in den phonetischen Bereichen. Allerdings wurden viel schwächere Korrelationen bei den Selbsteinschätzungen der Probanden und nur geringe Korrelationen zwischen musikalischen Fähigkeiten und Syntax sowie Lexik beobachtet (vgl. Slevc & Miyake 2006: 9). Zusammenfassend kann auf Grundlage dieser Studie angenommen werden, dass bei Erwachsenen, bei denen in der Regel die Befähigung zur muttersprachenähnlichen L2-Aussprache abnimmt „any ability that helps analyze the novel L2 sound structure is likely beneficial, and musical ability appears to be a perfect candidate“ (ebd. 9). Dabei sind musikalische Fähigkeiten keine notwendige Komponente für den Phonologieerwerb, aber generell kann für Spätlernende gesagt werden, dass „the ability to analyze musical sound structure would also likely facilitate the analysis of a novel phonological structure of an L2“ (ebd.).

Abb. 3.4: Summary of hierarchical regression results for four different domains of L2 proficiency (Slevc & Miyake 2006: 19)

L2 Proficiency and Musical Ability 18

Table 3

Summary of hierarchical regression results for four different domains of L2 proficiency

Model IV R2 ΔR2 df F Final β

L2 Receptive Phonology

Step 1 Age of Arrival (AOA) .06 .06 1,48 2.92~ -0.14 Step 2 Length of Residence (LOR) .23 .17 1,47 10.25** 0.23~

Step 3 Language Use and Exposure (USE) .23 .00 1,46 0.09 0.08

Step 4 Phonological STM .30 .07 1,45 4.90* 0.23~

Step 5 Musical Ability .42 .12 1,44 8.82* 0.37**

L2 Productive Phonology

Step 1 Age of Arrival (AOA) .05 .05 1,48 2.49 -0.13 Step 2 Length of Residence (LOR) .29 .24 1,47 15.59** 0.37*

Step 3 Language Use and Exposure (USE) .29 .00 1,46 0.46 0.10

Step 4 Phonological STM .30 .01 1,45 0.31 0.03

Step 5 Musical Ability .38 .08 1,44 5.53* 0.30*

L2 Syntax

Step 1 Age of Arrival (AOA) .06 .06 1,48 3.06~ -0.18~

Step 2 Length of Residence (LOR) .32 .26 1,47 18.04** 0.31*

Step 3 Language Use and Exposure (USE) .36 .04 1,46 3.16~ 0.28*

Step 4 Phonological STM .51 .15 1,45 13.90** 0.39**

Step 5 Musical Ability .53 .02 1,44 1.34 0.13

L2 Lexical Knowledge

Step 1 Age of Arrival (AOA) .21 .21 1,48 12.94** -0.42**

Step 2 Length of Residence (LOR) .39 .18 1,47 13.28** 0.27*

Step 3 Language Use and Exposure (USE) .48 .09 1,46 8.30* 0.35**

Step 4 Phonological STM .52 .04 1,45 3.92~ 0.21~

Step 5 Musical Ability .52 .00 1,44 0.14 0.04

** p < .005, * p < .05, ~p < .10

Note: “Final β” indicates standardized beta weights for each factor when controlling for all other factors (i.e., standard β weights in Step 5)

53 Milovanov et al. (2008) beobachten auch in Studien mit Schulkindern die Verbindung von musikalischer Begabung (musical aptitude) und L2-Aussprachefertigkeiten. In Vergleichsstudien (Musiker – Nichtmusiker) mit Erwachsenen wurde zudem festgestellt, dass Musiker Tonhöhenverletzungen in Fremdsprachen besser wahrnehmen (vgl. Marques et al. 2007) und im Vergleich zu Nichtmusikern in der L2 eine bessere Aussprache nahezu ohne Akzent erwerben können. Pastuszek-Lipińska (2008) belegen auch Korrelationen zwischen der Länge des Musiktrainings von Teilnehmern und deren Fähigkeit fremdsprachliche Phrasen zu imitieren. Quinn (1996) stellte bei erwachsenen Lernenden weiterhin fest, dass die Wahrnehmung von Akzenten in der L2 Englisch durch Lieder gefördert werden kann und Flottmann (2011) konnte aktuell belegen, dass ein Musik-Hörtraining die perzeptive Leistung erwachsener Lernenden bei der Lautunterscheidung einer unbekannten Fremdsprache beeinflusst.

Kolinsky et al. (2009a) kritisieren, dass Slevc & Miyake (2006) in ihrer Studie lediglich segmentale Kontraste untersuchen. Deshalb erweitern sie den Ansatz und können in ihrer Studie bei Erwachsenen auch Transfereffekte von Musikexpertise (Musiker - Nichtmusiker) auf prosodische Kontraste belegen:

„Yet, Slevc and Miyake only looked at the ability to discriminate segmental contrasts, by asking participants to decide which member of a minimal pair like “playing/praying” was presented in contextually neutral sentences.

What the present results suggest is that music training may favor second language learning by improving the ability not only to process non-native segmental contrasts (as shown by Slevc & Miyake, 2006) but also to process (or to pay attention to) non-native prosodic contrasts. Our finding that musicians show increased sensitivity to stress contrasts in a foreign language (the English-like nonwords they were presented with) is consistent with the fact that musicians are more sensitive than nonmusicians to pitch variations in intonation contours for a foreign language that they do not understand (Marques, Moreno, Castro, & Besson, 2007).“ (Kolinsky et al. 2009a: 244)

Verwirrend ist die synonyme Verwendung der Begriffe Musikexpertise und Musiktraining in diesem Artikel.

Die Musikexpertise erleichtert ‚lexical stress processing’. Vielleicht würde daher ein Musiktraining auch die Lesefertigkeiten in einer akzentzählenden Fremdsprache beeinflussen:

„In any case, the fact that musicianship affords an advantage for lexical stress processing may have important educational consequences.“ (ebd. 244)

„In addition, the positive effect of music training could generalize to reading abilities, since stress processing abilities influence reading development in a second, stress-based language (Goetry, Wade-Woolley, Kolinsky, &

Mousty, 2006).“ (ebd. 245)

Die ‚Musical-ability hypothesis’ von Slevc & Miyake wird als einer der Belege für das ‚Resource-sharing framework’ und die ‚OPERA hypothesis’ verwendet (Patel 2003, 2008, 2011, 2012), die im Folgenden dem Ansatz der Modularität gegenübergestellt werden.

3.2.3 ‚Resource-sharing framework’ versus ‚Modularity of music processing’

In der kognitiven Neurowissenschaft stehen sich vor allem zwei Positionen gegenüber, die durch verschiedene Ergebnisse im Bereich Neuroimaging und der Neuropsychologie begründet sind. Im Bereich Neuroimaging liegen zahlreiche Ergebnisse vor, die eine gemeinsame Nutzung der Ressourcen für Sprache und Musik belegen, so auch für die phonetischen Kompetenzen, und deshalb von einem ‚Resource-sharing framework’ ausgehen (vgl. Koelsch 2005, 2011; Patel 2003, 2008, 2011, 2012). Demgegenüber stehen Ergebnisse aus der Neuropsychologie mit Amusie- und Aphasie-Patienten, die vielfach eine Modularität von Sprache und Musik belegen und daher eine ‚Modularity of music and language processing’ zugrunde legen (vgl. Peretz & Coltheart 2003; Peretz 2009, 2012). Die widersprüchlichen Ergebnisse in Neuroimaging und Neuropsychologie führen immer wieder zu großen Diskussionen zum Verhältnis von sprachlicher und musikalischer Verarbeitung und deren Korrelation.

A. Verarbeitung von Sprache und Musik aus Sicht des Neuroimaging

Patel (2008; 2011; 2012) beruft sich auf die Ergebnisse im Bereich Neuroimaging (siehe Kap. 3.1.2), die

‚Musical-ability hypothesis’ von Slevc & Miyake (2006) (siehe Kap. 3.2.2) sowie den folgenden Ergebnissen anderer Studien im Bereich Phonologie (vgl. Patel 2012: 218):

54

• Musical training improves temporal processing abilities, which are relevant to phonological segmentation skills (vgl. Overy et al. 2003)

• Musical training improves auditory rapid spectrotemporal processing, which is used in the processing of linguistic phonemic components (Tallal & Gaab 2006)

• Musical experience improves sensory encoding of dynamically changing sounds, this improved sensory processing benefits the perception of speech (Overy et al. 2003, Tallal & Gaab 2006)

• Sensory tuning occurs at a very early stage of brain processing, at a very basic neural level (Wong et al. 2007)

• Musicians are more sensitive to subtle pitch variations in speech than non-musicians (Schön et al. 2004; Magne et al. 2006)

Er kommt zu der Schlussfolgerung: „There is growing evidence that either pitch-related or rhythm-related musical skills are related to phonemic abilities in language, such as the segmentation, categorization, or discrimination of phonemes“ (Patel 2012: 216).

Weiterhin betont er jedoch auch die im Gegensatz zum Neuroimaging festgestellten Ergebnisse in der Neuropsychologie „auditory phonemic encoding of sounds can be selectively disrupted by brain damage, leaving the perception of musical sounds intact“ (ebd.) und nimmt daher an „that the end products of phonemic development are unique, but that some of the processes that give rise to these representations are shared by music and language (cf. Mc Mullen & Saffran, 2004)“ (Patel 2012: 216).

Darauf baut er eine weitere Hypothese auf neurowissenschaftlicher Basis auf, die OPERA-Hypothese (2011).

Diese begründet das Profitieren von musikalischem Training auf die Sprechkompetenz durch die adaptive Plastizität in Sprechverarbeitungsnetzwerken (vgl. Patel 2011: 12). Es erfolgt hierbei eine anpassende Plastizität, wenn folgende fünf Bedingungen vorliegen (vgl. ebd. 1):

Overlap: anatomical overlap in the brain networks that process an acoustic feature used in both music and speech

Precision: music places higher demands on these shared networks than does speech, in terms of the precision of processing

Emotion: the musical activities that engage this network elicit strong positive emotion

Repetition: the musical activities that engage this network are frequently repeated

Attention: the musical activities that engage this network are associated with focused attention

Die OPERA-Hypothese versucht somit zu erklären, warum und mit welchen Mechanismen musikalisches Training sprachliche Fähigkeiten und hierbei insbesondere phonetische Kompetenzen verbessern kann.

Interessant ist die Vermutung, dass Musikperzeption eine höhere Verarbeitungspräzision bei den gemeinsam genutzten Netzwerken erfordert als die Sprachperzeption, zumal nach Koelsch (2011: 15) beispielsweise die Segmentation phonemischer Information bei Sprachperzeption eine höhere zeitliche Resolution verlangt.

Allerdings haben in der Musik kleinste tonale oder temporale Veränderungen große Veränderungswirkungen.

Patel beruft sich außerdem auf die bessere Perzeption von Sprache bei Musikern im Vergleich zu Nichtmusikern (vgl Patel 2011: 6-8).

B. Verarbeitung von Sprache und Musik aus neuropsychologischer Sicht

Peretz (2003; 2009; 2012) kritisiert die Neuroimaging-Theorie des ‚Resource-sharing framework’. Aus neuropsychologischer Sicht führt sie diverse Argumente zur Widerlegung dieser Theorie auf. Zusammen mit Coltheart entwickelt sie das Modell ‚Modularity of Music Processing’ (2003), welches auf die Ergebnisse in der Neuropsychologie mit Aphasie- und Amusie-Patienten aufgebaut ist. Dabei gehen Peretz & Coltheart von einer Modularität von Singen und Sprechen aus (vgl. Abb. 3.5: domain-specific to music: green; domain-specific to phonology: blue). Dagegen bleibt die temporale Organisation (Rhythmus und Metrum) ungeklärt und eine gemeinsame Verarbeitung in Sprache und Musik wäre in diesem Bereich auch aus neuropsychologischer Sicht möglich. Goswami (2012: 293) ergänzt das Modell später durch die temporale Organisation als direkten Input der Phonologie.

55 Abb. 3.5: Modularity of music processing (Peretz & Coltheart 2003: 690)

Die Modularität innerhalb der Perzeption wurde nach Peretz (2009: 161) bereits in diversen früheren neuropsychologischen Studien beobachtet und diskutiert.43 Die Arbeitsgruppe um Peretz untersuchte daher in den letzten Jahren insbesondere die Modularität innerhalb der Produktion (Singen und Sprechen, siehe auch Kap. 3.2.4). Bei der Argumentation führt Peretz (2009: 162-169) insbesondere vier Quellenbelege für eine Modularität innerhalb der Produktion an:

• Neuropsychologische Dissoziationen als starke zwingende Belege

In verschiedenen Studien mit Aphasie- und Amusie-Patienten wurden doppelte Dissoziationen von Singen und Sprechen beobachtet. So können grob zusammengefasst Aphasie-Patienten nicht sprechen, aber weiterhin Melodien singen und Amusie-Patienten nicht singen, aber weiterhin sprechen.

Unterschiede durch einen Expertise-Effekt (Musiker – Nichtmusiker) wurden nicht festgestellt. Aus den Ergebnissen kann abgeleitet werden, dass „speech production, whether sung or spoken, is mediated by the same (impaired) language output system, and that this speech route is distinct from both the (spared) musical and prosodic route“ (Peretz 2009: 162). Die Beeinträchtigungen bei Amusie-Patienten betreffen nur die Tonhöhendimension, nicht jedoch die temporale Dimension. So können Rhythmus- und Tonhöhenstörungen unabhängig voneinander auftreten (vgl. ebd. 164).

• Überlappung in Neuroimaging

Die Musikverarbeitung beansprucht eine riesige Menge an Netzwerkregionen in beiden Hemisphären, wahrscheinlich mehr als die Sprachverarbeitung. Daher sei es keine Überraschung, dass es teilweise zu Überschneidungen komme, was allerdings eine Modularität nicht infrage stelle. In direkten Vergleichen von Sprechen und Singen sind nach Peretz daher die sich unterscheidenden Aktivierungspattern aufschlussreicher. So fasst Peretz zusammen:

„Speech and music not only recruit widely distributed networks of brain regions but also involve multiple processing systems that might be shared. The number of networks involved is particularly large in the case of production tasks since the output system also involves the perceptual systems for auditory monitoring. Many of these processing components might be shared between music and speech, especially when singing contains lyrics.“ (Peretz 2009: 164-165)

43 Siehe Studien zur Perzeption: Peretz (2001); Justus & Hutsler (2005); McDermott & Hauser (2005).

56 Peretz argumentiert weiterhin, dass neuropsychologische Daten eine größere Beweiskraft als Neuroimaging-Daten haben:

„neuroimaging data cannot rival neuropsychological data. This is because neural and functional dissociations have greater inferential power than overlap or associations. Neuroimaging studies are correlational. Moreover, each activated brain area is a vast region that can easily accommodate more than one distinct processing network. Higher resolution may reveal distinct areas. Thus, neuroimaging data alone can hardly be regarded as a challenge to domain-specificity for music (and for language). (ebd.:

166)

• Interferenz- oder Erleichterungseffekte

Durch die Methode der ‚Transcranial Magnetic Stimulation’ (TMS) können Interferenzen zielgerichtet vorübergehend produziert werden und auf diese Weise neurale Prozesse und Reaktionen als essentiell belegen. So konnten beispielsweise Interferenz- und Erleichterungseffekte zwischen Text und Melodie beim Singen von Liedern beobachtet werden:

„the text and melody in songs interact with each other. It does not imply that melody and text are processed by a common core of mechanisms. On the contrary, the current evidence points to the existence of largely separable components that compete for general attention or memory. Thus, the observation of interference (or facilitation) does not challenge modularity, it only questions encapsulation. The use of information from multiple sources, especially in singing, is to be expected from an efficient system.“

(ebd. 167)

Die Beobachtung von Interferenzen oder Erleichterungen stellt nach Peretz jedoch nicht die Modularität infrage.

• Domänen-Transfer-Effekte

Transfereffekte zwischen musikalischen und sprachlichen Fähigkeiten wurden in diversen Studien beobachtet und führten zur Annahme eines gemeinsam benutzten Mechanismus von Sprache und Musik. Es gibt nach Peretz jedoch zahlreiche Mängel in den Studien.44 So werden viele Begriffe synonym verwendet, aber „musical aptitude, music lessons, and musicians are related but not identical concepts“ (ebd. 168). In diesem Rahmen kritisiert sie auch immer wieder die Studie von Slevc &

Miyake (2006). Ein weiteres Problem ist die Beschaffenheit und Bestimmtheit von Verbindungen zwischen musikalischer Erfahrung und Kognition. Zudem seien Schlussfolgerungen der Verursachung in Korrelationsstudien nicht begründet:

„Observed associations between music and language, as that reported by Slevc and Miyake (2006) and by Pfordrescher and Brown (2009) could just be the product of executive function, domain-general attentional or corticofugal (Wong, Skoe, Russo, Dees, & Kraus, 2007) influences.“ (Peretz 2009: 169) Insgesamt bestehen somit zwar isolierte experimentale Belege zu Transfereffekten, aber zusätzliche Studien mit randomisierten Aufgaben seien notwendig.

Peretz betont weiterhin in diesem Zusammenhang die unterschiedliche Begriffsbestimmung von

‚domain-specificity’ aus modularer Sicht und im ‚Resource-sharing Framework’ von Patel (2003; 2008;

2012), wo es sich nur auf die Repräsentation bezieht und von der Verarbeitung abgegrenzt wird:

„domain-specificity only applies to representations or knowledge. The operations that operate upon these domain-specific representations can be shared or domain-general. Patel refers to these operations as shared neural resources. In other words, representational specificity is distinguished from processing specificity “ (Peretz 2009: 169)

Im Gegensatz dazu bezeichnet der Begriff Domänenspezifität aus modularer Sicht sowohl die Verarbeitung als auch die Repräsentation.

44 Vgl. auch: Schellenberg & Peretz (2008).

57