1. Kapitel: Erläuterung der Relevanz der Dyslexieforschung sowie Berührungspunkte mit Sprachentwicklungsstörungen. Darstellung der aktuellen Forschungslage und des angenommenen gemeinsamen Kerndefizit der phonologischen Verarbeitungskompetenz. Hinweis zu problematischen Methoden im Forschungsdiskurs. Formulierung der Forschungshypothese.
Kapitel 2: Prinzipien der deutschen Phonetik und Phonologie. Da Dyslexien trotz einiger Überschneidungen in unterschiedlichen Sprachen verschiedene Störungsschwerpunkte haben können,
wird bei der Beschreibung des phonologisch-phonematischen Erwerbs zwischen internationalen und nationalen Befunden unterschieden.
Kapitel 3: Erläuterung des Konstrukts der "Phonologischen Bewusstheit". Neben Befunden zum ungestörten Erwerbsverlauf werden die meistgenutzten Testaufgaben zur Erfassung der PB vorgestellt und kritisch diskutiert.
Kapitel 4: Modelle und Prinzipien, die den ungestörten Lese- und Schriftspracherwerb zu erklären versuchen. Max Colthearts Modelle zum Worterwerb erfahren wegen ihrer stabilen Ergebnisse besondere Betrachtung.
Kapitel 5: Fokussierung auf die beiden relevanten Störungskomplexe SES und Dyslexie (Sprachmaterial vergleichend englisch/deutsch). Aus dem großen Bereich der SES wird die phonologisch begründete Aussprachestörung als spezifische SES ausgewählt und wegen ihrer unterschiedlichen Ausprägungen in Subtypen klassifiziert.
Kapitel 6: Klassifikation von Dyslexien. Vorstellung der fuer die Arbeit relevanten beiden Dyslexietypen und deren Verursacherkonzepte.
Kapitel 7: Methodik der empirischen Studie, an der über 70 Berliner Grundschüler teilnahmen. Die Studie dient der Hypothesenprüfung, dass isoliert rechtschreibgestörte Kinder größere Defizite in der phonologischen Verarbeitung aufweisen werden, als isoliert lesegestörte Kinder und Kontrollkinder.
Das Vorgehen wird erklärt und die Ergebnisse werden berichtet.
Kapitel 8: Interpretation und Diskussion der Ergebnisse im aktuellen Forschungskontext.
Inhaltsverzeichnis
1. Einleitung
1.1 Aufbau der Arbeit
2. Grundlagen der Phonetik und der Phonologie
2.1 Phonetik der deutschen Sprache
2.1.1 Vokale
2.1.2 Konsonanten
2.2 Phonologie der deutschen Sprache
2.3 Befunde zum Erwerb der phonologisch-phonematischen Kompetenz
2.4 Befunde zum Erwerb der phonologisch-phonematischen Kompetenz im Deutschen
3. Phonologische Bewusstheit
3.1 Entwicklung der Phonologischen Bewusstheit
3.1.1 Wortphonologie: Segmentierung von Wörtern und Silben
3.1.2 Reime
3.1.3 Phonemdifferenzierung und –identifikation, Phonemmanipulation
3.1.4 Silbenfolgen wiederholen
3.2 Einordnung des Konstrukts „Phonologische Bewusstheit“ in den Kontext der Phonologischen Kompetenz
4. Modellvorstellungen zum ungestörten Lese- und Schriftspracherwerb
4.1 Das Drei-Stufen-Modell nach Uta Frith (1985)
4..2 Das Vier-Phasen-Modell nach Linnea Ehri (1998)
4..3 Modelle zur Worterkennung
4.3.1 Das Zwei-Routen-Kaskadenmodell nach Max Coltheart et al. (2003)
4.3.2 Kritische Betrachtung des Zwei-Routen-Kaskadenmodells
4.3.3 Adaption des Zwei-Routen-Kaskadenmodells fürs Deutsche
5. Phonologisch begründete Aussprachestörungen
5.1 Psycholinguistisches Klassifikationsmodell nach Barbara Dodd (1995)
5.1.1 Artikulationsstörung
5.1.2 Phonologische Verzögerung
5.1.3 Konsequente Phonologische Störung
5.1.4 Inkonsequente Phonologische Störung
5.2 Aussprachestörungen bei deutschsprachigen Kindern
5.3 Sprachentwicklungsstörungen und Dyslexie
6. Dyslexie
6.1 Ätiologische Konzepte
6.1.1 Phonologisches Verarbeitungsdefizit
6.1.2 Auditiv-temporales Verarbeitungsdefizit
6.1.3 Genetische Befunde
6.1.4 Erkenntnisse aus der Neurobiologie
6.2 Differenzierung
6.2.1 Oberflächendyslexie, Phonologische Dyslexie
6.2.2 Doppeldefizit-Hypothese
7. Methode
7.1 Fragestellung
7.2 Design
7.3 Probanden
7.3.1 Ein- und Ausschlusskriterien 70 7.4 Erhebungsinstrumente
7.5 Durchführung
7.6 Ergebnisse
8. Evaluation und Diskussion der Ergebnisse
8.1 Was bedeuten die Ergebnisse für den Zusammenhang von SES und Dyslexie?
8.2 Zusammenfassung der Ergebnisse in Bezug auf die Ausgangsfragen
9. Ausblick
Literaturverzeichnis
Appendix
1. Einleitung
Laut dem Statistischen Bundesamt leben in Deutschland zum jetzigen Zeitpunkt 82.000.000 Menschen. Schätzungen zufolge müssten davon 3 bis 10% als lese- und rechtschreibschwach eingestuft werden (Haffner et al., 1998; Schulte-Körne, Deimel, & Remschmidt, 2001). Die Rechtschreibleistungen von 6 bis 9% der erwachsenen Deutschen liegen unterhalb des durchschnittlichen Niveaus eines Viertklässlers (Hafner et al. 1998).
Viele dieser Menschen sind von einer Entwicklungsdyslexie betroffen, also einer Lese-Rechtschreibschwäche, die nicht im Verlauf des Lebens erworben wurde.
Sie fallen zu Beginn der ersten Klasse häufig dadurch auf, dass sie das Alphabet nur mit Schwierigkeiten erlernen und Probleme beim Benennen einzelner Buchstaben haben. Auch das Reimen, das schnelle Benennen und die Kategorisierung von Lauten fallen ihnen in unterschiedlichem Ausmaß schwer. Diese Schwächen und deren Konsequenzen bleiben im Erwachsenenleben oft bestehen und wirken sich signifikant auf die akademischen Leistungen aus, wobei die Schreibstörungen meist auffälliger sind als die Lesedefizite (Heim, 2002; Johnson et al. 1999).
Da Dyslexie in unterschiedlichen Sprachen statistisch ähnlich verteilt auftritt, kann dank engagierter Forschung auf zahlreiche Studien sprachvergleichend zugegriffen werden. Die meisten Untersuchungen der letzten 15 Jahre stammen aus dem anglo-amerikanischen Raum, und der Großteil der Dyslexieforscher vertritt die Ansicht, dass eine defizitäre Phonologische Bewusstheit das Kerndefizit der Dyslexie darstellt (Stanovich & Siegel, 1994). Bei der Phonologischen Bewusstheit handelt es sich um ein psychologisches Konstrukt (Mannhaupt & Jansen 1989; Skowronek & Marx, 1989), das verschiedene Fähigkeiten des Kindes im Umgang mit Sprache zusammenfasst. Auch deutsche, österreichische und französische Studien gehen von einem phonologischen Kerndefizit aus, wie die Befunde von Markéta Caravolas, Charles Hulme und Margaret Snowling (2001), Èlisabeth Demont (2006), Virginia Mann und Heinz Wimmer (2002), Sabisch, Hahne, Glass, Suchodoletz und Friederici ( 2006), Eraldo Paulesu et al. (2001) und Snowling (2000) eindrucksvoll belegen.
Eine schwache Phonologische Bewusstheit wird auch immer wieder im Kontext von Sprachentwicklungsstörungen (SES) hervorgehoben (Nathan et al., 2004; Tallal, Stark, Kallman, & Mellits, 1980).
Dyslexie und SES werden in den diagnostischen Standardwerken (z.B. DSM-IV, American Psychiatric Association, 1994) als zwei unterschiedliche Störungen abgehandelt. Ob es sich aber tatsächlich um zwei distinkte Störungsbilder handelt oder vielleicht eher um ein Kontinuum, ist Gegenstand vehementer Diskussionen (Bishop & Snowling, 2004; Catts, 1993; Tallal et al. 1997). Die vielen Überschneidungen in den Testergebnissen lassen diese Annahme auf den ersten Blick durchaus plausibel erscheinen:
Oft wird sowohl bei SES- als auch bei späteren Dyslexiepatienten in früher Kindheit ein verzögerter Spracherwerb registriert. Außerdem zeigen beide Gruppen in den allermeisten Studien Defizite in der Phonologischen Bewusstheit und der phonologischen Verarbeitung, die als charakteristisch für Dyslektiker angesehen werden (Stackhouse & Wells, 1997). Viele Kinder mit SES stehen vor großen Problemen, wenn sie in der Schule Lesen und Schreiben lernen (Scarborough 1990, Mc Arthur et al., 2000).
Aufgrund der zahlreichen Befunde, die auf Gemeinsamkeiten im Bereich einer defizitären phonologischen Verarbeitung hinweisen, gelangen einige Wissenschaftler zu dem Schluss, dass Dyslexie eine abgeschwächte Form von SES sein könnte. Dieser Annahme zufolge würde es sich bei Dyslexie „nur“ um ein punktuelles Defizit im phonologischen System handeln, oder um eine „Reststörung“ im phonologischen Bereich, die übrig bliebe, nachdem die eigentliche SES größtenteils überwunden wäre (Aram, Ekelman, & Nation 1984; Paulesu et al. 1996; Scarborough & Dobrich, 1990).
Im Verlauf dieser Arbeit wird immer wieder deutlich werden, dass der Begriff „Dyslexie“ über lange Zeit indifferent diskutiert und behandelt wurde. Das wiegt umso schwerer, als Patricia Bowers und Maryanne Wolf (1993) bereits vor 15 Jahren und auch danach mehrfach (Wolf & Bowers 1999, Wolf, Bowers, & Biddle, 2000; Wolf et al. 2002) auf ein doppeltes Defizit bei Dyslektikern hingewiesen haben.
Sie hatten festgestellt, dass es einerseits dyslektische Kinder mit einem Defizit in der Phonologischen Bewusstheit gibt und andererseits dyslektische Kinder, die ein Defizit im schnellen Benennen zeigen, ohne dass deren Phonologische Bewusstheit beeinträchtigt ist. Die dritte Gruppe bestand aus Kindern mit einem gemischten Störungsbild, also einem doppelten Defizit.
Heinz Wimmer, Heinz Mayringer und Karin Landerl (2000) setzten die Doppeldefizittheorie in einer Longitudinalstudie mit deutschsprachigen Kindern zu deren Lese- und Rechtschreibfähigkeiten in bezug. Dabei gelangten die Autoren zu der Erkenntnis, dass es isoliert lesegestörte Kinder gibt, die kein phonologisches Defizit, aber große Schwierigkeiten im schnellen Benennen haben und isoliert rechtschreibgestörte Kinder, die deutliche Probleme in der phonologischen Verarbeitung zeigen. Zudem gab es auch eine Reihe von Kindern die sowohl beim Lesen, als auch beim Schreiben, in der Phonologischen Bewusstheit und im schnellen Benennen unterschiedlich starke Defizite aufwiesen.
Die traditionelle Vorgehensweise, in Untersuchungen isoliert lesegestörte Kinder, isoliert rechtschreibgestörte Kinder und Kinder mit gemischtem Störungsbild in einer Gruppe zusammenzufassen, ist sehr problematisch. Sie führt bis heute zu zahllosen widersprüchlichen Studienergebnissen.
Um dieser Erkenntnis Rechnung zu tragen, und um ein phonologisches Defizit als ein Kerndefizit einer Dyslexie gegebenenfalls zu widerlegen, werden im Rahmen dieser Arbeit erstmals für den deutschsprachigen Raum die phonologischen Kompetenzen isoliert lesegestörter Kinder denen isoliert rechtschreibgestörter Kinder gegenübergestellt.
Sollte Dyslexie tatsächlich nur eine Reststörung oder eine abgeschwächte Form von SES sein, müssten beide Dyslexiegruppen mit isoliertem Störungsbild signifikante Schwächen in der phonologischen Kompetenz aufweisen.
Bewahrheitet sich hingegen die Doppeldefizithypothese von Wimmer, Mayringer und Landerl (2000; Wimmer & Mayringer 2002), dann sollten im empirischen Teil der Arbeit höchstens die isoliert rechtschreibgestörten Kinder Probleme mit den Aufgaben zur phonologischen Kompetenz haben.
Das wiederum würde die Annahme in Frage stellen, Dyslexie stelle ein Restdefizit von SES dar. Ein gemeinsames Kerndefizit „phonologische Kompetenz“ könnte zwischen den beiden isoliert gestörten Experimentalgruppen in diesem Fall nämlich nicht nachgewiesen werden.
Im Einzelnen soll die vorliegende Arbeit folgende Fragen klären:
Welche phonologischen Kompetenzen können wir von Grundschülern
- der dritten bis sechsten Schulstufe erwarten, die kognitiv und bezüglich ihrer
- orthographischen Leistungen altersentsprechend entwickelt sind?
- Zeigen Kinder mit isolierter Rechtschreibstörung, die ansonsten aber kognitiv
- altersentsprechend entwickelt sind phonologische Defizite?
- Zeigen hingegen Kinder mit isolierter Lesestörung, die ansonsten kognitiv
altersentsprechend entwickelt sind, keine phonologischen Defizite?
Die gerichtete Alternativhypothese des empirischen Teils dieser Arbeit lautet, dass isoliert rechtschreibschwache Kinder im MAUS Test (Münchener auditiver Screeningtest für Wahrnehmungs- und Verarbeitungsstörungen) schlechter abschneiden werden als isoliert leseschwache Kinder und Kontrollkinder.
Diese Annahme resultiert aus der differenzierten Betrachtung einiger in der Arbeit aufgeführter Studienergebnisse sowie den Testergebnissen im Verlauf des Guckomobil Projekts.
1.1 Aufbau der Arbeit
Im ersten Kapitel werden die Relevanz der Dyslexieforschung und die Berührungspunkte mit Sprachentwicklungsstörungen kurz erläutert. Nach einer groben Darstellung der aktuellen Forschungslage wird das angenommene gemeinsame Kerndefizit der phonologischen Verarbeitungskompetenz eingeführt und es wird auf problematische Methoden im Forschungsdiskurs hingewiesen. Abschließend werden die zu klärenden Fragen gestellt und die Forschungshypothese formuliert.
Um eine einheitliche Grundlagen für das Verständnis des Forschungsgegenstandes zu schaffen, werden in Kapitel 2 die Prinzipien der deutschen Phonetik und Phonologie vorgestellt. Da Dyslexien trotz einiger Überschneidungen in unterschiedlichen Sprachen verschiedene Störungsschwerpunkte haben können,
wird bei der Beschreibung des phonologisch-phonematischen Erwerbs zwischen internationalen und nationalen Befunden unterschieden.
Kapitel 3 erläutert das psychologische Konstrukt der Phonologischen Bewusstheit, führt die allgemein anerkannten Kerngebiete an und greift die uneinheitliche Anwendung des Begriffs auf. Neben Befunden zum ungestörten Erwerbsverlauf werden die meistgenutzten Testaufgaben zur Erfassung der Phonologischen Bewusstheit vorgestellt und kritisch betrachtet.
In Kapitel 4 werden einige Modelle angeführt, die erklären, wie der ungestörte Lese- und Schriftspracherwerb erfolgen könnte und welche unterschiedlichen Prinzipien dabei angenommen werden. Max Colthearts Modelle zum Worterwerb erfahren wegen ihrer stabilen Ergebnisse eine besondere Betrachtung.
Nachdem bisher die ungestörten Entwicklungsprozesse dargelegt wurden, erfolgt ab Kapitel 5 eine Fokussierung auf die beiden relevanten Störungskomplexe SES und Dyslexie. Aus dem großen Bereich der SES wird die phonologisch begründete Aussprachestörung als spezifische SES ausgewählt und wegen ihrer unterschiedlichen Ausprägungen in Subtypen klassifiziert. Da Barbara Dodd (1995) in ihrem Klassifikationsmodell englischsprachige Kinder begutachtete, aber die Befundlage für deutsche Kinder nicht identisch ist, ergänzen Beobachtungen an deutschen Kindern das Kapitel.
In Abgrenzung zur phonologisch begründeten Aussprachestörung werden in Abschnitt 6 die Dyslexien und die für diese Arbeit relevanten Verursacherkonzepte vorgestellt. Da bereits in der Einleitung deutlich wird, dass Dyslexie sehr facettenreich auftritt, wird auch hier eine Klassifikation vorgenommen.
Kapitel 7 umfasst die Methodik der empirischen Studie, an der über 70 Berliner Grundschüler teilnahmen. Die Studie dient der Hypothesenprüfung, dass isoliert rechtschreibgestörte Kinder größere Defizite in der phonologischen Verarbeitung aufweisen werden, als isoliert lesegestörte Kinder und Kontrollkinder.
Das Vorgehen wird erklärt und die Ergebnisse werden berichtet.
In Kapitel 8 werden die Ergebnisse interpretiert und bezüglich der einleitenden Fragestellungen im aktuellen Forschungskontext diskutiert.
Die Arbeit schließt mit dem Ausblick auf noch ungeklärte Fragen und mögliche Ansätze, die helfen werden, den komplexen Sachverhalten auf den Grund zu kommen.
2. Grundlagen der Phonetik und der Phonologie
Laut Hans Altmann und Ute Ziegenhain (2007) befasst sich die Phonetik vor allem mit den physikalischen und physiologischen Eigenschaften menschlicher Lautäußerungen. Grundsätzlich wird dabei zwischen artikulatorischer Phonetik, akustischer Phonetik und perzeptiver Phonetik unterschieden.
Im Rahmen dieser Arbeit stehen die artikulatorische, vor allem aber die perzeptive Phonetik im Vordergrund. Artikulatorische Phonetik analysiert die Produktion von Stimmschallereignissen, von der kortikalen Vorbereitung bis zur konkreten Artikulationsbewegung des Sprechapparates. Transkribiert man ein Sprachschallereignis lautschriftlich nach dem konventionalisierten IPA System (International Phonetic Association, 2005), erhält man einen Zeichencode, der, wenn er wieder exakt in Sprachlaute rückübersetzt wird, zu einer sehr genauen Reproduktion des ursprünglichen Schallereignisses führt.
Die perzeptive Phonetik hingegen untersucht die Wahrnehmung und Verarbeitung von Stimmschallereignissen. Sie rekonstruiert, wie ein Stimmschallereignis in der Wahrnehmung zugeordnet und klassifiziert wird. Üblicherweise werden Sprachlaute in der artikulatorischen Phonetik durch die beteiligten Sprechwerkzeuge und den Artikulationsmodus klassifiziert (Pompino-Marshall, 2003). Die Sprechwerkzeuge, Zunge, Lippen, Zäpfchen und Stimmlippen produzieren einzelne Laute an verschiedenen Artikulationsorten, an der Ober- und/oder Unterlippe, an der oberen Zahnreihe, dem Zahndamm, dem harten und dem weichen Gaumen. Utz Maas (2006) rechnet auch die Brustmuskulatur und das Zwerchfell noch zu den Sprechwerkzeugen, da der Druck des Luftstroms sowie die Druckfrequenz während der Artikulation eine bedeutende Rolle spielt. Dieser infraglottale Bereich bildet die Grundlage der sprachlichen Rhythmizität. Die Veränderung des Luftstromdruckes dient der Silben- und Akzentgliederung und dem Prosodieverlauf der Sprache.
Der Artikulationsmodus beschreibt die Art und Weise der Lautproduktion, beispielsweise bilabial, also Ober- und Unterlippe gemeinsam verwendend.
Die perzeptive Phonetik, also die Fähigkeit zur Wahrnehmung und Verarbeitung auditiver Signale, setzt ein ungestörtes Hörvermögen voraus.
Im Gespräch treffen Schallreize mit geringer Zeitverzögerung auf beide Ohren, also auf beide primäre auditorische Cortices. Sie gelangen durch den Gehörgang auf das Trommelfell, dann über Hammer, Amboss und Steigbügel ins Innenohr.
Die weitere Schalltransduktion erfolgt mit Hilfe der Cochlea und des Corti-Organs, in dem Haarzellen eine Re- oder Depolarisierung erfahren, die, vereinfacht gesagt, der Schallkodierung dient. Vom Nervus statoacusticus aus werden die Impulscodes subkortikal weitergeleitet. In den Olivenkernen besteht erstmals die Möglichkeit, die ankommenden Signale aus dem rechten und dem linken Ohr miteinander zu vergleichen. Schließlich zieht die so generierte Information auf afferenten Fasern in den posterioren Temporallappen (Birbaumer & Schmidt, 2006).
Funktional betrachtet beginnt in den primären auditorischen Cortices die grundlegende Informationsverarbeitung, denn hier werden Schalldruck, Lautstärke, Frequenzschwankungen und Schallortung analysiert. Um ein Geräuschechaos zu vermeiden, müssen die Schallwellen verschiedener, sich eventuell überlagernder Schallquellen realisiert, gefiltert, voneinander getrennt und im Raum verortet werden.
Im Gegensatz zur Phonetik befasst sich die Phonologie mit konventionalisierten Mustern, die von Sprachgemeinschaft zu Sprachgemeinschaft verschieden sind. Kinder eignen sie sich im Zuge des Erstspracherwerbs an. Die sprachspezifischen Muster spielen für den späteren Schriftspracherwerb eine bedeutende Rolle.
Die physikalische Manifestation eines einzelnen Lautes heißt Phon. Die Zahl der Phone ist grenzenlos. Selbst wenn man versucht, einen Laut zehnmal auf
die gleiche Weise zu reproduzieren, wird eine Lautspektroskopie anhand des spezifischen Wellenmusters beweisen, dass kein Reproduktionsversuch mit einem anderen identisch ist.
Teilt man die Phone in funktionale Gruppen ein, die Bedeutungsunterschiede herbeiführen, so spricht man von Phonemen. Ein Phonem wird oft als die die kleinste bedeutungsunterscheidende Einheit eines Lautsystems definiert (Koerner, 1978).
Die Menge aller Phoneme, die in einer Sprache vorkommen, wird als Phoneminventar bezeichnet. Linke, Nussbaumer und Portmann (1994) kommen durch sprachvergleichende Studien zu dem Schluss, dass je nach Sprachvarietät zwischen 20 und 40 Phoneme das jeweilige Phoneminventar bilden. Diese Phoneme sind zusammengefasste Klassen von Phonen und haben jeweils eine idealtypische Lautung zum Vorbild. Deren Umsetzung braucht aber nicht exakt gewährleistet zu sein, damit das Gehirn die Bedeutungsunterscheidungen wahrnehmen kann.
2.1 Phonetik der deutschen Sprache
Kinder die ihre Muttersprache erwerben, müssen lernen, welche Phoneme in ihrer Muttersprache vorkommen und wie sie artikuliert werden. Zudem brauchen sie ein Regelwerk, das zulässige von unzulässigen Lautkombinationen unterscheidet.
Um einen international vergleichbaren Standard zu schaffen, hat die IPA ein Lautschriftsystem entwickelt, mit dem nahezu alle natürlichen Sprachen lautgerecht notiert werden können. Sie sieht seit 2005 fürs Deutsche eine phonetische Umschrift von 23 Konsonanten, 13 Vokalen und 3 Diphtongen vor:
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 1. Lautkodierung des Deutschen entsprechend den Vorgaben der IPA
aus: „Kindliche Aussprachestörungen“, A. Fox, 2004, S. 26.
Das Deutsche bietet die Möglichkeit, sowohl in der Wortmitte als auch am Wortende zahlreiche Konsonanten in einer Vielzahl von Variationen aneinanderzureihen.
Das gilt in besonderer Weise für konjugierte Verbformen wie „du plantschst“ [ntʃst].
Wortinitial sind höchstens drei Konsonanten hintereinander legitim, sowohl bei Verben als auch bei Substantiven. Ein für „unauffällig sprachverarbeitende Menschen“ eher theoretisches Problem der Phonetik liegt in der Koartikulation begründet. Der alltägliche Sprachgebrauch weicht insofern vom Ideal der isolierten Lautung ab, als dass in der Sprechsprache Laute fast nie in ihrer Reinform vorkommen. Das Gehirn muss also eine große Abstraktionsleistung erbringen, um aus den verschliffenen Sprachlauten einer Äußerung die richtige phonemische Zuordnung zu extrahieren und ein inhaltlich sinnstiftendes Wort zu generieren.
2.1.1 Vokale
Um einen stimmhaften Laut zu erzeugen, muss ein Luftstrom die Glottis durchbrechen. Dieser Prozess bildet die Grundlage, auf der dann durch die Modifikation von Tonhöhe und Lautstärke ein Klangsignal entsteht. Wird der durch die Glottis entlassene Luftstrom in periodische Schwingungen versetzt, wird das entstandene Geräusch als Klang wahrgenommen, im Gegensatz zu aperiodischen Schwingungen, die als Rauschen gehört werden (Linke, Nussbaumer, & Portmann, 1994). Grundsätzlich lassen sich Vokale in Monophtonge, also Einzelvokale und Diphtonge, feste Kombinationen zweier Vokale, einteilen. Durch die Stellung von Zunge, Lippen und vor allem Unterkiefer verändert sich sowohl die Initialposition des Formanten, der die Klangfarbe des Vokals formt, als auch die Schwingungsfrequenz des Luftstroms. Eine genauere Modulation erfolgt durch die Lippenrundung. Bei der Artikulation von Diphtongen vollführen Zunge und Lippen eine Bewegung von einer Vokalposition zur anderen, weshalb man sie auch ausgleitende Diphtonge nennt.
Annette Fox (2004) hält fest, dass Säuglinge im Verlauf der ersten Lallphase, im Alter zwischen zwei und vier Monaten, ihre lautlichen Produktionsmöglichkeiten noch ausprobieren und viele vokalische Phone artikulieren, die nicht zum phonetischen Inventar des Deutschen gehören. Mit etwa einem halben Jahr stellt sich die zweite Lallphase ein und die Kinder beginnen, die eigene Artikulation zunehmend kontrollieren zu können. Ab diesem Zeitpunkt gleicht sich ihre Lautproduktion dem Phoninventar der Muttersprache merklich an.
2.1.2 Konsonanten
Bei der Artikulation von Konsonanten muss, wie Hans Grassegger (2001) festhält, der Luftstrom eine Enge oder einen Verschluss im sogenannten Ansatzrohr passieren. Das Ansatzrohr umfasst die Glottis, den gesamten Rachenraum, den Mundraum und die Lippen. Im Gegensatz zu Vokalen können Konsonanten auch stimmlos sein. Sie werden häufig in einer dreigeteilten Merkmalsmatrix parametrisiert, die erstens anzeigt, ob der Konsonant mit oder ohne Phonation gebildet wird, zweitens Aufschluss darüber gibt, wie die Verengung oder der komplette Luftabschluss produziert wird und drittens, wo im Mundraum der Laut modifiziert wird. Laute, die durch eine Verengung des Luftkanals entstehen, heißen Frikative oder auch Reibelaute. Diese können stimmhaft oder stimmlos sein und werden schließlich noch nach dem genauen Produktionsort kategorisiert. Weitere Artikulationsarten werden in Plosive, Affrikate, Nasale, Approximanten und Vibranten untergliedert. Appendix A zeigt eine solche Zuordnungsmatrix (S. 105).
2.2 Phonologie der deutschen Sprache
Der Begriff Phonologie wird häufig auch als funktionale Phonetik bezeichnet (Maas, 2006). Sie fasst Lautsegmente der Sprechsprache zu funktionellen Einheiten,
den Phonemen zusammen, und vergleicht die Eigenschaften und Relationen dieser Einheiten unter- und miteinander. Die Phonologie analysiert demzufolge Lautunterschiede mit dem Ziel, diese Unterschiede für sprachliche Belange zu nutzen. Aussprachelaute, die keinen funktionalen Unterschied signalisieren, heißen Allophone.
Das Phoneminventar der deutschen Standardsprache umfasst, je nachdem ob man Fox (2004) oder Altmann und Ziegenhain (2007) folgt, zwischen 23 und 24 Konsonanten und 13 bis 17 Vokalphoneme, die sich anhand ihrer positiven oder negativen Merkmalszugehörigkeit in den Dimensionen Artikulationsmodus und Artikulationsort voneinander unterscheiden.
Um eine zuverlässige Übersicht über die jeweilige Zuordnung der distinktiven Merkmale von Phonemen zu gewinnen, wird in der Regel eine Merkmalsmatrix erstellt, von der die jeweiligen +/- Zugehörigkeiten abgelesen werden können. Wichtig ist dabei zu beachten, dass keine zwei Phoneme eine identische Zuordnung haben dürfen, da sie sonst nicht mehr in Opposition zueinander stehen, und nicht mehr bedeutungsunterscheidend sein würden.
Die Merkmalsmatrizen werden aus Gründen der Übersichtlichkeit meist getrennt für Konsonanten und Vokale erstellt. Sie können im Appendix B auf Seite 106 eingesehen werden.
2.3 Befunde zum Erwerb der phonologisch – phonematischen Kompetenz
Die Verarbeitung von Schallereignissen besteht aus mehreren Einzelleistungen:
der auditiven Diskrimination, der Synthese des lautlichen Inputs, gegebenenfalls deren Ergänzung sowie der Sequenzierung, der semantischen Einordnung und der Speicherung des Gehörten. Lange Zeit gab es Uneinigkeit darüber, ab welchem Alter man vom Beginn des phonologischen Erwerbs sprechen kann. John Locke (1983) und Marilyn Vihman (1991) vertraten noch die Ansicht, dass dies der Fall sei, wenn das Kind über die kritische Menge von 50 Wörtern im aktiven Wortschatz verfüge, also etwa mit anderthalb Jahren (Marchman & Bates, 1994). David Ingram (1999) hingegen setzt für sich die Zäsur mit dem einsetzenden Worterwerb, ohne zwischen aktivem und passivem Worterwerb zu unterscheiden. Dennoch lässt sich seinen Ausführungen entnehmen, dass er die einsetzende Wortproduktion im Alter von zwölf Monaten ansiedelt.
Zu Beginn der 90er Jahre ermöglichte es die intrauterine Abhörung in Verknüpfung mit einem Habituierungs-Dishabituierungsparadigma, einen Eindruck davon zu bekommen, welchen auditiven Reizen ein Fötus während der Schwangerschaft ausgesetzt ist. Durch einen Wechsel des Stimulusmaterials können Reaktionen wie zum Beispiel eine erhöhte Herzschlagrate oder Trittbewegungen beim Fötus evoziert und gemessen werden. In der zwanzigsten Woche nach der Zeugung ist das Hörsystem des Fötus ausreichend gut entwickelt, als dass erste Geräusche wahrgenommen werden können. In den letzten zwölf Wochen vor der Geburt wird der Fötus zunehmend vertrauter mit seiner zukünftigen Sprachumgebung.
Er verinnerlicht in dieser Phase wahrscheinlich invariante Eigenschaften der Sprechweise seiner Mutter, die Prosodie der Muttersprache, sowie deren Intonation und rhythmische Muster (Karmiloff & Karmiloff-Smith, 2001). Diese im Mutterleib gesammelten Vorerfahrungen ermöglichen dem Säugling vom Zeitpunkt der Geburt an eine besondere Fokussierung auf die menschliche Sprache, und vor allem eine Ausrichtung auf die Stimme der Mutter. Neugeborene, die vier Tage und jünger sind, zeigen in Untersuchungen bereits ein Erkennen und eine deutliche Präferenz für die Stimme der Mutter, selbst wenn diese low-pass-gefiltert, also technisch dergestalt verändert ist, dass die Amplituden hoher Frequenzbereiche ausgeblendet werden und das Gesagte kaum noch verständlich ist (Brazelton & Cramer, 1991; De Casper & Fifer, 1980; Mehler et al. 1988). Die Kinder ziehen muttersprachliche Stimuli fremdsprachlichen Stimuli vor (Moon, Panneton-Cooper, & Fifer, 1993). Barbara Höhle und Jürgen Weissenborn (1999) entnehmen ihren Studienergebnissen, dass Säuglinge eine kindzugewandte Sprache präferieren und bereits ab ihrer Geburt auf metrische Unterschiede zwischen jambischen und trochäischen Silbenpaaren reagieren. Im Alter von vier Tagen sind Kinder bereits in der Lage, Sätze aus zwei Sprachen auseinanderzuhalten, selbst wenn sie im Mutterleib mit keiner der beiden Präsentationssprachen konfrontiert waren.
Jacques Mehler et al. (1996) machten in einer Folgestudie die erstaunliche Beobachtung, dass ältere Säuglinge mit zwei Monaten zwar immer noch zwei Sprachen voneinander unterscheiden konnten, aber nur noch unter der Bedingung, dass eine der beiden präsentierten Sprachen die Muttersprache war. Dies deutet darauf hin, dass sich bereits in den ersten beiden Lebensmonaten ein Verlust der diskriminatorischen Fähigkeiten von Säuglingen einstellt. Ihr Fokus der Kinder richtet sich zunehmend auf die zu erlernende Muttersprache aus.
Richard Aslin und sein Team (1983) bestimmten den Verlauf der sich verlierenden Diskriminationsfähigkeit etwas genauer. Sie stellten fest, dass Babies aus englischsprachigem Umfeld im Alter von vier Wochen anhand der unterschiedlichen Stimmeinsatzzeiten die bilabialen Plosive /p/ und /b/ unterscheiden konnten.
Die Fähigkeit, auch die labiodentalen Frikative /f/ und /v/ voneinander zu unterscheiden, erwarben sie allerdings erst mit 12 Wochen. Auch hing die Fähigkeit der kategorialen Wahrnehmung konsonantischer Phonemkontraste davon ab, an welcher Stelle im Stimulus der Kontrast positioniert war.
Eine Besonderheit kommt der Wahrnehmung von Vokalen zu, denn diese werden nicht wie Konsonanten als diskrete Einheiten, sondern als Lautkontinua wahrgenommen. Den Übergang von einem Vokal zu einem Konsonanten genau zu bestimmen, ist daher schwieriger, als den Übergang zweier unterschiedlicher Konsonanten ineinander festzustellen. Betrachtet man Spektrogramme isolierter Vokale, so fällt auf, dass diese im Gegensatz zu Konsonanten ein relativ konstantes spektrales Muster aus Linien aufweisen, sogenannte S teady State Formants (Piroth, 2005).
Aslin et al. (1983) sowie Nazzi, Bertoncini und Mehler (1998) stellen übereinstimmend fest, dass drei Tage alte französische Säuglinge, die mit zweimorigen, zweisilbigen Stimuli habituiert wurden, nicht in der Lage dazu sind, auf einen Wechsel der Morigkeit, also der Silbendauer, zu reagieren.
Dieses Resultat deutet darauf hin, dass nicht alle rhythmischen Einheiten den Babies gleichermaßen perzeptiv zugänglich sind. Die Autoren der Studie vermuten, dass europäische Kinder die Anzahl der Vokale in einem Wort „zählen“ und daher keine Sensitivität für die Bedeutung verschiedener Silbendauern entwickelten. Aslin et al. (1983) betonen ihrerseits die eigene Beobachtung, dass die Darbietungsdauer von Stimuli eine bedeutende Rolle für die erfolgreiche Diskrimination spiele: Je länger ein Stimulus präsentiert wurde, desto höher war in ihrer Studie die Erfolgsaussicht auf eine korrekte Diskriminierung durch die jungen Probanden.
Mit zunehmendem Alter schwächt sich die Fähigkeit zur Lautunterscheidung ab. Zwischen dem sechsten und dem zwölften Lebensmonat ist der Verlust, vor allem bei muttersprachfernen Lauten, am stärksten zu beobachten, wie Janet Werker und Richard Tees (1984) und später auch noch mal Janet Werker und Chris Lalonde (1988) feststellen.
Während dieses Abschwächungsprozesses erstarkt in den Säuglingen aber eine andere Kompetenz: Sie werden zunehmend sensibler für die Regularitäten, nach denen Wörter im Sprachstrom ihrer Muttersprache segmentiert werden.
Die vorangegangenen Studien deuten darauf hin, dass Babies Informationen zu Häufigkeitsverteilungen in der Sprechsprache schon sehr früh zugänglich sind, und sie diese Informationen auch beachten und nutzen. Jusczyk und Aslin (1995) führten ein zweistufiges Experiment durch und stellten fest, dass englischsprachige Kinder bereits mit sieben Monaten über die ersten Fähigkeiten verfügen, Wörter im Sprachstrom zu segmentieren.
Um Wörter, und somit auch grammatische Information, aus dem Sprachstrom zu segmentieren, bedarf es effizienter Mechanismen. Die Forschung ist sich weitgehend einig, dass es nicht „die eine“ Strategie gibt, die zum Erfolg führt (Echols, 2001; Golinkoff et al. 2001; Jusczyk, 1997; Karmiloff & Karmiloff-Smith 2001). Jeder längere Sprachstrom unterliegt einer metrischen Gliederung. Die Aneinanderreihung von betonten und unbetonten Lauten folgt sprachspezifischen, phonotaktischen Regeln und ist nicht willkürlich. Diese phonotaktischen Regeln ergeben sich aus der Berücksichtigung von Merkmalsbündeln und helfen, das Schallereignis und das jeweils passende Merkmalscluster zueinander in Beziehung zu setzen.
Das Segmentieren hilft dem Kind dabei zu erkennen, welches zusammenhängende Schallkontinuum überhaupt einer sprachlichen Einheit entspricht. Kathy Hirsh-Pasek et al. (1987) fanden in einer Untersuchung heraus, dass Säuglinge im Alter von sieben bis zehn Monaten korrekt segmentierte Sprachbeispiele aus der Muttersprache willkürlich segmentierten Spracheinheiten vorziehen. Diese Kinder zeigten eine deutliche Vorliebe für die natürliche Satzartikulation. Wie dieses Erlernen von Segmentation genau funktioniert, ist noch nicht vollständig geklärt. Generell wird aber davon ausgegangen, dass Kinder den Sprachstrom in kleinere Einheiten, sogenannte Segmente oder Chunks unterteilen. Dieses Chunking wird als Zeichen dafür gewertet, dass sie ihre Kenntnisse um die zielsprachlich relevanten phonologischen Kontraste verfestigt haben und ein erstes Wissen darüber erlangen, welche Lautkombinationen zulässig sind und welche nicht (Dietrich, 2002).
Die Experimente von Jusczyk und Aslin (1995) weisen darauf hin, dass der Erwerb der Phonotaktik einer Sprache graduell, also über einen Zeitraum hinweg geschieht.
Zusammenfassend lässt sich sagen, dass die meisten natürlichen Sprachen über ein relativ kleines Phoneminventar von 20-40 Phonemen verfügen (Linke, Nussbaumer & Portmann, 1994), und sich der Erwerb des phonologisch-phonematischen Systems in den unterschiedlichen Sprachsystemen in ähnlicher Reihenfolge und zeitlichem Verlauf vollzieht.
2.4 Befunde zum Erwerb der phonologisch – phonematischen Kompetenz im Deutschen
Leider gibt es nur wenige Untersuchungen zum phonetisch-phonologischen Erwerb im Deutschen, die mit vergleichbarem Studiendesign arbeiten und bei denen die Ergebnisse aufgrund gleicher Methoden eine tatsächliche Einschätzung zulassen. Häufig handelt es sich um Eltern, die die Sprachentwicklung ihres Kindes über einen gewissen Zeitraum verfolgen oder um Querschnittstudien, die nur eine Momentaufnahme liefern können. Oftmals wurden dabei keine ausreichend exakten Kriterien festgelegt, wann ein Phon oder ein Phonem als erworben gilt und auch die Parameter, die untersucht werden, unterscheiden sich von Studie zu Studie (Elsen, 1991; Romonath, 1991).
Die erste grundlegende Fertigkeit, die ein Kind benötigt und kontinuierlich weiterentwickeln muss, um ein kompetenter Sprecher zu werden, ist die Wahrnehmung und die korrekte Reproduktion von Lauten. Clara und Wilhelm Stern (1928) waren, was ihre akribischen Tagebuchaufzeichnungen belegen, nicht speziell auf den Phonologieerwerb, sondern eher am generellen Spracherwerbsverlauf ihrer Kinder interessiert. Sie untersuchten die Frage, ob kindliche Sprache wirklich eine verstümmelte Version der Erwachsenensprache sei oder nicht. In ihren Aufzeichnungen halten sie bezüglich des Phonologieerwerbs fest, dass ihre Kinder zuerst Labiale, dann Alveolare, Velare und schließlich Frikative erwarben. Allerdings, so schränken sie umgehend wieder ein, sei der Erwerbsverlauf ihrer drei Kinder sehr unterschiedlich gewesen.
Zehn Jahre später initiierte Heinrich Möhring (1938) die wohl größte Erhebung zur Lautbildung und untersuchte im Zuge dessen 2.102 „stammelnde Kinder“ im Deutschen Sprachgebiet. Er präsentierte ihnen Testitems, die alle wortinitialen Konsonantenverbindungen und alle Laute der deutschen Sprache abdeckten und berechnete in der Auswertung Fehlerprozentwerte. Abbildung 3 zeigt, dass sich drei Lautgruppen sich herauskristallisierten, die eine auffallend hohe Fehlerrate aufwiesen. Die Produktion von Frikativen fiel den Kindern dabei besonders schwer:
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 3. Prozentraten, mit denen Phoneme fehlerhaft produziert wurden
aus: „Kindliche Aussprachestörungen“, A. Fox, 2004, S.39.
Inwiefern die Ergebnisse Rückschlüsse auf den zeitlichen Verlauf des ungestörten Sprach- und Phonologieerwerbs zulassen, lässt sich allerdings nur einschätzen, wenn man diese Studie mit Untersuchungen an Kindern ohne SES vergleicht.
Conxita Lleó und Michael Prinz (1996) untersuchten die Verwendung von Konsonantenclustern bei fünf deutschsprachigen Kleinkindern im Alter zwischen
9 und 25 Monaten. Dabei stellten sie fest, dass fast alle Kinder den zweiten Konsonanten eines Clusters wegließen und nur den ersten sprachproduktiv realisierten. Weitere Einblicke in Lautwahrnehmung und –reproduktion erlauben die Aufzeichnungen von Thomas Berg (1992), der seine zwei Jahre und sieben Monate alte Tochter ein gutes Vierteljahr lang beobachtete.
Besonders die Assimilationsprozesse rückten in seinen Fokus und er notierte, bis auf eine Ausnahme, ausschließlich regressive Assimilationen, die vor allem Bilabiale oder Alveolare betrafen. Assimilationen sind das Ergebnis vereinfachender Artikulation. Bei einer strengen regressiven Assimilation gleicht der Sprecher Phone im Wort einander an, indem er ein wortvorderes Phonem durch ein erst später auftauchendes ersetzt. So kann aus Taube / taʊbə/ à Baube /baʊbə/ werden.
Berg vermutete als Ursache, dass die Kleinkinder noch Schwierigkeiten dabei haben, mehrere Konsonanten innerhalb einer Silbe oder eines Wortes zu koordinieren. Seiner Annahme zufolge wird dann jeweils der Konsonant vernachlässigt, der am wenigsten salient ist.
Während die differenzierte Lautreproduktion noch auf sich warten lässt, aber die Wahrnehmung zunehmend stabiler wird, beginnen Säuglinge mit dem zweiten wichtigen Schritt im Erwerb: der Analyse, Synthese und dem Ergänzen von Wortbestandteilen. Sie reagieren auf Veränderungen der Prosodie und auf Auslassungen von Wortteilen.
Höhle und Weissenborn (2003) stellen fest, dass deutsche Babies im Alter von sieben bis neun Monaten erstmals auf Wörter der geschlossenen Klasse im Sprachstrom reagieren, Sie reagieren sogar dann, wenn die Silben, aus denen die entsprechenden Zielwörter bestehen, unbetont sind. Dies deutet ihrer Überzeugung nach darauf hin, dass auch vorsprachliche Kinder phonologische Repräsentationen zu Elementen der geschlossenen Klasse bilden und diese als „bedeutsam“ einstufen. Damit wäre ihnen ein effizientes Werkzeug gegeben, um Wörter zuverlässig aus einem Sprachstrom zu isolieren, und diese später auch grammatikalisch zu kategorisieren.
Die dritte Grundfertigkeit, die Kinder erwerben müssen, ist das Sequenzieren und Speichern von Gehörtem. Lyda Blenn, Amanda Seidl und Barbara Höhle (2003) führten eine Reihe sprachvergleichender Experiment zwischen deutschen und amerikanischen Kindern im Alter von zehn Monaten durch. Sie prüften deren Sensitivität für Sprachmuster, die in unterschiedlichen Stimuli an der gleichen Position wiederkehren, sogenannte Konkordanzmarkierungen. Nach einer Habituierungsphase mit Suffixen, die in verschiedenen Stimuli immer an der gleichen Stelle gesetzt waren, zeigten die deutschen Kinder, im Gegensatz zu den amerikanischen, im Headturn-Preference Paradigma sowohl eine Sensitivität als auch eine Präferenz für diese wiederkehrenden Suffixe. In einem anschließenden Experiment dieser Reihe konnte außerdem festgestellt werden, dass deutsche Säuglinge, ebenfalls anders als ihre amerikanischen Mitprobanden, auch auf flektierte Endungen innerhalb eines Sprachstroms sensibel reagierten.
Dies lässt darauf schließen, dass die kleinen Probanden im Rahmen der Habituierungsphase gelernt haben, bestimmte Wortbestandteile an festen Wortpositionen zu erwarten. Sie waren auch dazu in der Lage, diese Wortbestandteile in ihrem Speicher richtig zu identifizieren und auf sie zuzugreifen.
Zusammenfassend lässt sich sagen, dass sich der Erwerb der phonologisch – phonematischen Kompetenz im Deutschen, aber auch in anderen Sprachen ähnlich vollzieht und dem Schema Wahrnehmung – Auditive Synthese und Ergänzung – Sequenzierung und Speicherung folgt. Sowohl deutsche als auch anderssprachige Kinder bewältigen diese „Meilensteine“ ungefähr in denselben Zeitfenstern, wobei die Spezialisierung in der Verarbeitung und der Produktion zielsprachspezifisch variiert.
3. Phonologische Bewusstheit
Ignatius Mattingly (1972) formulierte als erster die Annahme, dass phonologisches Segmentieren und die Fähigkeit, syntaktische Informationen durch phonologische Verarbeitung erschließen zu können, Grundvoraussetzungen für den Spracherwerb seien. Mattingly wies darauf hin, dass es im Menschen eine angeborene Linguistische Bewusstheit gebe, die eine lautliche Entschlüsselung von Sprache und Buchstabenketten erlaube. Aufgrund dieser Theorie beschäftigten sich Isabelle Liberman et al. (1974) in einer Studie mit der Segmentation von Silben und begründeten den Terminus der Phonologischen Bewusstheit. Sie argumentieren, dass das Kategorisieren von Lauten ein Beweis für eine vorausgegangene Phonemanalyse sei und nehmen einen direkten Zusammenhang zwischen der Entwicklung von Schriftsprache und den Segmentierfähigkeiten eines Kindes an.
Es gibt bis heute keine exakte Definition der Phonologischen Bewusstheit. Gerd Mannhaupt und Heiner Jansen (1989) bezeichnen Phonologische Bewusstheit als das Wissen eines Individuums um die lautlichen Strukturen in Sprache und Schrift und die Fähigkeit, mit diesen Strukturen flexibel umzugehen.
In Tests zur Phonologischen Bewusstheit werden unter anderem Aufgaben zur Wortsegmentierung, Phonemvertauschung, zum Ergänzen und Bestimmen von Reimen sowie zur Wortumkehr gestellt (Stock, Marx, & Schneider, 2003). Welche Kompetenzen zur Phonologischen Bewusstheit im Einzelnen dazugehören und wie man diese trennscharf und optimal erfassen kann, wird rege diskutiert.
Die psychologische Forschung hat sich immerhin weitgehend darauf verständigt, dass zwischen Phonologischer Bewusstheit „im weiteren Sinne“ und Phonologischer Bewusstheit „im engeren Sinne“ (Skowronek & Marx, 1989) unterschieden werden solle. Erstere rekurriert auf die größeren Einheiten der Sprache, also auf Wörter und Silben und lässt sich weitgehend auch ohne Wissen um das Alphabet erschließen.
Sie stützt sich unter anderem auf die Rhythmizität der Sprechsprache und auf semantisches Wissen. Phonologische Bewusstheit „im engeren Sinne“ entwickelt sich erst dann systematisch, wenn die Kinder mit den orthographischen Konventionen der Sprache vertraut gemacht werden und ein Bewusstsein dafür entwickeln, dass einzelne Laute in enger Beziehung zu Graphemen stehen und zwischen Phonemen und Graphemen eine bidirektionale Beziehung besteht.
Die Phonologische Bewusstheit „im engeren Sinne“ schließt den linguistischen Begriff der Phonemischen (=Phonematischen) Kompetenz mit ein, also die Fähigkeit, Laute als gleich oder unterschiedlich zu beurteilen, und sie nicht nur sprachlich reproduzieren, sondern auch Buchstaben zuordnen zu können.
Die Phonologische Bewusstheit „im engeren Sinne“ beinhaltet darüber hinaus die Fertigkeit, spielerisch mit den Einzelelementen umzugehen, und sie anforderungsgemäß zu vertauschen oder auszulassen.
Peter Hatcher (2000) stellte in seiner Arbeit mit Vorschulkindern die besondere Relevanz der Buchstabe-Laut-Beziehung heraus. Er hält fest, dass die Buchstabenidentifikation mit dem Beginn des Lesenlernens ein multisensorischer Prozess sei, bei dem sowohl die Motorik als auch die kognitive Benennfähigkeit und die Verlautlichung des Buchstaben bewältigt werden müssten. So wie Hatcher ein Trainingsprogramm für englischsprachige Kinder auf den Markt brachte, entwickelten auch Petra Küspert und Wolfgang Schneider (1999; 2004) für den deutschen Sprachraum Trainingsprogramme für die Phonologische Bewusstheit „im engeren“ und „im weiteren Sinn“. Das Würzburger Trainingsprogramm zur Vorbereitung auf den Erwerb der Schriftsprache „Hören, Lauschen, Lernen“ I und II ist für Vorschulkinder gedacht. Die Programme widmen sich vor allem der Schulung von sechs Kompetenzen, die Küspert und Schneider als besonders wichtig erachten:
- Aufmerksamkeitsausrichtung auf Geräusche und Laute
- Reimen
- Segmentieren von Sätzen und Wörtern
- Silbenanalyse und –synthese
- Wortinitiale Phonemanalyse
- Phonemsynthese
Die überwältigende Mehrheit der Dyslexieforscher ist davon überzeugt, dass ein phonologisches Defizit die Kernursache von Dyslexie darstellt. Einen Grund dafür liefern verschiedenen Studien, denen zufolge Dyslektiker erhebliche Probleme beim Lesen und Lernen von Pseudowörtern haben (Mayringer & Wimmer, 2000; Snowling, Goulandris, & Defty, 1996). Pseudowörter sind Wörter, die den morphematischen und phonologischen Grundregeln einer Sprache gemäß gebildet sind, aber keine semantische Bedeutung enthalten. Da solche Pseudowörter im Mentalen Lexikon nicht repräsentiert sind, müssen sie Buchstabe für Buchstabe in die entsprechenden Laute transformiert werden. Die eben angesprochenen Studien zeigen aber im Ergebnis, dass die dyslektischen Probanden kaum zu einer fehlerfreien Graphem-Phonem-Konversion in der Lage waren. Dies bestätigt wiederum die Theorie des phonologischen Kerndefizits.
Nur wenige Wissenschaftler schließen sich dieser monokausalen Erklärung nicht an. Frank Ramus und Gayaneh Szenkovits (2008) gehören zu dieser Gruppe.
Sie scheitern konsequent an dem Versuch, Studien zu replizieren, denen zufolge alle getesteten Dyslektiker Schwierigkeiten beim Lesen komplexer Pseudowörter haben sollen. Jemand, der sich ebenfalls nicht mit der monokausalen Hypothese vom phonologischen Kerndefizit anfreunden kann, ist Max Coltheart.
Er entwickelte aufgrund eigener Untersuchungen ein Zwei-Routen-Modell (1978) zum lauten Lesen, das in Punkt 4.2.1 näher vorgestellt wird. In einem Folgeartikel berichten Anne Castles und Max Coltheart (1993) von zwei besonders prominenten Subtypen der Dyslexie im englischen Sprachraum, der Phonologischen Dyslexie und der Oberflächendyslexie. Castles und Coltheart halten das Zwei-Routen-Modell für zutreffend, weil auch sie auf eine doppelte Dissoziation gestoßen waren: In ihren Ergebnissen berichten sie von dyslektischen Kindern, die einerseits keine Probleme im Lesen von Pseudowörtern haben, andererseits aber nicht aber in der Lage dazu sind, irreguläre Wörter zu lesen, also Wörter, die nur richtig ausgesprochen werden können, wenn der Probanden um bestimmte Ausnahmen bei der Graphem-Phonem-Konversion weiß. Da sich diese Dissoziation nicht mit der Störung einer einzigen Komponente erklären lässt, kommen sie zu dem Schluss, dass die Phonologische Dyslexie auf der Schwierigkeit beruht, Grapheme den entsprechenden Phonemen zuzuordnen, wohingegen die Oberflächendyslexie aus einem Problem beim Lesen mit der Lexikalen Route resultieren muss (Castles & Coltheart, 1993, 1996).
3.1 Entwicklung der phonologischen Bewusstheit
Die Entwicklung der Phonologischen Bewusstheit ist als Prozess zu verstehen, der im Säuglingsalter einsetzt und bis in die frühe Kindheit andauert. Solange Säuglinge noch nicht darüber urteilen können, welche Phone bedeutungsunterscheidend sind, müssen sie Phone so lange in Gruppen bündeln, bis die Merkmale innerhalb der Gruppe derart stark divergieren, dass ihre jeweiligen Pole Bedeutungsunterschiede tragen. Durch diesen Prozess der Substitution entsteht die Repräsentation des muttersprachlichen Phoneminventars. Da Phoneme in der Sprechsprache beinahe nie isoliert auftreten, sondern fast immer vor und/oder hinter anderen Phonemen, müssen auch die Regeln erlernt werden, nach denen ihre Lautung im Kontext eines Wortes umgesetzt wird. Im Deutschen gibt es weniger kombinatorische Varianten (Linke, Nussbaumer, & Portmann 1994) als im Englischen, wo der Buchstabe „a“ in „cat“ anders klingt als in „ball“ oder in „garden“.
Peter Eimas, Einar Siqueland, Peter Juszcyk und James Vigorito (1971) entdeckten, dass Säuglinge schon im Alter von ein bis zwei Wochen in der Lage sind, Konsonanten-Vokalverbindungen auseinander zu halten, die sich in einem einzigen Phonem unterscheiden. Diese Befunde konnten mittlerweile für viele Sprachen repliziert werden. Was bei Eimas und dessen Kollegen noch relativ einfach anmutet, nämlich die Unterscheidung zwischen /ba/ und /pa/, ließ sich wenig später unter erschwerten Bedingungen bestätigen. In Anlehnung an die Hypothese des prosodischen Bootstrappings (Morgan & Newport, 1981) wurde in einer linguistischen Längsschnittstudie zur kategoriellen Wahrnehmung (Werker & Tees, 1984) eingehend untersucht, wie gut englische Säuglinge minimale Kontraste in non-nativen Sprachen analysieren können. Das Ergebnis war verblüffend.
Sechs Monate alte Babies waren in der Lage, sowohl den Retroflex- bzw. Alveolarkontrast eines Hindilautes als auch Klicklaute aus einer Indianersprache zuverlässig voneinander zu unterscheiden. Englische Schulkinder im Alter von sechs Jahren sowie englische Erwachsene waren dazu nicht mehr in der Lage.
Je älter die Babies wurden, desto schwerer fiel ihnen die Diskrimination ähnlicher Laute. In der dritten und letzten Testphase wurde ein weiterer interessanter Befund deutlich: Im Alter von zehn Monate konnte keiner der Säuglinge mehr irgendeinen non-nativen Kontrast ausmachen, obwohl sie vor und nach allen Fehlreaktionen erfolgreich auf ihren muttersprachlichen englischen /ba/ - /da/ Kontrast getestet wurden. Die Fähigkeit, non-native Laute voneinander zu unterscheiden, verliert sich offenbar im Laufe der zweiten Hälfte des ersten Lebensjahres. Der Grund dafür scheint eine zunehmende Ausrichtung auf den Mutterspracherwerb zu sein.
Die Fähigkeit von Säuglingen, Lautkontraste unterschiedlichster, auch nicht-nativer Sprachen erstaunlich zutreffend kategorisieren zu können, führt Pierre Hallé (2000) auf ein sehr offenes Kategoriensystem zurück, das weitaus toleranter ist, als das Kategoriensystem geschulter Sprecher. Die beiden Laute /ba/ und /pa/ beispielsweise unterscheiden sich dadurch, dass es verschieden lange dauert, bis der Luftstrom bei der Artikulation die Lippen durchbricht und dem Zeitpunkt, zu dem die Stimmlippen zu vibrieren beginnen. Diese Verzögerung heißt V oice Onset Time oder Stimmeinsatzzeit. Je größer die Verzögerung zwischen dem Zeitpunkt des Luftausströmens und dem Beginn der Stimmhaftigkeit ist, desto leichter fällt es erwachsenen Sprechern, den gehörten Laut eher als „p“ denn als „b“ zu identifizieren.
Jacques Mehler und Kollegen (1988) versuchten, den Prinzipien auf die Spur zu kommen, die erklären sollten, warum Säuglinge einige Sprachen von anderen unterscheiden konnten, andere wiederum aber nicht. Sie fanden auf der Suche nach grundlegenden rhythmischen Charakteristika von Sprachen drei verschiedene Sprachklassen, indem sie evozierte Reaktionen untersuchter Säuglinge ableiteten. Allen drei Sprachklassen lagen jeweils andere Rhythmusregeln zugrunde.
Zwischen der Geburt und dem zweiten Lebensmonat entwickeln Säuglinge anscheinend die Fähigkeit, zwischen Sprachen zu unterscheiden, die Stress-Timed, Syllable-Timed oder Mora-Timed sind. Stress-Timed Sprachen sind akzentzählende Sprache, wie zum Beispiel Deutsch, Niederländisch und Englisch. Ihre Rhythmizität ergibt sich daraus, dass die Betonung an jeder beliebigen Silbe im Wort auftauchen kann. Eine gleichmäßige Distribuierung der Betonung auf Wortanfang, Wortmitte und Wortende findet sich aber dennoch nicht. Das Deutsche ist eine tendenziell trochäische Sprache, bei der auf eine betonte Silbe häufig eine unbetonte folgt.
Bei den silbenzählenden Sprachen wie dem Spanischen oder Italienischen lassen sich Betonungsschwerpunkte kaum festmachen. Diese Sprachen fließen ohne gewichtige melodische Ausreißer wie ein gleichmäßiger Strom.
Zu den morazählenden Sprachen gehören Japanisch und Tamil. Die Silben werden hier nach ihrer Betonungsstärke und –dauer unterschieden. Eine leichte, kurze Betonung zählt als eine Mora. Sie kann aus einem Vokal und höchstens einem zusätzlichen Konsonanten bestehen. Stark akzentuierte und längerdauernde Betonungen werden als zweimorig gezählt (Bußmann, 2002). Die voranschreitende Spezialisierung auf die Eigenheiten und das Phoneminventar der Muttersprache erweitert die Fähigkeiten der Kinder, zunehmend intuitiv und kreativ mit der Zielsprache umzugehen. Auf diese Weise erschließen sie sich neue Kompetenzen wie das Erfinden von Reimen, Rhythmus- und Wortspielen.
[...]
- Arbeit zitieren
- Babette Ruppel (Autor:in), 2008, Zusammenhänge zwischen der phonologischen Kompetenz und dem gestörten Schriftspracherwerb dyslektischer Kinder, München, GRIN Verlag, https://www.grin.com/document/158335
-
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen.