logo Stottertheorie.de



 

1. 3. Monitoring – die Selbstkontrolle des Sprechens

Die automatische begleitende Selbstkomtrolle der eigenen Rede, also die Prüfung, ob Wörter, Phrasen und Sätze korrekt und in Übereinstimmung mit der beabsichtigten Botschaft produziert wurden, bezeichne ich hier mit dem in der Fachliteratur üblichen Terminuns 'Monitoring'. Diese begleitende Selbstkomtrplle erfolgt über die sensorische Rückmeldung. Willem Levelt unterscheidet in seiner "Perceptual Loop Theory" [1] zwischen einer äußeren und einer inneren Rückmelde-Schleife (Abbildung). Die äußere Rückmeldung (external loop) ist das Wahrnehmen und Kontrollieren der eigenen Rede über das äußere Gehör. Die innere Rückmeldung (internal loop) ist die Wahrnehmung der verbalen Gedanken beim stillen Denken. Über die innere Rückmeldung können auch geplante Äußerungen vor dem lauten Aussprechen überprüft werden – insofern handelt es sich auch hierbei um eine Form der Selbstkontrolle des Sprechens.

Wenn hier von äußerer und innerer Rückmeldung die Rede ist, dann ist immer die auditive Rückmeldung, also die Rückmeldung im Hör-Modus gemeint. Im Falle der äußeren Rückmeldung ist das klar. Aber auch im Falle der inneren Rückmeldung handelt es sich um ein inneres Hören der innerlich produzierten Wörter und Sätze, der verbalen Gedanken. Inneres Hören bedeutet, dass akustische Vorstellungen produziert werden, d.h. es werden die akustischen Wortformen (siehe vorigen Abschnitt) aktiviert. Neben der auditiven Rückmeldung spielt für die Selbstkontrolle der Artikulation natürlich auch die taktile und kinästhetische Rückmeldung der Sprechbewegungen eine Rolle – sicher auch beim Registrieren phonologischer Versprecher, besonders wenn Konsonanten betroffen sind. Bei der Verursachung des Stotterns jedoch spielen die taktile und kinästhetische Rückmeldung meines Erachtens keine Rolle. Deshalb werden sie hier nur am Rande behandelt.

Eine entscheidende Frage für die Theorie des Stotterns, die ich im nächsten Kapitel vorstellen will, ist folgende: Sind die äußere und die innere auditive Rückmeldung gleichzeitig aktiv? Willem Levelt beantwortet diese Frage nicht ausdrücklich; offenbar war sie ihm nicht so wichtig. Doch aus dem, was er dazu schreibt  (mehr...) , kann man den Schluss ziehen, dass er nicht von einer gleichzeitigen Aktivität beider Rückmelde-Schleifen ausging, sondern von folgenden Annahmen:

Diese drei Annahmen sind entscheidende Grundannahmen meiner Theorie, und ich denke, dass ich darin mit Levelt übereinstimme. In zwei Punkten – die allerdings eng zusammenhängen und eigentlich ein Punkt sind – weiche ich jedoch von Levelts Modell ab: Ich nehme (1) nicht an, dass Formulierung und Artikulation im Gehirn getrennt sind  (mehr...) . Daraus folgt (2), dass das innere Sprechen nicht gleichbedeutend ist mit einem phonetischen Plan für das äußere Sprechen  (mehr...) . Warum diese Abweichung von Levelts weithin anerkanntem Modell? Will man Stottern im Rahmen eines linguistischen Modells erklären, dann muss Stottern innerhalb dieses Modells möglich sein. Betrachtet man Levelts Modell unter diesem Gesichtspunkt, dann stellt sich sofort die Frage: Welches der beiden Sprachproduktions-Module – der „Formulator“ oder der „Artikulator“ – könnte in seiner Funktion gestört sein, sodass Stottern entsteht?

Der Formulator kann es nicht sein, denn Stotterer haben gewöhnlich kein Formulierungsproblem: Sie wissen, was sie sagen wollen und können korrekte Sätze bilden (und diese z.B. aufschreiben). Auch beim stillen Denken, bei dem ebenfalls Sätze formuliert werden, gibt es keine Schwierigkeiten. Demnach müsste Stottern ein reines Artikulationsproblem sein. Doch auch der Artikulator scheint nicht gestört zu sein, denn beim Nachsprechen einzelner Laute und Silben, meist auch einzelner Wörter tritt in der Regel kein Stottern auf, ebenso beim Lesen im Chor oder beim Schattensprechen – all dies interessanterweise Bedingungen, die keine eigene Formulierungsleistung erfordern. Liegt es also am Zusammenspiel von Formulator und Artikulator? Vielleicht – nur ist ein solches Zusammenspiel in Levelts Modell nicht vorgesehen: Formulator und Artikulator sind als abgeschlossene Module gedacht. Der Informationsstrom läuft nur in einer Richtung, nämlich vom Formulator zum Artikulator. Könnte dieser Informationsstrom gestört sein? Nein, denn Stotterer wissen im Moment der Blockierung immer genau, was sie sagen wollen und nicht herausbekommen.

Es ist einfach kein Platz für Stottern in einem Modell, in dem Formulierung und Artikulation strikt getrennt sind. Das ist der Grund, warum ich in diesem Punkt von Levelt abweiche und davon ausgehe, dass Formulierung und Artikulation eine Einheit bilden, Wie ich mir diese Einheit denke, habe ich in den beiden vorangegangenen Abschnitten bereits ausgeführt. Ist es legitim, von einem Modell für das normale Sprechen zu fordern, dass Stottern darin möglich sein muss? Ich denke, ja. Eine große Rolle bei der Entwicklung von linguistischen Modellen der Sprachproduktion hat die Erforschung von Versprechern gespielt [10], denn nur wenn die häufig vorkommenden Typen von Versprechern in einem solchen Modell möglich sind, ist das Modell realistisch. Was für Versprecher gilt, sollte aber auch für Stottern gelten: Da Stottern eine relativ häufige Sprechstörung ist, und da es, genau wie Versprecher, meist innerhalb von ansonsten korrekter und flüssiger Rede auftritt, sollte Stottern in einem realistischen Modell der Sprachproduktion möglich sein. Und warum soll nicht, ähnlich wie es bei der Erforschung der Versprecher der Fall war, auch die Erforschung des Stotterns etwas zum Verständnis jener Vorgänge beitragen, die dem normalen Sprechen zugrunde liegen?

Ich gehe also von folgendem Modell aus: Die beiden Rückmeldeschleifen arbeiten alternierend: Die innere Rückmeldung ist nur aktiviert, wenn die äußere unterbrochen ist. Das ist der Fall beim inneren Sprechen (also beim verbalen Denken), beim Sprechen ohne Phonation (mit stummen Sprechbewegungen), unter totaler künstlicher Vertäubung oder bei Gehörlosigkeit. Abbildung 3 zeigt oben die äußere und unten die innere Rückmeldeschleife. Da ich nicht annehme, dass es getrennte Module für Formulierung und Artikulation gibt. haben beide Rückmeldeschleifen denselben Ausgangspunkt und denselben Endpunkt .

Sprachproduktion / Monitoring: äußere und innere Rückmeldung

Abbildung 3: Äußere Rückmeldung beim lauten Sprechen (A) und innere Rückmeldung beim verbalen Denken (B). Erläuterung im Text.
 

Levelt [1] erörtert ausgiebig die Frage, ob es ein prä-artikulatorisches Monitoring gibt, ob also ein Sprecher seine Rede vor der Artikulation kontrollieren, eventuelle Fehler darin bemerken und diese vor dem lauten Aussprechen unterdrücken kann. Levelt bejaht dies und begründet seine Position mit verschiedenen Experimenten, u.a. solchen, bei denen Versuchspersonen falsche Wörter anscheinend vor dem lauten Aussprechen rechtzeitig bemerkten und deren Artikulation unterdrückten [2]. Allerdings fand in diesen Experimenten die Entscheidung über das Aussprechen des falschen Wortes nicht während des lauten Sprechens statt, sondern vorher, und das ist für unseren Zusammenhang entscheidend: Selbst wenn in diesen Experimenten ein prä-artikulatorisches Monitoring stattgefunden haben sollte, wäre dies kein Nachweis dafür, dass die innere Rückmeldung auch dann aktiv ist, wenn der Sprecher sich äußerlich hört. Allerdings bezweifele ich, dass hier überhaupt ein prä-artikulatorisches Monitoring stattgefunden hat – das rechtzeitige Vermeiden von Fehlern lässt sich auch anders erklären als durch ein permanentes inneres Monitoring  (mehr...) .

Levelt stützt seine These, dass das prä-artikulatorische Monitoring beim gewöhnlichen Sprechen eine Rolle spielt, noch auf ein weiteres Experiment [4], bei dem herauskam, dass (1) die Fehler-Erkennung über die innere Rückmeldung im Durchschnitt schneller erfolgt als über die äußere, und dass (2) ein Sprecher eigene phonologische Fehler schneller erkennt als ein Zuhörer. Die Autoren des Experiments ziehen daraus den Schluss, dass der Sprecher seine Fehler deshalb schneller erkennt, weil er sie (auch) über die innere Rückmeldung erkennt. Es scheint aber in Wahrheit nicht die innere Wahrnehmung des „phonetische Plans“ zu sein, die den Sprecher seine Fehler schneller erkennen lässt, sondern die kinästhetische und taktile Wahrnehmung seiner Artikulation – eine Information, die der Zuhörer natürlich nicht hat. Die Selbstwahrnehmung der Artikulation ist aber gerade kein prä-artikulatorisches Monitoring  (mehr...) .

Ein prä-artikulatorisches Monitoring ist zweifellos möglich: Wir können eine Äußerung innerlich „auf Probe“ formulieren und sie überprüfen, bevor wir sie laut aussprechen. Doch wir tun das nur in Situationen, in denen wir unbedingt vermeiden müssen, etwas Falsches zu sagen, etwa bei geschäftlichen. Verhandlungen oder in einer Prüfung. Manche Stotterer verhalten sich so, um Wörter mit gefürchteten Anfangslauten zu vermeiden und durch Synonyme zu ersetzen. Ein normales Sprechverhalten ist das jedoch nicht: Das gewöhnliche, spontane Sprechen ist gerade dadurch gekennzeichnet, dass man seine Äußerungen nicht vor der Artikulation kontrolliert – deshalb die häufigen Fehler und Korrekturen.

Der Punkt ist, dass Levelt zwischen spontanem Sprechen und bewusst geplantem, also bewusst innerlich vorformuliertem Sprechen nicht unterscheidet. Er trifft diese Unterscheidung wahrscheinlich deshalb nicht, weil er davon ausgeht, dass alle verbalen Äußerungen im Formulator vorformuliert werden – egal, wie bewusst oder unbewusst dies geschehen mag. Nimmt man jedoch die Zweiteilung in Formulator und Artikulator nicht an, stellt sich die Sache anders dar: Wir können das spontane Sprechen – und dies ist das gewöhnliche Alltagssprechen – definieren als ein Sprechen, bei dem kein prä-artikulatorisches Monitoring stattfindet und das bei unbehindertem Hören der eigenen Sprache allein über die äußere Rückmeldung kontrolliert wird.

Ich ergänze bzw. ändere also Levelts Perceptual-Loop-Modell in folgenden Punkten: (1) Formulierung und Artikulation sind beim spontanen Sprechen nicht getrennt; (2) Äußere und innere Rückmeldung sind nicht gleichzeitig aktiv; (3) beim spontanen Sprechen und normalen Hören der eigenen Rede ist nur die äußere auditive Rückmeldung aktiv. Diese Annahmen sind wichtige Voraussetzungen für die Theorie des Stotterns, die ich vorschlagen werde.

In der folgenden Grafik sind die Abbildungen 2 und 3 zu einem Modell der Sprachproduktion zusammengefasst. Es handelt sich also um eine Synthese aus Levelts Modell der zwei Rückmeldeschleifen und dem Modell der Wortformen und Sprechprogramme von Engelkamp und Rummer (siehe vorigen Abschnitt). Nicht alle in der Grafik dargestellten Funktionen können gleichzeitig aktiv sein; das gilt sowohl für die äußere / innere auditive Rückmeldung als auch für selbst formuliertes Sprechen / Nachsprechen  (mehr...) . Die Konzepte sind in diesem Modell keine dritte Art der Repräsentation von Sprecheinheiten neben den akustischen Wortformen und den motorischen Sprechprogrammen, sondern sind Verknüpfungen der Wortformen untereinander sowie der Wortformen zu nichtsprachlichen Repräsentationen (siehe dazu die Fußnote im Abschnitt 1.2.).
 

Modell der Sprachverarbeitung

 
Abbildung 4: Modell der Sprachproduktion. Beachte: Nicht alle Funktionen sind gleichzeitig aktiv. Orange Pfeile = Funktionen während des normalen spontanen Sprechens.
 

Gewöhnlich wird das Monitoring des Sprechens als ein Mechanismus betrachtet, der hauptsächlich der Feststellung von Versprechern dient. Doch die Korrektheit eines gesprochenen Wortes schließt logisch auch dessen Vollständigkeit ein. Zudem dürfte, wie bereits angedeutet, das Monitoring beim Sprechenlernen eine Rolle spielen, unter anderem auch beim Lernen, ein Wort vollständig bis zum Ende zu sprechen, bevor das nächste Wort gestartet wird – also nicht die letzte Silbe oder den letzten Laut zu „verschlucken“. Nachdem eine korrekte, vollständige Artikulation automatisiert ist, scheint diese Teilfunktion des Monitorings für das gewöhnliche Sprechen kaum noch von Bedeutung zu sein. Sie kann jedoch, wie wir noch sehen werden, eine Rolle bei der Verursachung des Stotterns spielen.

 nach oben 

 nächste Seite 


Fußnoten

Levelt über innere und äußere Rückmeldung

Levelt beschreibt das Verhältnis beider Rückmelde-Schleifen so:
„Ein Sprecher kann auf seine eigene Rede in genau derselben Weise achten, wie er auf die Rede von anderen achten kann: Dieselben Systeme für das Sprachverstehen sind beteiligt. In Levelt 1983 habe ich dieses Modell ausgearbeitet, wobei ich davon ausging, dass es in dem System eine doppelte 'Wahrnehmungs-Schleife' gibt – sodass ein Sprecher auf seine eigene interne Rede achten kann, bevor sie ausgesprochen ist und auch auf eine selbst produzierte äußere Rede. In beiden Fällen wird die Rede durch das normale Sprach-Verstehens-System wahrgenommen und analysiert.“ [3]

Levelt hat also anscheinend angenommen, dass es von der Richtung der Aufmerksamkeit des Sprechers abhängt, welche der beiden Rückmelde-Schleifen aktiv ist – und er hat wahrscheinlich nicht angenommen, dass beide zugleich aktiv sind. Ein weiteres Indiz dafür ist, dass Levelt sich auf ein Experiment [4] bezieht, in dem die Geschwindigkeiten der Fehler-Erkennung über die innere und äußere Rückmeldeschleife gemessen wurde. Dabei kam heraus, dass Sprechfehler über die innere Rückmeldung schneller erkannt werden. Doch wie wurden diese Messungen vorgenommen? Um die Geschwindigkeit der inneren Rückmeldung zu messen, wurden die Versuchspersonen durch weißes Rauschen über Kopfhörer künstlich vertäubt. Die Geschwindigkeit der äußeren Rückmeldung wurde dagegen bei normalem Sprechen und Hören der eigenen Stimme gemessen. Das bedeutet, die Autoren dieser Studie – und offenbar auch Levelt – gingen davon aus, dass beim normalen Hören der eigenen Stimme die innere Rückmeldeschleife nicht aktiv ist.  (zurück) 
 

Formulierung und Artikulation

In Willem Levelts Modell der Sprachproduktion [1] existieren im Gehirn zwei getrennte Module: eines für die Planung der Formulierung und eines für die Planung der Artikulation. Der „Formulator“ wandelt eine präverbale Botschaft in Sprache um und erzeugt einen „phonetischen Plan“, der „Artikulator“ wandelt diesen um in eine Folge von Befehlen an die am Sprechen beteiligten Muskeln. Der Ausgangspunkt der inneren Rückmeldeschleife ist bei Levelt der Formulator, der Ausgangspunkt der äußeren Rückmeldung ist der Artikulator. Die zwei getrennten Module sind aber weder im Gehirn nachgewiesen, noch ist ihre Existenz wahrscheinlich. Ich nehme jedenfalls nicht an, dass beim spontanen Sprechen Sätze erst formuliert werden (von einem inneren Formulator – also ohne Wissen des Sprechers?) und dass sie danach artikuliert werden, sondern dass sie formuliert werden, indem sie artikuliert werden (siehe auch die nächste Fußnote). Dabei entstehen all die Formulierungsmängel und -korrekturen, die für das spontane Sprechen so charakteristisch sind.  (zurück) 
 

Inneres Sprechen – verbales Denken

Beim inneren Sprechen laufen die Sprechprogramme im Gehirn genauso ab wie beim lauten Sprechen, die Bewegungen werden aber größtenteils nicht ausgeführt (die Zunge hat oft die Tendenz, sich mitzubewegen [5], und auch die Atmung schaltet von Ruheatmung auf Sprechatmung um, d.h. die Einatemphase wird verkürzt, das Ausatmen wird gedehnt. Diese Umschaltung ist beim inneren Sprechen sogar deutlicher als beim normalen Sprechen [11]. Nach meiner Beobachtung werden auch die Stimmbänder angespannt; sie werden jedoch aufgrund des geringen subglottischen Drucks (wegen der stark gebremsten Ausatmung) nicht in Schwingung versetzt.

Statt dessen werden in der Vorstellung jene akustischen Wahrnehmungen erzeugt, die der Sprecher hätte, wenn er die Sprechbewegungen ausführen, also äußerlich hörbar sprechen würde. Auch aus diesem Grund ist das innere Sprechen kein Plan für das äußere Sprechen. Äußeres Sprechen ist nicht inneres Sprechen (verbales Denken) + Artikulation; vielmehr ist das innere Sprechen bereits ein artikuliertes Sprechen, bei dem die Sprechbewegungen z.T. nicht ausgeführt, sondern unterdrückt werden, und bei dem der Ausatemdruck so gering gehalten wird, dass keine hörbaren Laute entstehen.

Das innere Sprechen kann auch deshalb kein Plan für das äußere Sprechen sein, weil das äußere Sprechen sich zeitlich lange vor dem inneren entwickelt: Zuerst muss ein Kind laut sprechen lernen, indem es mit anderen Personen redet. Erst wenn es Sätze bilden kann, kann es das Sprechen nach innen verlagern. Vierjährige Kinder haben gewöhnlich noch kein Bewusstsein von innerem Sprechen [6]; sie begleiten ihr Spiel mit lauten Selbstgesprächen.  (zurück) 
 

Prä-artikulatorisches Monitoring

In diesen Experimenten wurden die Probanden dadurch zu bestimmten Sprechfehlern verleitet, dass sie unmittelbar vor dem lauten Lesen eines Zielwort-Paares eine Liste Wortpaaren still lasen (also innerlich sprachen), die dem erwünschten Versprecher klanglich ähnlich waren. Die Priming-Liste und die Zielwort-Paare war so gestaltet, dass mit hoher Wahrscheinlichkeit in dem einen Experiment [7] Pseudowörter (Nonsens), in dem anderen Experiment [8] „Tabu-Wörter“ (die man in guter Gesellschaft nicht ausspricht) als Versprecher auftreten sollten, Beides war jedoch nicht der Fall. Die Autoren (und auch Levelt) schließen daraus, dass sowohl das laute Aussprechen von Nonsens als auch von Tabu-Wörtern durch ein inneres prä-artikulatorisches Monitoring verhindert wird.

Zunächst ist festzustellen, dass das prä-artikulatorisches Monitoring, falls es stattgefunden haben sollte, nicht während des lauten Sprechens, sondern bereits vorher stattgefunden hat. Die Experimente sind also kein Nachweis für die Aktivität der inneren Rückmelde-Schleife während des lauten Sprechens. Doch sind die beobachteten Phänomene überhaupt Nachweise für ein inneres prä-artikulatorisches Monitoring? Die Tendenz, dass bei Versprechern oft falsche Wörter, aber selten Nonsens herauskommt (lexical bias), lässt sich leicht dadurch erklären, dass es für alle vertrauten Wörter Sprechprogramme gibt (siehe vorigen Abschnitt). Für Nonsens-Wörter gibt es solche motorischen Programme, auf die das Gehirn einfach und schnell zugreifen kann, nicht. Das Nonsens-Wort muss aus Silben oder Phonemen zusammengefügt werden – etwas, das beim normalen Sprechen nur selten geschieht. Die meisten Versprecher sind daher Verwechslungen ähnlich klingender Wörter – d.h. Verwechslungen von Wort-Sprechprogrammen.

Auch die Unterdrückung von Tabu-Wörtern muss nicht auf einer inneren Selbstkontrolle des Sprechens beruhen. Wie anderes sozial unangebrachtes Verhalten könnte auch das Aussprechen von Tabu-Wörtern spontan durch jenen unbewussten Mechanismus gehemmt werden, der uns auch sonst davor bewahrt, gefährliche oder anstößige Dinge zu tun, ohne dass wir uns dafür permanenten selbst beobachten müssen. Die von Antonio Damasio postulierten somatischen Marker könnten ein solcher Mechanismus sein [9]. Damasio nimmt an, dass mentale Repräsentationen von Begriffen mit somatischen Markern verknüpft sind, sodass mit der Aktivierung eines Begriffes im Gehirn zugleich ein Gefühl (die mentale Repräsentation eines somatischen, also körperlichen Zustandes) aktiviert wird, das diesen Begriff emotional bewertet und der Verhaltenssteuerung dient [4]. Im Falle eines Tabu-Wortes wird der somatische Marker das Gefühl der Furcht vor Blamage oder Strafe sein. Es ist also kein Monitor, keine innerer Beobachter notwendig, um das Aussprechen des Tabu-Wortes zu hemmen, sondern die Aktivierung des Tabu-Wortes selbst, genauer gesagt die Aktivierung seines Sprechprogramms könnte zugleich den somatischen Marker und damit eine emotionale Hemmung aktivieren, dieses Programm zu starten.

Doch unabhängig davon, welcher Mechanismus im Gehirn diese Dinge regelt: Um ein Wort richtig zu gebrauchen, muss man seine Bedeutung kennen, und das schließt ein Wissen darüber ein, ob das Wort „tabu“ ist, sein lautes Aussprechen also von den Zuhörern als Tabubruch, als ordinäres Gebaren, Provokation etc. verstanden wird.  (zurück) 
 

Fehler-Erkennung durch Sprecher und Zuhörer

In diesem Experiment [4] wurde nicht mit normaler Sprache gearbeitet, sondern der Sprecher wiederholte Silbenfolgen wie /pi-di-ti-gi/, /pi-ö-ti-o/ oder /ö-i-o-u/ eine halbe Minute lang immer und immer, im Sekundentakt, der durch ein Blinklicht angezeigt wurde. Beim Erkennen eines Fehlers sollte der Sprecher bzw. der Zuhörer einen Knopf drücken. Es ist nicht überraschend, dass unter diesen Bedingungen der Sprecher seine eigenen Fehler schneller erkennt als ein Zuhörer, und zwar aus zwei Gründen:

Erstens steht dem Sprecher neben der akustischen die taktile und kinästhetische Information zur Verfügung: Wenn ich z.B. ansetze, /ti/ anstatt /pi/ zu sagen, spüre ich das, ehe für einen Zuhörer etwas zu hören ist. Das gilt für alle Silben, die mit Konsonant beginnen. Schon im ersten Teil des Experiments, beim Vergleich der Geschwindigkeit der Fehler-Erkennung über die innere und äußere Rückmeldung, zeigte sich, dass es eine Rolle spielt, ob Fehler bei Konsonanten oder Vokalen auftreten. Die Selbstwahrnehmung der Artikulation ist aber gerade kein prä-artikulatorisches Monitoring.

Hinzu kommt zweitens: Während der Sprecher seine Artikulationsbewegungen taktil und kinästhetisch wahrnimmt und deshalb genau weiß, ob er gerade /pi/ oder /ti/ gesagt hat, ist der Zuhörer allein auf sein Gehör angewiesen. Bein Hören auf stupide wiederholte Silbenfolgen wie /pi-di-ti-gi/ usw. wird er, wenn er einen Fehler gehört zu haben meint, nicht selten unsicher sein, ob er sich verhört hat und zögern, den Knopf zu drücken. Ich denke, dies beides genügt, um die längeren Reaktionszeiten der Zuhörer zu erklären – denn genau genommen wurden in dem Experiment nicht Wahrnehmungs- sondern Reaktionszeiten gemessen.  (zurück) 
 

Nachsprechen, phonologische Enkodierung, weitere Modellmerkmale

Das exemplarische Beispiel für ein reines Nachsprechen, bei dem kein semantisches Verstehen stattfindet, ist das Nachsprechen von Pseudo- oder Nonsens-Wörtern, also von Lautketten ohne Bedeutung. Weil für das Sprechen von erstmals gehörten Pseudowörtern keine Wort-Sprechprogramme zur Verfügung stehen, muss in diesen Fällen tatsächlich eine phonologische Enkodierung stattfinden, d.h. das Pseudowort wird aus Sprechprogrammen für Einzellaute, Lautverbindungen oder geläufige Silben zusammengesetzt. Das Nachsprechen eines Pseudowortes wird um so leichter sein, je geläufiger dem Sprecher die Silben und Lautverbindungen sind, aus denen es besteht – je mehr er also auf komplexere Sprechprogramme, z.B für ganze Silben, zurückgreifen kann und je weniger aus Einzellauten zusammengesetzt werden muss.

Am Beispiel des Pseudowort-Nachsprechens wird deutlich, dass die phonologische Enkodierung im vorgeschlagenen Modell durchaus enthalten ist – aber eher als Sonderfall. Phonologische Enkodierung bedeutet, dass ein Wort, für das noch kein Sprechprogramm vorhanden ist, aus den motorischen Programmen der Einzellaute oder Lautverbindungen zusammengefügt werden muss. Das ist entscheidend für die Fähigkeit, neue Wörter sprechen zu lernen – auch beim Erlernen von Fremdsprachen.

Mit ein wenig Übung ist es möglich, ein Pseudowort. beispielsweise /matula/, sprechen zu lernen und es sich einzuprägen, sodass man es beim Hören wiedererkennt und es wie ein gewöhnliches Wort bei Bedarf sofort artikulieren kann. Das zeigt, dass die akustischen Wortformen und die motorischen Sprechprogramme prinzipiell unabhängig von Inhalten existieren können. Wir müssen daher kein besonderes „Syllabarium“ annehmen – also kein spezielles „Verzeichnis“ der motorischen Programme für Silben, die ja häufig keine semantischen Inhalte haben. Es gibt in unserem Modell keinen Wesensunterschied zwischen den motorischen Programmen für das Sprechen eines einzelnen Lautes, einer Lautverbindung, einer Silbe, eines Wortes, einer geläufigen Phrase oder eines auswendig gelernten Gedichts. Natürlich sind die Programme unterschiedlich komplex, doch die entscheidende Gemeinsamkeit ist: Sie sind allesamt durch Übung, also durch Wiederholung erworbene motorische Routinen.

Da ich davon ausgehe, dass Sprechen ein Routineverhalten ist, erübrigt sich eine Umwandlung von Lemmata in Lexeme: Es ist eine Routine, /des Vaters/ zu sagen, wenn man ausdrücken will, dass etwas dem Vater zugehörig ist. Man ruft dazu nicht erst die Wörter /der/ und /Vater/ im Gedächtnis auf und bildet daraus den Genitiv – jedenfalls nicht als Muttersprachler. Einem Sprecher, der die Phrase /des Vaters/ häufig gebraucht, steht sie als motorisches Programm zur Verfügung. Alle anderen Muttersprachler verfügen über das motorische Programm für /des/ und über die Routine (Verhaltensgewohnheit – Sprechgewohnheit), im Genitiv an das Wort ein /s/ oder /es/ anzuhängen.

Die Unterschiede zwischen Levelts Modell der Sprachproduktion [1] und dem hier vorgeschlagenen ergeben sich vor allem daraus, dass Levelts Modell stark von der „Künstliche Intelligenz“-Forschung in des letzten Jahrhunderts inspiriert ist, also von der Idee, Gehirne seien eine Art biologische Computer, in denen das Verhalten eines Menschen oder eines Tieres zuvor berechnet wird. Ich glaube, das ist ein grundlegender Irrtum.  (zurück) 
 

 nach oben 

 nächste Seite 

Quellen

  1. Levelt (1995), Kapitel 12
  2. Baars, Motley & MacKay (1975), Motley, Camden & Baars (1982)
  3. Levelt (1995), S. 469
  4. Lackner & Tuller (1979)
  5. Thorson (1925)
  6. Flavell et al. (1997)
  7. Baars, Motley & MacKay (1975)
  8. Motley, Camden & Baars (1982)
  9. Damasio (1994)
  10. Levelt (1999)
  11. Conrad & Schönle (1979)

 zum Literaturverzeichnis