CC BY-NC-ND 4.0 · Laryngorhinootologie 2023; 102(S 01): S3-S11
DOI: 10.1055/a-1973-5087
Referat

Hören und Kognition im Kindesalter

Artikel in mehreren Sprachen: deutsch | English
Andrej Kral
1   Institut für AudioNeuroTechnologie (VIANNA) & Abt. für experimentelle Otologie, Exzellenzcluster Hearing4All, Medizinische Hochschule Hannover (Abteilungsleiter und Institutsleiter: Prof. Dr. A. Kral) & Australian Hearing Hub, School of Medicine and Health Sciences, Macquarie University, Sydney, Australia
› Institutsangaben
 

Zusammenfassung

Nach der Geburt entwickelt sich das Gehirn weiter. Diese umfangreiche Entwicklung ist durch Hörstörungen in der Kindheit beeinträchtigt. Die Entwicklung von kortikalen Synapsen im Hörsystem ist dann verzögert und deren nachfolgender Abbau verstärkt. Neueste Arbeiten belegen, dass dabei vor allem die Synapsen betroffen sind, die für kortikokortikale Verarbeitung der Reize verantwortlich sind. Dies äußert sich in Defiziten bei der auditiven Verarbeitung. Andere Sinnessysteme sind indirekt beeinträchtigt, vor allem in der multisensorischen Kooperation. Wegen der umfangreichen Vernetzung des Hörsystems mit dem Rest des Gehirns werden interindividuell unterschiedliche kognitive Funktionen bei Hörstörungen verändert. Diese Effekte erfordern einen individualisierten Ansatz bei Therapie von Gehörlosigkeit.


#

1. Einführung

Hörverlust im Kindesalter hat weitreichende Folgen für die Hirn-Entwicklung [1], denn die Hirnrinde entwickelt sich abhängig von sensorischen und motorischen (d. h. aktiven) Erfahrungen [2]. So erlernen Kinder sensorimotorische Fertigkeiten und erschließen sich die Umwelt durch Entwicklung von einem internen (mentalen) Modell. Das bewusste menschliche Erleben findet in diesem Modell statt, wobei das Modell dauerhaft mit der Umwelt über die Sinnesorgane abgeglichen wird.

Ein wesentliches Werkzeug in diesen Prozess ist die menschliche Sprache, die schon in den ersten Lebensmonaten angelegt wird [3] [4]. Die Sprache erzeugt eine spezifisch menschliche abstrakte Repräsentationsebene. So kann die Realität um uns herum mit Hilfe der Sprache verstanden, mental verankert und mental in Sprachrepräsentationen auch bearbeitet werden. Für Linguisten ist daher naheliegend, dass das Denken sich der linguistischen Repräsentationen bedient. Dadurch prägt die Sprache auch das Denken (die sogenannte Sapir-Whorf Hypothese) [5] [6]. Sprachlich definierte Kategorien beeinflussen sogar die elementare sensorische Wahrnehmung und die frühe sensorische Verarbeitung von basalsten sensorischen Merkmalen wie im visuellen System zum Beispiel Farben [7] [8] [9] [10] [11].

Sprache als wesentlicher Bestandteil der Kognition steht im Austausch mit anderen kognitiven Funktionen. Sensorische Systeme stehen in Interaktion miteinander und erzeugen multisensorische Repräsentation, die weiter die Kognition speisen. Darüber hinaus haben sensorische Systeme selbst eine kardinale Funktion für Kognition, da sie eine für sie spezifische Form von Repräsentationen erzeugen und einen hochaufgelösten Subprozessor und Speicher von Informationen dem Gehirn zu Verfügung stellen [12], dessen sich auch die Kognition bedient.

Sinnesschäden in der frühen Entwicklung, vor allem angeborenen Hörschäden, könnten folglich einen Einfluss auf die Entwicklung der Kognition (direkt oder indirekt über Sprache) ausüben [13]. Dieser Text diskutiert solche Einflüsse und gibt einen Überblick über die Folgen von angeborener Gehörlosigkeit auf die Reifung des Gehirns und die Entwicklung von kognitiven Funktionen. Angeborene Gehörlosigkeit hat dabei spezifische Folgen, da die komplette sensorische Deprivation („total deprivation“) sich von teilweiser Deprivation (mit Restgehör oder eine Phase mit Restgehör) in den Konsequenzen unterscheidet [1].

2. Proximale Effekte der Gehörlosigkeit: Sprache und Gehör

Die cochleäre Funktion setzt normalerweise in der Mitte der Schwangerschaft ein [14] [15] [16]. Ab diesen Zeitpunkt kann die Entwicklung des menschlichen Gehirns durch akustische Eingänge mitgestaltet werden. Es besteht ein Unterschied zwischen den subkortikalen und den kortikalen Strukturen: normalerweise erfolgt die Entwicklung von peripher zu zentral, und die peripheren Strukturen reifen früher als die zentralen Strukturen. Einzelne Funktionen des Hörsystems entwickeln sich dabei in einer auf sich aufbauenden Sequenz von einfacheren zu komplexeren [17].

Während der Hirnstamm weitgehend seine Entwicklung intrauterin abschließt, ist die kortikale Entwicklung bei Geburt erst in einem frühen Stadium und erst im Erwachsenenalter abgeschlossen. Man kann beispielhaft erwähnen, dass die meisten Prozesse der Myelinisierung im Hirnstamm und Thalamus bei Geburt weitgehend abgeschlossen sind [18], während die Myelinisierung im Cortex bis ins Erwachsenenalter weiter läuft [19] [20]. Neuronale Verarbeitung basiert aber vorwiegend auf synaptischer Aktivität. Auch die Synaptogenese ist im Hirnstamm bei Geburt weitgehend abgeschlossen, wobei diese im Kortex bei Geburt gerade anfängt und bei Menschen erst um das 20. Lebensjahr abgeschlossen wird (Kortex Mensch: [21], Kortex Katze: [22], Übersicht in [1] [23]).

Der strukturierende Einfluss der sensorischen Erfahrung auf die Ontogenese des Hörsystems ist folglich vor allem in der Hirnrinde zu beobachten. Bei kongenital gehörlosen Katzen konnte ein Einfluss der Erfahrung auf die kortikale synaptische Entwicklung präzise untersucht werden: beim Fehlen von Hörerfahrung kam es zu Verzögerungen der Synaptogenese und letztendlich zu einem umfangreichen Verlust von funktionalen Synapsen im auditorischen Kortex [22] (Übersicht in [24]). Dieser Prozess steht im engen Zusammenhang mit der kritischen Phase in neuronaler Plastizität bei Therapie mit Cochlea-Implantaten beim gleichen Tiermodell [25] [26]. Das belegt, dass sensible Phasen durch synaptischen Abbau geschlossen werden und dadurch den kritischen Charakter erlangen (Übersicht in [1] [2]).

Kortikale Synapsen können in zwei Gruppen aufgeteilt werden: (i) thalamokortikale Synapsen, die den sensorischen Eingang in den Kortex vermitteln und einen starken Einfluss auf die kortikale Aktivität haben, und (ii) kortikokortikale Synapsen, die für die eigentliche Integration der sensorischen Eingänge in die laufende kortikale Verarbeitung vermitteln und somit für die Integrationsfunktion der kortikalen Verarbeitung (siehe unten) zuständig sind. Diese Synapsen über einen schwächeren Einfluss auf die Aktivität, jedoch wirken durch ihre Vielzahl und ihren Einfluss auf die sogenannte rekurrente Prozessierung (siehe unten).

Wenn synaptische Entwicklung eine entscheidende Rolle beim Schließen der kritischen Perioden spielt, stellt sich dann die Frage, welche Synapsen gehen bei Gehörlosigkeit eigentlich verloren – alle, zufällig verteilt, mehr die thalamokortikalen (die den sensorischen Eingang in den Kortex bilden und somit primär die Detektion von akustischen Reizen vermitteln) oder die kortikokortikalen, die spezifisch für die nachfolgende kortikale Verarbeitung sind (und somit die Diskrimination und Gestalt-Bildung ermöglichen)? Dies war bis vor kurzem weder im visuellen noch im auditorischen System geklärt.

Falls die thalamokortikalen Synapsen verloren gehen, wird die Antwortfähigkeit der Hörrinde primär beeinträchtigt. Falls es die kortikokortikalen Synapsen sind, werden die diskriminative und die „Gestalt-Bildende“ Eigenschaften der Hörrinde primär beeinträchtigt. Um eine „Gestalt“ entstehen zu lassen muss aus sensorischen (akustischen) Eigenschaften, die nach biologischer Bedeutung in den primären Hörarealen repräsentiert sind, nachfolgend ein „Objekt“ oder eine Kategorie bestimmt warden [1] [27]. Ein auditorisches Objekt wird dabei definiert als neuronale Repräsentation eines definierten akustischen Musters welche das Subjekt von Vordergrund-Hintergrund Unterscheidungen sein kann [1]. Dafür müssen die für das Objekt distinktiven (unterscheidenden) Merkmale im Reiz erkannt und die Variationen in nicht-distinktiven ignoriert werden. Kategorisierung ist dann der entsprechende Verarbeitungs-Prozess, welcher aus konkreten akustischen Ereignissen ein auditorisches Objekt (die Kategorie) erzeugt. Die resultierenden Kategorien gibt es oft in der realen Welt nicht, es gibt dort nur konkrete Beispiele dieser. William Ockham nutzte zur Veranschaulichung den Begriff „Rose“, der eine Kategorie von Blumen beschreibt und anhand von Beispielen aus der realen Welt geformt wird, aber in der Umwelt als solcher gar nicht existiert (Universalienproblem der Philosophie).

Beispiele auditiver Kategorien sind eine zufallende Tür, eine umfallende Flasche oder das Klingeln eines Telefons. Unterschiedliche Ereignisse können entsprechend unterschiedliche akustische (spektrale) Eigenschaften haben (bei der Tür im Arbeitszimmer oder der Eingangstür), und trotzdem als die gleiche Kategorie von Ereignis (zufallende Tür) identifiziert werden. Auch phonologische Einheiten sind solche Kategorien, die aus der Phonetik der Sprache durch Abstraktion gebildet werden. So wird z. B. mit Hilfe von drei Formanten eines periodisches Schallereignisses ein Vokal [28]. Variationen innerhalb der Kategorie, die normalerweise auch beim gleichen Sprecher vorkommen, werden ignoriert – wir hören immer das gleiche Phonem. Phoneme werden weiter in Silben, Morpheme, Wörter und Aussagen zusammengeschlossen. So folgt die eine Kategoriesierung auf die andere, und es entsteht ein entsprechendes hierarchisches System der Sprache. Man kann diesen hierarchischen Aufbau der Sprache entsprechend auch ein Sprachschaltkreis im Kortex definieren, wobei einzelne Bereiche (wie das Broca und Wernicke Areal) unterschiedlichen Sprachfunktionen zugeordnet werden können [29] [30] [31].

Interessanterweise erfolgt die Entwicklung des Gehirns in den betroffenen Arealen auch in einer entsprechenden zeitlichen Abfolge, anfangend mit phonologischer Analyse (im ersten Lebensjahr), nachfolgend mit morphosyntaktischer Analyse und lexikaler Analyse (im 2. Lebensjahr), um mit Satzstrukturanalyse zu enden (im 3. Lebensjahr und darüber hinaus) (Übersicht in [32]). Dabei zu beachten ist, dass diese Schritte sich typischerweise in der zeitlichen Entwicklungssequenz überlagern, d. h. bevor die vorherige abgeschlossen ist, fängt die nächste schon an.

In der auditorischen postnatalen Entwicklung zeigen sich zwei parallel ablaufenden Prozesse [27] [33] ([Abb. 1]): (i) Die Fähigkeit auf Unterschiede in akustischen Eigenschaften zu reagieren (also Reize zu diskriminieren) ist zwar durch ein entsprechendes genetisches Programm angeboren, wird aber durch Erfahrung weiter verbessert oder stabilisiert. (ii) Die Fähigkeit Unterschiede zu erkennen, die in den Lebensumständen keine Rolle spielen, geht im Laufe der Entwicklung verloren. Dabei entstehen dann die auditiven Kategorien.

Zoom Image
Abb. 1 Die psychophysiche Entwicklung von auditorischen Fertigkeiten kann ich zwei Bereiche aufgeteilt werden: in die Entwicklung der Fähigkeit akustische Merkmale zu unterscheiden (Diskriminationsfähigkeit) und in die Fertigkeit diese dann in auditorische Objekte zu kategorisieren. a: Bei der Fähigkeit die akustischen Merkmale zu diskriminieren kann es nach der Geburt sowohl zur Verbesserung, aber auch zum Verlust der Fähigkeit kommen. b: Die Kategorisierung ist abhängig von Erfahrung, da die Kategorien sind typischerweise erst durch die Interaktion mit der Umwelt entwickeln. Aus [27] [rerif].

Diese Entwicklungsprozesse sind auch in der Sprachentwicklung zu beobachten. Im ersten Lebensjahr entwickelt sich die Fähigkeit, Sprach-Kategorien der Phoneme (wie oben beschreiben) zu bilden. Die Bildung von Kategorien muss unweigerlich dazu führen, dass von unwichtigen akustischen Variationen abgesehen wird. Tatsächlich müssten die Kinder dadurch die Fähigkeit verlieren, Unwichtiges zu unterschieden [27]. Dies wurde tatsächlich beobachtet: Parallel zur Entstehung der Fähigkeit in der Muttersprache von unwichtigen akustischen Variationen abzusehen und dennoch die richtige phonologische Kategorie (das Phonem) zu erkennen, geht die Fähigkeit verloren, phonetische Unterschiede, die in der Muttersprache nicht distinktiv sind, zu unterschieden [3]. Dies passiert beim normalhörenden Kind um den 8. Lebensmonat [3]. Das Gehirn lernt phonologische Kategorien mit Hilfe von statistischen Zusammenhängen aus dem Sprachfluss der Eltern und Pfleger, d. h. der Häufigkeit der Phoneme und deren Übergänge von einem zum anderen Phonem [34] [35] [36]. Dabei erkennt es wahrscheinlich erst Gruppen von Phonemen („chunks“, [37] [38] [39] [40]) und die einzelnen Phoneme etablieren sich erst sekundär. Nachfolgend ist die Entwicklung des Lexikons, bei dem Wörter mit Inhalt assoziiert und abgespeichert warden [41] [42] [43]. Der entsprechende schnelle Aufbau („vocabulary spurt“) findet im 2. Lebensjahr statt. Grammatik kristallisiert sich später, im 3. Lebensjahr und den Folgejahren danach.

Der Spracherwerb zeigt eine kritische Phase: falls man bei Kindern die Hörfähigkeit nicht vor dem 3. Lebensjahr mit einem Cochlea-Implantat restituiert, sind die Erfolge limitiert ([44] [45], Übersicht in [2] [24]). Wenn die Daten zu der kritischen Periode bei dem Modell der kongenital gehörlosen Katze auf die menschliche kortikale Entwicklung extrapoliert wurde, erhielt man dabei auch das Alter von 3 Jahren [46]. Das legt den Schluss nahe, dass auch bei Kindern das Schließen der sensiblen Phase für Spracherwerb auf der synaptischen Entwicklung in den auditorischen Arealen basiert. Aber auch innerhalb der ersten 3 Jahre sind die Erfolge umso besser, je früher eine Hörtherapie anfängt [47] [48]. Die Existenz der kritischen Entwicklungsperiode unterschiedet sich im Prinzip nicht von anderen Sinnessystemen: auch im visuellen System wird z. B. die Gesichtserkennung von einer fremden Spezies nur in einer kritischen Periode effektiv erlernt [49].


#

3. Neuronale Prozesse der Diskrimination und Kategorisierung

Die diskutierten Daten belegen folglich, dass eine Therapie der angeborenen Gehörlosigkeit früh erfolgen muss, um die Kategorisierung von akustischen Merkmalen in phonologische Kategorien früh zu erlenen, in der Phase von hoher Lernfähigkeit des Gehirns, so dass sie dann als Fundament für nachfolgende linguistische Entwicklung dienen kann. Dies beruht auf einer Funktion, deren Korrelat im auditorischen Kortex vorliegt. Die Daten belegen zudem, dass diese kritische Periode durch den Prozess der kortikalen Synaptogenese bedingt ist, und dass die synaptische Elimination diese kritische Phase schließt.

Welche Funktion der neuronalen Netzwerke schädigt dabei die angeborene Gehörlosigkeit? Die komplexe Schallanalyse oder die nachfolgende Einbettung in die weitergehende kategoriale und sprachliche Verarbeitung? Die Erfahrungen mit spät implantierten prelingual gehörlosen Patienten belegten Defizite in der auditiven Diskrimination, aber weniger in Detektion der Reize [50] [51] [52]. Dies deutet auf Probleme der Diskrimination und der Kategorisierung, also auf integrative Leistungen der Hirnrinde, und weniger auf Probleme der Reizdetektion hin.

Um den im gehörlosen Gehirn verlorenen Synapsen auf dem Grund zu gehen, müsste die kortikokortikalen Verarbeitung experimentell von der thalamokortikalen separiert werden. Glücklicherweise gibt es die Möglichkeit, dies in neuronaler Aktivität durchzuführen: man separiert die an den Stimulus eng Zeit- und Phasen-gekoppelte Aktivität von restlicher Reiz-bedingten (aber nicht phasengekoppelten) Aktivität ([Abb. 2]). Diese zwei Aktivitäten nennt man evoziert (phasenkoppelt) und induziert (nicht phasengekoppelt). Sie sind am besten in dem Zeit-Frequenzraum abtrennbar [53] [54]. Da kortikokortikale Verarbeitung dauerhaft präsent ist und die Spontanaktivität bestimmt, die nicht mit dem präsentierten Reiz synchron abläuft, variiert deren Korrelat wenn man den Stimulus mehrfach wiederholt. Das unterscheidet sie von der thalamokortikalen Aktivität, die streng an den Reiz gekoppelt ist und bei einer wiederholten Reizung daher streng phasengekoppelt auftritt. Die Abtrennung von evozierter und induzierter Aktivität erlaubt es damit, die Aktivität, die durch thalamokortikalen Eingang verursacht ist, separat von kortikokortikalen Verarbeitung des Reizes zu betrachten.

Zoom Image
Abb. 2 Trennung von evozierter (thalamokortikaler) und induzierter (kortikokortikaler) Aktivität am Beispiel einer Ableitung im primären auditorischen Cortex der Katze. Links oben: 30 Wiederholungen eines auditorischen Stimulus (Kondensations-click, 50 µs, bei 0 Sek. präsentiert), einzelne Ableitungen („Trials“) in unterschiedlichen Farben dargestellt. Eine starke Phasen-gekoppelte (und daher in unterschiedlichen Trials wiederholbare) Antwort ist bei 0–0.2 Sek sichtbar. Aktivität nach ca. 0.2 Sek. unterscheidet sich aber auch von der Aktivität vor dem Reiz (-0.4–0 Sek.). Diese Aktivität ist jedoch nicht phasengekoppelt, in unterschiedliche Trials variiert sie stark. Links unten: Nach Frequenzanalyse (Morlet Wavelets) zeigt sich deutlich Aktivität um 0 Sek, aber auch zwischen 0.2–0.6 Sek. Mitte: Wenn die Zeitsignale gemittelt werden, sieht man den über Trials reproduzierbaren Teil der Aktivität (phasengekoppelt). Dieser ist auf die Zeit 0–0.2 Sek. Beschränkt. Rechts: Der Unterschied zwischen totaler und evozierter Aktivität ist die induzierte Aktivität, die von kortikokortikalen Interaktionen resultiert. Reproduziert aus [55] [rerif].

An den gehörlosen Katzen konnte so vor kurzem gezeigt werden, dass die durch Gehörlosigkeit verlorenen Synapsen weniger die thalamokortikale Synapsen betreffen, sondern viel mehr die, die für kortikokortikale Verarbeitung verantwortlich sind [55]. Nachfolgende Untersuchungen konnten dann nachweisen, dass es sich hierbei vor allem um einen Verlust der Synapsen handelt, die bei der sogenannten top-down Interaktion zwischen sekundären und primären Arealen involviert sind ([Abb. 3], siehe [56] [57]). Diese sind für den Einfluss höherer auf niedrigere Repräsentationen verantwortlich, also z. B. von auditorischen Objekt auf akustische Eigenschaften, oder beim Sprachbeispiel von Wort auf Phonem [27]. Diese funktionalen Daten zeigten auch ein Korrelat in der Morphologie der Hirnrinde: die tiefen Schichten V und VI, die Haupt-Quellen der top-down Einflüsse, zeigten eine dystrophische Veränderung in primären und auch sekundären auditorischen Arealen bei gehörlosen Katzen [58]. Die tiefe Schichten waren von den oberflächlichen Schichten funktional entkoppelt [56]. Verbindungen zwischen den oberflächlichen und tiefen Schichten sind entscheidend für die rekurrente Schaltkreise, die den Effekt der schwachen kortikokortikalen Synapsen verstärken und so die kortikale Aktivität über längere Zeiträume aufrechterhalten.

Zoom Image
Abb 3 Resultate der Konnektivitätsanalyse bei hörenden (links) und gehörlosen (rechts) Katzen. Sowohl das primäre Areal (A1) wie auch das sekundäre Areal (PAF) erhalten einen starken thalamischen Eingang, der die evozierte Aktivität in beiden Arealen verursacht. Nachfolgend kommt es zu einer Verrechnung im Cortex, bei dem die Areale miteinander über bottom-up (A1 ->PAF) wie auch top-down (PAF ->A1) Interaktionen verbunden sind. Beim gehörlosen Tier sind die evozierten Antworten ganz (A1) oder teilweise (PAF) erhalten, die kortiko-kortikalen Interaktionen, vor allem die top-down Interaktionen, defizient. Aus [56].

Solche Resultate stehen im Einklang mit der Theorie der prädiktiven Prozessierung [27] [59] [60] [61] [62]. Sie besagt, dass das Gehirn stätig Vorhersagen über mögliche sensorische Eingänge generiert, und diese nur dann verarbeitet, wenn sie nicht im Einklang mit der Vorhersage stehen. Das verringert den Rechenbedarf des Gehirns wesentlich. Die angeborene Gehörlosigkeit verhindert die top-down Interaktionen, die für die prädiktive Prozessierung entscheidend sind [56]. Da die Repräsentation von auditorischen Objekten sich nur durch Erfahrung etablieren kann und bei Gehörlosigkeit nicht vorhanden ist, gehen dazu notwendigen Synapsen durch Nichtgebrauch verloren oder entstehen gar nicht (ibid.). Das Fehlen der Vorhersagen macht den Hörvorgang anstrengender und benötigt dann mehr aktive bottom-up Verarbeitung, mehr Höranstrengung [27]. Diese Vorhersagen sind tatsächlich im Einklang mit Befunden die die ELU-Theorie stützen („ease of language understanding“) [63]. Der Prädiktionsfehler ist auch ein entscheidender Faktor der Kontrolle von Lernprozessen. Das Fehlen des neuronalen Substrats für top-down Interaktionen und damit der Prädiktion behindert also auch das auditive Lernen.

Das tatsächlich die auditorischen Areale (und nicht die Sprachareale) für das Schließen der kritischen Phasen bei Kindern verantwortlich sind, wird durch die Beobachtung belegt, dass die kritische Phase eng mit ereigniskorrelierten Potentialen zusammenhängt, die in den primären und sekundären Hörarealen generiert werden [64] [65]. Dies entspricht exakt den Vorhersagen des Katzenmodells [24]. Dieser Befund ist auch im Einklang mit der oben erwähnten Beobachtung, dass die Entwicklung der auditorischen Schaltkreise früher abläuft als die der Schaltkreise, die für das Lexikon oder die Grammatik zuständig sind. So ist der Flaschenhals der Entwicklung in der akustisch-phonetischen Analyse des sprachlichen Eingangs.

Durch die vielen Belege in die gleiche Richtung kann also geschlossen werden, dass die kritische Phase bei gehörlosen Kindern nicht auf die höhere Sprachverarbeitung (und damit die höheren Sprachareale) zurückzuführen ist, sondern vor allem auf die akustisch-phonetisch-phonologische Transformation. Diese muss extrem effektiv und schnell ablaufen, und ist auch die erste sprachliche Fähigkeit, die sich nach der Geburt entwickelt. Alle nachfolgende Schritte des Spracherwerbs sind von diesen abhängig und damit auch (sekundär) betroffen.


#

4. Distale Effekte der Gehörlosigkeit: multisensorische und kognitive Folgen

Das Hören steht im Gehirn nicht isoliert dar. Alle Strukturen des Gehirns stehen in vielfältigen Verbindungen zueinander. Dadurch wird die Integrationsleistung des Gehirns ermöglicht, und eine ganzheitliche Wahrnehmung der Welt erreicht.

Kognitive Funktionen üben auch einen top-down Einfluss auf die auditive Wahrnehmung und die Spracheverarbeitung selbst, so dass ein Teil des Sprachverständnisses von diesen Funktionen beeinflusst wird [66] [67]. Selbst bei postlingual ertaubten Patienten erlauben es die kognitiven Leistungen ein Teil der interindividuellen Variabilität der Resultate von Cochlea-Implantation aufzuklären und deswegen wird von einigen Autoren vorgeschlagen diese Funktionen klinisch zu testen [68]. Eine solche Testung ist bei Kindern natürlich komplexer, aber über Fragebogen ist dies auch quantifizierbar, selbst im Vorschulalter [69].

Nicht nur kognitive Funktionen beeinflussen das Hören, auch das Hören hat reziprok einen Einfluss auf die Kognition, ganz besonders im Kindesalter [13]. Die Kognition nutzt das Hören z. B. für Repräsentationen in dem zeitlichen Bereich, was mit einer Mahltafel modellhaft verglichen wurde [12]. Das Hören kalibriert damit sozusagen eine imaginäre Zeitachse der Denkprozesse. Dafür wird über top-down Verbindungen auf die auditiven Repräsentationen zugegriffen.

Außer proximalen Effekten der Hörschäden sind also auch distale Effekte der angeborenen Hörschäden auf andere Sinnessysteme und Kognition zu erwarten [13]. Das Hörsystems ist für zeitliche Analysen im Gehirn von entscheidender Bedeutung. So kann eine visuelle Aufgabe, die darauf beruht, Blitze (also visuelle Reize) zu zählen, durch parallel dargebotene akustische Reize gestört werden, nicht jedoch umgekehrt [70] [71]. Eine gängige Erklärung ist dabei die weit höhere Präzision des Hörsystems in der zeitlichen Dimension: das Hören repräsentiert die Phase von akustischen Reizen bis zu einer Frequenz von 4000 Hz, beim Sehen endet dies mit der Fusion der einzelnen Reize bereits im Bereich um 40–60 Hz (dabei setzt die Illusion von Bewegung ein), was faktisch einen Unterschied um Faktor 100 entspricht. Das Hören verliert gegenüber dem Sehen bei räumlichen Lokalisations-Aufgaben, wie der Bauchrednereffekt plakativ belegt [72] [73]. Hier gewinnt das viel präzisere Sehsystem, dessen räumliche Auflösung bei 1 Winkelminute liegt, was fast 100mal kleiner ist als der minimale Hörwinkel (8°), den das Hören unterscheiden kann. Multisensorischen Interaktionen (zwischen den Sinnessystemen) benötigen jedoch postnatale Erfahrung, ohne die sie sich nicht entwickeln können [74] [75] [76]. Bei angeborener Gehörlosigkeit sind tatsächlich negative Effekte auf das visuelle Sequenzlernen belegt worden [77] [78] [79] [80]. Auch multisensorische Illusionen können so bei prelingual gehörlosen Patienten betroffen sein [81], wie auch die Feinmotorik [82]. Die Beeinträchtigung in der zeitlichen Domäne ist von der genauen Aufgabe abhängig [80]. So können bei komplexeren Aufgaben mit kombinierten räumlich-zeitlichen Aufgaben die räumlichen Aspekte der Aufgabe die zeitlichen Defizite kompensieren, und dies muss man bei Planung und Interpretation der Untersuchungen bedenken [83].

Zusammengenommen hat angeborene Gehörlosigkeit also einen deutlichen Einfluss auf die zeitliche Verarbeitung in anderen Sinnessystemen. Da faktisch alle natürlichen Reize multimodal sind und die Kognition sich multimodaler und amodaler Objekte, die daraus entstehen, bedient, hat ein angeborener Hörverlust auch auf diesem Gebiet umfangreiche Konsequenzen. Im auditorischen Cortex bleiben bei Gehörlosigkeit die evozierten (d. h. thalamokortikalen) Antworten auf auditorischen Eingang erhalten [84], aber jenseits des auditorischen Cortex sind sie reduziert [85] und die multisensorische Interaktion mit dem deprivierten Sinnessystem entwickelt sich nicht [76] [86] [87]. Dies ist auch bei der Sprache zu beobachten – z. B. bei der Beeinflussung der Wahrnehmung von Silben durch das Lippenlesen, wie im McGurk Effekt. Bei prelingual gehörlosen Kindern, die nach dem 2. Lebensjahr implantiert worden sind, zeigte sich so ein Fehlen von multisensorischer Fusion und eine visuelle Dominanz in der Wahrnehmung, die bei hörenden Kontrollen nicht zu beobachten war [75]. Frühere Implantationen verhinderten diesen Effekt und ermöglichten eine effektivere multisensorische Fusion (ibid.). Dies ist für die multisensorische Verarbeitung von Sprache von großer Bedeutung.

Das Hören hat gegenüber anderen Sinnessystemen einen entscheidenden Vorteil bei der Orientierung, da es nicht von Aufmerksamkeitsfokus, Gesichtsfeld aber auch von Vegetation nicht abhängig ist. So wird die Aufmerksamkeit durch das Hören automatisch mitgesteuert, ein Effekt, der bei gehörlos Geborenen fehlt. Angeborene Gehörlosigkeit führt folglich zur Veränderung in der Verteilung der visuellen Aufmerksamkeit im Raum, mit höherer Distraktionsfähigkeit und mit mehr Aufmerksamkeit in der visuellen Peripherie [88] [89] [90]. Folglich ist die Zeit der Dauer-Aufmerksamkeit („sustained attention“) auf das gleiche Objekt mit dem Elternteil reduziert [91] [92]. Dies ist für das frühkindliche Lernen und die Entwicklung des Kindes von entscheidender Bedeutung. (Bei der reduzierten Dauer-Aufmerksamkeit kann aber auch der hörende Elternteil das Problem mit verursachen, da hörende Eltern nicht genug auf die Blickrichtung des Kindes achten [91] [93]). Im späteren Alter (um 9–10 Jahre) ist dieses Problem glücklicherweise nicht mehr zu beobachten [92]. Das damit verbundene Problem der höheren Disktraktionsfähigkeit und Impulsivität gehörloser Kinder (ein Problem der exekutiven Funktion) bleibt auch über die 9–10 Jahre vorhanden [92], was Lernprozesse negativ beeinflusst. Folglich führen angeborene Hörstörungen zu einer relevanten Reorganisation des Aufmerksamkeitssystems und der exekutiven Funktionen beim betroffenen Kind.

Das Hören ermöglicht die Etablierung von phonologischen Kategorien die weitgehend die Basis für das geschriebene Wort bilden. Gehörlose Kinder (die nicht einer oralen Erziehung unterzogen wurden) etablieren die phonologische Ebene (und andere Eigenschaften) der gesprochenen Sprache nicht [94] [95] [96]. Geschriebene Sprache ist aber von der gesprochenen Sprache abgeleitet. So ist die Lesefähigkeit der gehörlosen (gebärdender) Teenager im Vergleich mit hörenden Teenagern im Schnitt um viele Jahre verzögert [97], da sie beim Lesenlernen auch ein unbekanntes phonologisches System neu erwerben müssen (Übersicht in [98]). Es zeigt sich also, dass die akustisch vermittelte Sprache die Bildungsoptionen einer auf hörende Gesellschaft ausgerichteter Ausbildung dramatisch verbessert.

Bei den „Wolfskinder“-Kasuistiken [99] sind Berichte über interindividuelle Effekte auf Kognition bekannt, die leider nur bei wenigen dieser Personen auch detailliert untersucht sind [100] [101] und deren Ursprung nicht immer definitiv geklärt werden konnte. Bei einigen dieser Kinder (wie z. B. Peter von Hannover) wurde auch ein Autismus als Begleiterkrankung vermutet. Bei anderen Kasuistiken sind andere Begleiterkrankungen erwogen worden. Dennoch wurde bei diesen Kindern von interindividuell unterschiedlichen Defiziten in unterschiedlichen kognitiven Funktionen berichtet [102]. Solche individuell unterschiedlich ausgeprägten Defizite in einzelnen kognitiven Funktionen unter der Annahme der gleichen Erkrankung nennt man kognitive Streuung („cognitive scatter“). Eine kognitive Streuung wurde auch bei gehörlosen Kindern berichtet [103] [104] [105] [106]. Das legt nahe, dass das Fehlen vom Hören das Risiko von kognitiven Auffälligkeiten erhöht. Während die oben erwähnten Effekte der angeborenen Gehörlosigkeit auf die Aufmerksamkeit die Veränderungen in den exekutiven Funktionen und die reduzierte Impulskontrolle von gehörlosen Kindern [88] [92] gut erklären, muss die Abhängigkeit von kognitiven Funktionen von Sprachkompetenz (im Sinne der Sapir-Whorf Hypothese) weiter untersucht werden. Auch ist zu betonen, dass dies durch Tests beeinflusst werden könnte, die sprachabhängig sind [107]. Tiermodelle ermöglichen dann eine Abtrennung von Auswirkungen der Sprachdefizite und der Hördefizite auf Kognition, die auf diesem Gebiet von entscheidender Bedeutung ist. Experimente in dieser Richtung werden auch in unseren Labors durchgeführt.

Zusammenfassend kann man schlussfolgern, dass das angeboren gehörlose Gehirn nicht gleichzusetzen ist mit einem hörenden Gehirn ohne ein funktionierendes Innenohr. Das gehörlose Gehirn ist an die Gehörlosigkeit angepasst, mit weitereichenden Folgen für das Kind. Diese Anpassungen gehen über das Hörsystem hinaus und betreffen viele weitere Funktionen des Gehirns. Das Konnektom ist die Summe aller synaptischen Verbindungen im Gehirn; wenn als funktionelles Konnektom verstanden definiert dieses unser Denkprozesse und all unsere Wahrnehmung. Das Konnektom-Modell der angeborenen Gehörlosigkeit [13] schlägt vor, die Folgen des Hörverlust auf die Hirnentwicklung in der Perspektive des gesamten Gehirns zu betrachten ([Abb. 4]). Das Modell betont die hohe Interkonnektivität des Hörsystems mit dem Rest des Gehirns und deren gemeinsame reziproke Abhängigkeiten bei multisensorischen und kognitiven Funktionen inklusive Sprache, Aufmerksamkeit, Gedächtnis und exekutiven Funktionen. Diese kann (muss nicht zwingend) zu kognitiven Veränderungen bei angeborener Gehörlosigkeit führen, die möglicherweise abhängig von der „Strategie“, mit der das Gehirn das Fehlen des Hören kompensiert, abhängig ist [13]. Die kognitiven Veränderungen weisen dann typischerweise ein stark individuelles Muster (kognitive Streuung) auf.

Zoom Image
Abb. 4 Das Konnektom-Modell der angeborenen Gehörlosigkeit. Exemplarische Darstellung der kortikalen Verbindungen des Hörsystems mit dem Rest der Hirnrinde. Bottom-up Interaktionen sind in grüner Farbe, top-down Interaktionen in roter Farbe. Das Hörsystem ist stark mit den anderen Subsystemen des Gehirns verbunden, und bei Gehörlosigkeit müssen sich diese auf das Fehlen des Hörens adäquat anpassen. Diese Anpassung ist interindividuell unterschiedlich. Aus [13] [rerif] „Nachgedruckt von Lancet Neurology 15, Kral A, Kronenberger WG, Pisoni DB, O’Donoghue GM, Neurocognitive factors in sensory restoration of early deafness: a connectome model 610-621, Copyright (2016), mit Genehmigung von Elsevier“.

Ein Risiko von Defiziten in kognitiven Funktionen bei angeborenen Hördefiziten muss folglich bedacht, diagnostiziert und auch adressiert werden, da solche Defizite weitreichende Folgen für das spätere Leben des gehörlosen Kindes haben können. Eine wesentliche Aufgabe ist es Methoden zu entwickeln, die den kognitiven Effekten der Gehörlosigkeit entgegenwirken können. Da diese individuell unterschiedlich sind, bedarf es dabei eines individualisierten medizinischen Ansatzes bei einer Cochlea-Implantation.

Unterstützt von der Deutschen Forschungsgemeinschaft (DFG, Exzellenzcluster Hearing4All), der National Science Foundation (USA) in Zusammenarbeit mit DLR, und der Europäischen Union (ITN Comm4Child). Der Autor dankt Professoren G. O’Donoghue, W. Kronenberger und D. Pisoni für viele wissenschaftliche Diskussionen, die zu dem Vorschlag des Konnektom-Models geführt haben.


#
#
#

Interessenkonflikt

Der Autor gibt an, dass kein Interessenkonflikt besteht.

  • Literatur

  • 1 Kral A. Auditory critical periods: a review from system’s perspective. Neuroscience 2013; 247: 117-133
  • 2 Kral A, Dorman MF, Wilson BS. Neuronal Development of Hearing and Language: Cochlear Implants and Critical Periods. Annu Rev Neurosci 2019; 42: 47-65
  • 3 Werker JF, Tees RC. The organization and reorganization of human speech perception. Annu Rev Neurosci 1992; 15: 377-402
  • 4 Kuhl P, Rivera-Gaxiola M. Neural substrates of language acquisition. Annu Rev Neurosci 2008; 31: 511-534
  • 5 Sapir E. The status of linguistics as a science. Language 1929; 5: 207-214
  • 6 Whorf BL. Science and Linguistics. In: Carroll JB, ed. Language, Thought and Reality: Selected Writings of Benjamin Lee Whorf. Cambridge: MIT Press; 1956: 207-219
  • 7 McNeill NB. Colour and colour terminology. Journal of linguistics 1972; 8: 21-33
  • 8 Josserand M, Meeussen E, Majid A, Dediu D. Environment and culture shape both the colour lexicon and the genetics of colour perception. Sci Rep 2021; 11: 19095
  • 9 Roberson D. Color Categories Are Culturally Diverse in Cognition as Well as in Language. Cross-Cultural Research 2005; 39: 56-71
  • 10 Thierry G, Athanasopoulos P, Wiggett A, Dering B, Kuipers J-R. Unconscious effects of language-specific terminology on preattentive color perception. Proceedings of the National Academy of Sciences 2009; 106: 4567-4570
  • 11 Cibelli E, Xu Y, Austerweil JL, Griffiths TL, Regier T. The Sapir-Whorf Hypothesis and Probabilistic Inference: Evidence from the Domain of Color. PLoS One 2016; 11: e0158725
  • 12 Mumford D. On the computational architecture of the neocortex. II. The role of cortico-cortical loops. Biol Cybern 1992; 66: 241-251
  • 13 Kral A, Kronenberger WG, Pisoni DB, O’Donoghue GM. Neurocognitive factors in sensory restoration of early deafness: a connectome model. Lancet Neurol 2016; 15: 610-621
  • 14 Sontag LW, Wallace RF. Changes in the rate of the human fetal heart in response to vibratory stimuli. American Journal of Diseases of Children 1936; 51: 583-589
  • 15 Sontag LW, Wallace RF. The movement response of the human fetus to sound stimuli. Child Development 1935; 6: 253-258
  • 16 Birnholz JC, Benacerraf BR. The development of human fetal hearing. Science 1983; 222: 516-518
  • 17 Warner LA, Fay RR, Popper AN. Human Auditory Development. Springer Handbook of Auditory Research 2012; 384 pages
  • 18 Mai JK, Winking R, Ashwell KW. Transient CD15 expression reflects stages of differentiation and maturation in the human subcortical central auditory pathway. J Comp Neurol 1999; 404: 197-211
  • 19 Gogtay N, Giedd JN, Lusk L. et al. Dynamic mapping of human cortical development during childhood through early adulthood. Proc Natl Acad Sci U S A 2004; 101: 8174-8179
  • 20 Lin JJ, Mula M, Hermann BP. Uncovering the neurobehavioural comorbidities of epilepsy over the lifespan. Lancet 2012; 380: 1180-1192
  • 21 Huttenlocher PR, Dabholkar AS. Regional differences in synaptogenesis in human cerebral cortex. J Comp Neurol 1997; 387: 167-178
  • 22 Kral A, Tillein J, Heid S, Hartmann R, Klinke R. Postnatal Cortical Development in Congenital Auditory Deprivation. Cereb Cortex 2005; 15: 552-562
  • 23 Kral A, Pallas SL. Development of the Auditory Cortex. eds. The Auditory Cortex. New York: Springer Verlag; 2010: 443-464
  • 24 Kral A, Sharma A. Developmental neuroplasticity after cochlear implantation. Trends Neurosci 2012; 35: 111-122
  • 25 Kral A, Hartmann R, Tillein J, Heid S, Klinke R. Hearing after congenital deafness: central auditory plasticity and sensory deprivation. Cereb Cortex 2002; 12: 797-807
  • 26 Kral A, Hubka P, Heid S, Tillein J. Single-sided deafness leads to unilateral aural preference within an early sensitive period. Brain 2013; 136: 180-193
  • 27 Kral A, Yusuf PA, Land R. Higher-order auditory areas in congenital deafness: Top-down interactions and corticocortical decoupling. Hear Res 2017; 343: 50-63
  • 28 Hillenbrand J, Getty LA, Clark MJ, Wheeler K. Acoustic characteristics of American English vowels. The Journal of the Acoustical society of America 1995; 97: 3099-3111
  • 29 Poeppel D, Assaneo MF. Speech rhythms and their neural foundations. Nat Rev Neurosci 2020; 21: 322-334
  • 30 Hickok G, Poeppel D. The cortical organization of speech processing. Nat Rev Neurosci 2007; 8: 393-402
  • 31 Rauschecker JP. Where, When, and How: Are they all sensorimotor? Towards a unified view of the dorsal pathway in vision and audition. Cortex 2018; 98: 262-268
  • 32 Skeide MA, Friederici AD. The ontogeny of the cortical language network. Nature Reviews Neuroscience 2016; 17: 323-332
  • 33 Aslin RN, Pisoni DB. Some developmental processes in speech perception. In: Yeni-Komshian GH, Kavanagh JH, Ferguson CA, eds. Child Phonology: Perception. New York: Academic Press; 1980: 67-96
  • 34 Saffran JR, Aslin RN, Newport EL. Statistical learning by 8-month-old infants. Science 1996; 274: 1926-1928
  • 35 Saffran JR, Johnson EK, Aslin RN, Newport EL. Statistical learning of tone sequences by human infants and adults. Cognition 1999; 70: 27-52
  • 36 Aslin RN. Statistical learning: a powerful mechanism that operates by mere exposure. Wiley Interdiscip Rev Cogn Sci 2017; 8 e1373
  • 37 Perruchet P. What Mechanisms Underlie Implicit Statistical Learning? Transitional Probabilities Versus Chunks in Language Learning. Top Cogn Sci 2018; 11(3): 1-16
  • 38 Armstrong BC, Frost R, Christiansen MH. The long road of statistical learning research: past, present and future. Philos Trans R Soc Lond B Biol Sci 2017; 372 20160047
  • 39 Christiansen MH. Implicit statistical learning: A tale of two literatures. Topics in cognitive science 2019; 11: 468-481
  • 40 Goldinger SD, Azuma T. Puzzle-solving science: the quixotic quest for units in speech perception. J Phon 2003; 31: 305-320
  • 41 Goldfield BA, Reznick JS. Early lexical acquisition: Rate, content, and the vocabulary spurt. Journal of child language 1990; 17: 171-183
  • 42 Reznick JS, Goldfield BA. Rapid change in lexical development in comprehension and production. Developmental psychology 1992; 28: 406
  • 43 Segbers J, Schroeder S. How many words do children know? A corpus-based estimation of children’s total vocabulary size. Language Testing 2017; 34: 297-320
  • 44 Fryauf-Bertschy H, Tyler RS, Kelsay DM, Gantz BJ, Woodworth GG. Cochlear implant use by prelingually deafened children: the influences of age at implant and length of device use. J Speech Lang Hear Res 1997; 40: 183-199
  • 45 Manrique M, Cervera-Paz FJ, Huarte A, Perez N, Molina M, Garcia-Tapia R. Cerebral auditory plasticity and cochlear implants. International Journal of Pediatric Otorhinolaryngology 1999; 49: S193-S197
  • 46 Gordon K, Kral A. Animal and human studies on developmental monaural hearing loss. Hear Res 2019; 380: 60-74
  • 47 Niparko JK, Tobey EA, Thal DJ. et al. Spoken language development in children following cochlear implantation. JAMA 2010; 303: 1498-1506
  • 48 Karltorp E, Eklöf M, Östlund E, Asp F, Tideholm B, Löfkvist U. Cochlear implants before 9 months of age led to more natural spoken language development without increased surgical risks. Acta Paediatr 2020; 109: 332-341
  • 49 Pascalis O, Scott LS, Kelly DJ. et al. Plasticity of face processing in infancy. Proc Natl Acad Sci U S A 2005; 102: 5297-5300
  • 50 Busby PA, Clark GM. Electrode discrimination by early-deafened cochlear implant patients. Audiology 1996; 35: 8-22
  • 51 Busby PA, Clark GM. Gap detection by early-deafened cochlear-implant subjects. J Acoust Soc Am 1999; 105: 1841-1852
  • 52 Rousset AM. Outcomes and predictive factors with cochlear implants for adults with a significant, early-onset hearing loss. PhD Thesis. 2017
  • 53 Herrmann CS, Munk MHJ, Engel AK. Cognitive functions of gamma-band activity: memory match and utilization. Trends Cogn Sci 2004; 8: 347-355
  • 54 Siegel M, Donner TH, Engel AK. Spectral fingerprints of large-scale neuronal interactions. Nat Rev Neurosci 2012; 13: 121-134
  • 55 Yusuf PA, Hubka P, Tillein J, Kral A. Induced Cortical Responses Require Developmental Sensory Experience. Brain 2017; 140: 3153-3165
  • 56 Yusuf PA, Hubka P, Tillein J, Vinck M, Kral A. Deafness weakens interareal couplings in the auditory cortex. Frontiers in Neuroscience 2021; 14: 1476
  • 57 Yusuf PA, Lamuri A, Hubka P, Tillein J, Vinck M, Kral A. Deficient Recurrent Cortical Processing in Congenital Deafness. Frontiers in systems neuroscience 2022; 16: 806142
  • 58 Berger C, Kühne D, Scheper V, Kral A. Congenital deafness affects deep layers in primary and secondary auditory cortex. J Comp Neurol 2017; 525: 3110-3125
  • 59 Rescorla RA, Solomon RL. Two-process learning theory: Relationships between Pavlovian conditioning and instrumental learning. Psychol Rev 1967; 74: 151-182
  • 60 Rescorla RA. The psychology of learning: conditioning and associative learning. Science 1984; 223: 388-389
  • 61 Rescorla RA, Wagner AR. A Theory of Pavlovian Conditioning: Variations in the Effectiveness of Reinforcement and Nonreinforcement. In: Black AH, Prokasy WF, eds. Classical Conditioning II: Current Research and Theory. New York: Appleton-Century-Crofts; 1972: 64-99
  • 62 Friston K. The free-energy principle: a unified brain theory?. Nat Rev Neurosci 2010; 11: 127-138
  • 63 Rönnberg J, Holmer E, Rudner M. Cognitive hearing science and ease of language understanding. Int J Audiol 2019; 1-15
  • 64 Sharma A, Dorman MF, Spahr AJ. A sensitive period for the development of the central auditory system in children with cochlear implants: implications for age of implantation. Ear Hear 2002; 23: 532-539
  • 65 Sharma A, Dorman MF, Kral A. The influence of a sensitive period on central auditory development in children with unilateral and bilateral cochlear implants. Hear Res 2005; 203: 134-143
  • 66 Mattingly JK, Castellanos I, Moberly AC. Nonverbal Reasoning as a Contributor to Sentence Recognition Outcomes in Adults With Cochlear Implants. Otol Neurotol 2018; 39: e956-e963
  • 67 Moberly AC, Lewis JH, Vasil KJ, Ray C, Tamati TN. Bottom-Up Signal Quality Impacts the Role of Top-Down Cognitive-Linguistic Processing During Speech Recognition by Adults with Cochlear Implants. Otol Neurotol 2021; 42: S33-S41
  • 68 Naples JG, Castellanos I, Moberly AC. Considerations for Integrating Cognitive Testing Into Adult Cochlear Implant Evaluations – Foundations for the Future. JAMA Otolaryngology – Head & Neck Surgery 2021; 147: 413-414
  • 69 Beer J, Kronenberger WG, Castellanos I, Colson BG, Henning SC, Pisoni DB. Executive Functioning Skills in Preschool-Age Children with Cochlear Implants. J Speech Lang Hear Res 2014; 57: 1521-1534
  • 70 Recanzone GH. Auditory influences on visual temporal rate perception. J Neurophysiol 2003; 89: 1078-1093
  • 71 Barakat B, Seitz AR, Shams L. Visual rhythm perception improves through auditory but not visual training. Current Biology 2015; 25: R60-R61
  • 72 Recanzone GH. Rapidly induced auditory plasticity: the ventriloquism aftereffect. Proc Natl Acad Sci USA 1998; 95: 869-875
  • 73 Lewald J. Rapid adaptation to auditory-visual spatial disparity. Learn Mem 2002; 9: 268-278
  • 74 Mayers KS, Robertson RT, Rubel EW, Thompson RF. Development of polysensory responses in association cortex of kitten. Science 1971; 171: 1038-1040
  • 75 Schorr EA, Fox NA, van Wassenhove V, Knudsen EI. Auditory-visual fusion in speech perception in children with cochlear implants. Proc Natl Acad Sci U S A 2005; 102: 18748-18750
  • 76 Wallace MT, Stein BE. Early experience determines how the senses will interact. J Neurophysiol 2007; 97: 921-926
  • 77 Conway CM, Pisoni DB, Kronenberger WG. The Importance of Sound for Cognitive Sequencing Abilities: The Auditory Scaffolding Hypothesis. Curr Dir Psychol Sci 2009; 18: 275-279
  • 78 Bolognini N, Cecchetto C, Geraci C, Maravita A, Pascual-Leone A, Papagno C. Hearing shapes our perception of time: temporal discrimination of tactile stimuli in deaf people. J Cogn Neurosci 2012; 24: 276-286
  • 79 Dye MWG. Temporal entrainment of visual attention in children: effects of age and deafness. Vision Res 2014; 105: 29-36
  • 80 Iversen JR, Patel AD, Nicodemus B, Emmorey K. Synchronization to auditory and visual rhythms in hearing and deaf individuals. Cognition 2015; 134: 232-244
  • 81 Amadeo MB, Tonelli A, Campus C, Gori M. Reduced flash lag illusion in early deaf individuals. Brain Research 2022; 1776: 147744
  • 82 Horn DL, Pisoni DB, Miyamoto RT. Divergence of fine and gross motor skills in prelingually deaf children: implications for cochlear implantation. Laryngoscope 2006; 116: 1500-1506
  • 83 Amadeo MB, Campus C, Pavani F, Gori M. Spatial Cues Influence Time Estimations in Deaf Individuals. iScience 2019; 19: 369-377
  • 84 Land R, Baumhoff P, Tillein J, Lomber SG, Hubka P, Kral A. Cross-Modal Plasticity in Higher-Order Auditory Cortex of Congenitally Deaf Cats Does Not Limit Auditory Responsiveness to Cochlear Implants. J Neurosci 2016; 36: 6175-6185
  • 85 Land R, Radecke J-O, Kral A. Congenital Deafness Reduces, But Does Not Eliminate Auditory Responsiveness in Cat Extrastriate Visual Cortex. Neuroscience 2018; 375: 149-157
  • 86 Wallace MT, Perrault TJ, Hairston WD, Stein BE. Visual experience is necessary for the development of multisensory integration. Journal of Neuroscience 2004; 24: 9580-9584
  • 87 Wallace MT, Carriere BN, Perrault TJ, Vaughan JW, Stein BE. The development of cortical multisensory integration. Journal of Neuroscience 2006; 26: 11844-11849
  • 88 Yucel E, Derim D. The effect of implantation age on visual attention skills. Int J Pediatr Otorhinolaryngol 2008; 72: 869-877
  • 89 Cejas I, Barker DH, Quittner AL, Niparko JK. Development of joint engagement in young deaf and hearing children: Effects of chronological age and language skills. Journal of Speech. 2014
  • 90 Bortfeld H, Oghalai JS. Joint Attention in Hearing Parent–Deaf Child and Hearing Parent–Hearing Child Dyads. IEEE Transactions on Cognitive and …. 2018
  • 91 Barker DH, Quittner AL, Fink NE. et al. Predicting behavior problems in deaf and hearing children: the influences of language, attention, and parent-child communication. Dev Psychopathol 2009; 21: 373-392
  • 92 Dye MWG, Hauser PC. Sustained attention, selective attention and cognitive control in deaf and hearing children. Hear Res 2014; 309: 94-102
  • 93 Spencer PE, Bodner-Johnson BA, Gutfreund MK. Interacting with infants with a hearing loss: What can we learn from mothers who are deaf. Journal of Early Intervention 1992; 16(1): 64-78
  • 94 Koo D, Crain K, LaSasso C, Eden GF. Phonological awareness and short-term memory in hearing and deaf individuals of different communication backgrounds. Ann N Y Acad Sci 2008; 1145: 83-99
  • 95 Johnson C, Goswami U. Phonological Awareness, Vocabulary and Reading in Deaf Children with Cochlear Implants. J Speech Lang Hear Res. 2010 (in press)
  • 96 Nittrouer S, Muir M, Tietgens K, Moberly AC, Lowenstein JH. Development of Phonological, Lexical, and Syntactic Abilities in Children With Cochlear Implants Across the Elementary Grades. J Speech Lang Hear Res 2018; 1–17
  • 97 Archbold S, Harris M, O’Donoghue G, Nikolopoulos T, White A, Richmond HL. Reading abilities after cochlear implantation: the effect of age at implantation on outcomes at 5 and 7 years after implantation. Int J Pediatr Otorhinolaryngol 2008; 72: 1471-1478
  • 98 Kral A, O’Donoghue GM. Profound deafness in childhood. N Engl J Med 2010; 363: 1438-1450
  • 99 Blumenthal PJ. Kaspar Hausers Geschwister: Auf der Suche nach dem wilden Menschen 2018; 442: pages
  • 100 Curtiss S. Genie: A Psycholinguistic Study of a Modern-Day “Wild Child” 1977; 283: pages
  • 101 Curtiss S. The Case Of Chelsea: The effects of late age at exposure to language on language performance and evidence for the modularity of language and mind. In: Schütze CT, Stockall L, Stockall L, eds. UCLA Working Papers in Linguistics. 2014: 115-146
  • 102 McGrew KS, Knopik SN. The relationship between intra-cognitive scatter on the Woodcock-Johnson Psycho-Educational Battery-Revised and school achievement. Journal of School Psychology 1996; 34: 351-364
  • 103 Kronenberger WG, Colson BG, Henning SC, Pisoni DB. Executive functioning and speech-language skills following long-term use of cochlear implants. J Deaf Stud Deaf Educ 2014; 19: 456-470
  • 104 Kronenberger WG, Beer J, Castellanos I, Pisoni DB, Miyamoto RT. Neurocognitive risk in children with cochlear implants. JAMA Otolaryngol Head Neck Surg 2014; 140: 608-615
  • 105 Marschark M, Kronenberger WG, Rosica M. et al. Social Maturity and Executive Function Among Deaf Learners. J Deaf Stud Deaf Educ 2017; 22: 22-34
  • 106 Pisoni DB, Kronenberger WG, Roman AS, Geers AE. Measures of digit span and verbal rehearsal speed in deaf children after more than 10 years of cochlear implantation. Ear Hear 2011; 32: 60S-74S
  • 107 Cejas I, Mitchell CM, Hoffman M, Quittner AL, Team CDI. Comparisons of IQ in children with and without cochlear implants: longitudinal findings and associations with language. Ear Hear 2018; 39: 1187-1198

Korrespondenzadresse

Prof. Dr. A. Kral
VIANNA
Stadtfelddamm 34
30625 Hannover
Deutschland   

Publikationsverlauf

Artikel online veröffentlicht:
02. Mai 2023

© 2023. The Author(s). This is an open access article published by Thieme under the terms of the Creative Commons Attribution-NonDerivative-NonCommercial-License, permitting copying and reproduction so long as the original work is given appropriate credit. Contents may not be used for commercial purposes, or adapted, remixed, transformed or built upon. (https://creativecommons.org/licenses/by-nc-nd/4.0/).

Georg Thieme Verlag KG
Rüdigerstraße 14, 70469 Stuttgart, Germany

  • Literatur

  • 1 Kral A. Auditory critical periods: a review from system’s perspective. Neuroscience 2013; 247: 117-133
  • 2 Kral A, Dorman MF, Wilson BS. Neuronal Development of Hearing and Language: Cochlear Implants and Critical Periods. Annu Rev Neurosci 2019; 42: 47-65
  • 3 Werker JF, Tees RC. The organization and reorganization of human speech perception. Annu Rev Neurosci 1992; 15: 377-402
  • 4 Kuhl P, Rivera-Gaxiola M. Neural substrates of language acquisition. Annu Rev Neurosci 2008; 31: 511-534
  • 5 Sapir E. The status of linguistics as a science. Language 1929; 5: 207-214
  • 6 Whorf BL. Science and Linguistics. In: Carroll JB, ed. Language, Thought and Reality: Selected Writings of Benjamin Lee Whorf. Cambridge: MIT Press; 1956: 207-219
  • 7 McNeill NB. Colour and colour terminology. Journal of linguistics 1972; 8: 21-33
  • 8 Josserand M, Meeussen E, Majid A, Dediu D. Environment and culture shape both the colour lexicon and the genetics of colour perception. Sci Rep 2021; 11: 19095
  • 9 Roberson D. Color Categories Are Culturally Diverse in Cognition as Well as in Language. Cross-Cultural Research 2005; 39: 56-71
  • 10 Thierry G, Athanasopoulos P, Wiggett A, Dering B, Kuipers J-R. Unconscious effects of language-specific terminology on preattentive color perception. Proceedings of the National Academy of Sciences 2009; 106: 4567-4570
  • 11 Cibelli E, Xu Y, Austerweil JL, Griffiths TL, Regier T. The Sapir-Whorf Hypothesis and Probabilistic Inference: Evidence from the Domain of Color. PLoS One 2016; 11: e0158725
  • 12 Mumford D. On the computational architecture of the neocortex. II. The role of cortico-cortical loops. Biol Cybern 1992; 66: 241-251
  • 13 Kral A, Kronenberger WG, Pisoni DB, O’Donoghue GM. Neurocognitive factors in sensory restoration of early deafness: a connectome model. Lancet Neurol 2016; 15: 610-621
  • 14 Sontag LW, Wallace RF. Changes in the rate of the human fetal heart in response to vibratory stimuli. American Journal of Diseases of Children 1936; 51: 583-589
  • 15 Sontag LW, Wallace RF. The movement response of the human fetus to sound stimuli. Child Development 1935; 6: 253-258
  • 16 Birnholz JC, Benacerraf BR. The development of human fetal hearing. Science 1983; 222: 516-518
  • 17 Warner LA, Fay RR, Popper AN. Human Auditory Development. Springer Handbook of Auditory Research 2012; 384 pages
  • 18 Mai JK, Winking R, Ashwell KW. Transient CD15 expression reflects stages of differentiation and maturation in the human subcortical central auditory pathway. J Comp Neurol 1999; 404: 197-211
  • 19 Gogtay N, Giedd JN, Lusk L. et al. Dynamic mapping of human cortical development during childhood through early adulthood. Proc Natl Acad Sci U S A 2004; 101: 8174-8179
  • 20 Lin JJ, Mula M, Hermann BP. Uncovering the neurobehavioural comorbidities of epilepsy over the lifespan. Lancet 2012; 380: 1180-1192
  • 21 Huttenlocher PR, Dabholkar AS. Regional differences in synaptogenesis in human cerebral cortex. J Comp Neurol 1997; 387: 167-178
  • 22 Kral A, Tillein J, Heid S, Hartmann R, Klinke R. Postnatal Cortical Development in Congenital Auditory Deprivation. Cereb Cortex 2005; 15: 552-562
  • 23 Kral A, Pallas SL. Development of the Auditory Cortex. eds. The Auditory Cortex. New York: Springer Verlag; 2010: 443-464
  • 24 Kral A, Sharma A. Developmental neuroplasticity after cochlear implantation. Trends Neurosci 2012; 35: 111-122
  • 25 Kral A, Hartmann R, Tillein J, Heid S, Klinke R. Hearing after congenital deafness: central auditory plasticity and sensory deprivation. Cereb Cortex 2002; 12: 797-807
  • 26 Kral A, Hubka P, Heid S, Tillein J. Single-sided deafness leads to unilateral aural preference within an early sensitive period. Brain 2013; 136: 180-193
  • 27 Kral A, Yusuf PA, Land R. Higher-order auditory areas in congenital deafness: Top-down interactions and corticocortical decoupling. Hear Res 2017; 343: 50-63
  • 28 Hillenbrand J, Getty LA, Clark MJ, Wheeler K. Acoustic characteristics of American English vowels. The Journal of the Acoustical society of America 1995; 97: 3099-3111
  • 29 Poeppel D, Assaneo MF. Speech rhythms and their neural foundations. Nat Rev Neurosci 2020; 21: 322-334
  • 30 Hickok G, Poeppel D. The cortical organization of speech processing. Nat Rev Neurosci 2007; 8: 393-402
  • 31 Rauschecker JP. Where, When, and How: Are they all sensorimotor? Towards a unified view of the dorsal pathway in vision and audition. Cortex 2018; 98: 262-268
  • 32 Skeide MA, Friederici AD. The ontogeny of the cortical language network. Nature Reviews Neuroscience 2016; 17: 323-332
  • 33 Aslin RN, Pisoni DB. Some developmental processes in speech perception. In: Yeni-Komshian GH, Kavanagh JH, Ferguson CA, eds. Child Phonology: Perception. New York: Academic Press; 1980: 67-96
  • 34 Saffran JR, Aslin RN, Newport EL. Statistical learning by 8-month-old infants. Science 1996; 274: 1926-1928
  • 35 Saffran JR, Johnson EK, Aslin RN, Newport EL. Statistical learning of tone sequences by human infants and adults. Cognition 1999; 70: 27-52
  • 36 Aslin RN. Statistical learning: a powerful mechanism that operates by mere exposure. Wiley Interdiscip Rev Cogn Sci 2017; 8 e1373
  • 37 Perruchet P. What Mechanisms Underlie Implicit Statistical Learning? Transitional Probabilities Versus Chunks in Language Learning. Top Cogn Sci 2018; 11(3): 1-16
  • 38 Armstrong BC, Frost R, Christiansen MH. The long road of statistical learning research: past, present and future. Philos Trans R Soc Lond B Biol Sci 2017; 372 20160047
  • 39 Christiansen MH. Implicit statistical learning: A tale of two literatures. Topics in cognitive science 2019; 11: 468-481
  • 40 Goldinger SD, Azuma T. Puzzle-solving science: the quixotic quest for units in speech perception. J Phon 2003; 31: 305-320
  • 41 Goldfield BA, Reznick JS. Early lexical acquisition: Rate, content, and the vocabulary spurt. Journal of child language 1990; 17: 171-183
  • 42 Reznick JS, Goldfield BA. Rapid change in lexical development in comprehension and production. Developmental psychology 1992; 28: 406
  • 43 Segbers J, Schroeder S. How many words do children know? A corpus-based estimation of children’s total vocabulary size. Language Testing 2017; 34: 297-320
  • 44 Fryauf-Bertschy H, Tyler RS, Kelsay DM, Gantz BJ, Woodworth GG. Cochlear implant use by prelingually deafened children: the influences of age at implant and length of device use. J Speech Lang Hear Res 1997; 40: 183-199
  • 45 Manrique M, Cervera-Paz FJ, Huarte A, Perez N, Molina M, Garcia-Tapia R. Cerebral auditory plasticity and cochlear implants. International Journal of Pediatric Otorhinolaryngology 1999; 49: S193-S197
  • 46 Gordon K, Kral A. Animal and human studies on developmental monaural hearing loss. Hear Res 2019; 380: 60-74
  • 47 Niparko JK, Tobey EA, Thal DJ. et al. Spoken language development in children following cochlear implantation. JAMA 2010; 303: 1498-1506
  • 48 Karltorp E, Eklöf M, Östlund E, Asp F, Tideholm B, Löfkvist U. Cochlear implants before 9 months of age led to more natural spoken language development without increased surgical risks. Acta Paediatr 2020; 109: 332-341
  • 49 Pascalis O, Scott LS, Kelly DJ. et al. Plasticity of face processing in infancy. Proc Natl Acad Sci U S A 2005; 102: 5297-5300
  • 50 Busby PA, Clark GM. Electrode discrimination by early-deafened cochlear implant patients. Audiology 1996; 35: 8-22
  • 51 Busby PA, Clark GM. Gap detection by early-deafened cochlear-implant subjects. J Acoust Soc Am 1999; 105: 1841-1852
  • 52 Rousset AM. Outcomes and predictive factors with cochlear implants for adults with a significant, early-onset hearing loss. PhD Thesis. 2017
  • 53 Herrmann CS, Munk MHJ, Engel AK. Cognitive functions of gamma-band activity: memory match and utilization. Trends Cogn Sci 2004; 8: 347-355
  • 54 Siegel M, Donner TH, Engel AK. Spectral fingerprints of large-scale neuronal interactions. Nat Rev Neurosci 2012; 13: 121-134
  • 55 Yusuf PA, Hubka P, Tillein J, Kral A. Induced Cortical Responses Require Developmental Sensory Experience. Brain 2017; 140: 3153-3165
  • 56 Yusuf PA, Hubka P, Tillein J, Vinck M, Kral A. Deafness weakens interareal couplings in the auditory cortex. Frontiers in Neuroscience 2021; 14: 1476
  • 57 Yusuf PA, Lamuri A, Hubka P, Tillein J, Vinck M, Kral A. Deficient Recurrent Cortical Processing in Congenital Deafness. Frontiers in systems neuroscience 2022; 16: 806142
  • 58 Berger C, Kühne D, Scheper V, Kral A. Congenital deafness affects deep layers in primary and secondary auditory cortex. J Comp Neurol 2017; 525: 3110-3125
  • 59 Rescorla RA, Solomon RL. Two-process learning theory: Relationships between Pavlovian conditioning and instrumental learning. Psychol Rev 1967; 74: 151-182
  • 60 Rescorla RA. The psychology of learning: conditioning and associative learning. Science 1984; 223: 388-389
  • 61 Rescorla RA, Wagner AR. A Theory of Pavlovian Conditioning: Variations in the Effectiveness of Reinforcement and Nonreinforcement. In: Black AH, Prokasy WF, eds. Classical Conditioning II: Current Research and Theory. New York: Appleton-Century-Crofts; 1972: 64-99
  • 62 Friston K. The free-energy principle: a unified brain theory?. Nat Rev Neurosci 2010; 11: 127-138
  • 63 Rönnberg J, Holmer E, Rudner M. Cognitive hearing science and ease of language understanding. Int J Audiol 2019; 1-15
  • 64 Sharma A, Dorman MF, Spahr AJ. A sensitive period for the development of the central auditory system in children with cochlear implants: implications for age of implantation. Ear Hear 2002; 23: 532-539
  • 65 Sharma A, Dorman MF, Kral A. The influence of a sensitive period on central auditory development in children with unilateral and bilateral cochlear implants. Hear Res 2005; 203: 134-143
  • 66 Mattingly JK, Castellanos I, Moberly AC. Nonverbal Reasoning as a Contributor to Sentence Recognition Outcomes in Adults With Cochlear Implants. Otol Neurotol 2018; 39: e956-e963
  • 67 Moberly AC, Lewis JH, Vasil KJ, Ray C, Tamati TN. Bottom-Up Signal Quality Impacts the Role of Top-Down Cognitive-Linguistic Processing During Speech Recognition by Adults with Cochlear Implants. Otol Neurotol 2021; 42: S33-S41
  • 68 Naples JG, Castellanos I, Moberly AC. Considerations for Integrating Cognitive Testing Into Adult Cochlear Implant Evaluations – Foundations for the Future. JAMA Otolaryngology – Head & Neck Surgery 2021; 147: 413-414
  • 69 Beer J, Kronenberger WG, Castellanos I, Colson BG, Henning SC, Pisoni DB. Executive Functioning Skills in Preschool-Age Children with Cochlear Implants. J Speech Lang Hear Res 2014; 57: 1521-1534
  • 70 Recanzone GH. Auditory influences on visual temporal rate perception. J Neurophysiol 2003; 89: 1078-1093
  • 71 Barakat B, Seitz AR, Shams L. Visual rhythm perception improves through auditory but not visual training. Current Biology 2015; 25: R60-R61
  • 72 Recanzone GH. Rapidly induced auditory plasticity: the ventriloquism aftereffect. Proc Natl Acad Sci USA 1998; 95: 869-875
  • 73 Lewald J. Rapid adaptation to auditory-visual spatial disparity. Learn Mem 2002; 9: 268-278
  • 74 Mayers KS, Robertson RT, Rubel EW, Thompson RF. Development of polysensory responses in association cortex of kitten. Science 1971; 171: 1038-1040
  • 75 Schorr EA, Fox NA, van Wassenhove V, Knudsen EI. Auditory-visual fusion in speech perception in children with cochlear implants. Proc Natl Acad Sci U S A 2005; 102: 18748-18750
  • 76 Wallace MT, Stein BE. Early experience determines how the senses will interact. J Neurophysiol 2007; 97: 921-926
  • 77 Conway CM, Pisoni DB, Kronenberger WG. The Importance of Sound for Cognitive Sequencing Abilities: The Auditory Scaffolding Hypothesis. Curr Dir Psychol Sci 2009; 18: 275-279
  • 78 Bolognini N, Cecchetto C, Geraci C, Maravita A, Pascual-Leone A, Papagno C. Hearing shapes our perception of time: temporal discrimination of tactile stimuli in deaf people. J Cogn Neurosci 2012; 24: 276-286
  • 79 Dye MWG. Temporal entrainment of visual attention in children: effects of age and deafness. Vision Res 2014; 105: 29-36
  • 80 Iversen JR, Patel AD, Nicodemus B, Emmorey K. Synchronization to auditory and visual rhythms in hearing and deaf individuals. Cognition 2015; 134: 232-244
  • 81 Amadeo MB, Tonelli A, Campus C, Gori M. Reduced flash lag illusion in early deaf individuals. Brain Research 2022; 1776: 147744
  • 82 Horn DL, Pisoni DB, Miyamoto RT. Divergence of fine and gross motor skills in prelingually deaf children: implications for cochlear implantation. Laryngoscope 2006; 116: 1500-1506
  • 83 Amadeo MB, Campus C, Pavani F, Gori M. Spatial Cues Influence Time Estimations in Deaf Individuals. iScience 2019; 19: 369-377
  • 84 Land R, Baumhoff P, Tillein J, Lomber SG, Hubka P, Kral A. Cross-Modal Plasticity in Higher-Order Auditory Cortex of Congenitally Deaf Cats Does Not Limit Auditory Responsiveness to Cochlear Implants. J Neurosci 2016; 36: 6175-6185
  • 85 Land R, Radecke J-O, Kral A. Congenital Deafness Reduces, But Does Not Eliminate Auditory Responsiveness in Cat Extrastriate Visual Cortex. Neuroscience 2018; 375: 149-157
  • 86 Wallace MT, Perrault TJ, Hairston WD, Stein BE. Visual experience is necessary for the development of multisensory integration. Journal of Neuroscience 2004; 24: 9580-9584
  • 87 Wallace MT, Carriere BN, Perrault TJ, Vaughan JW, Stein BE. The development of cortical multisensory integration. Journal of Neuroscience 2006; 26: 11844-11849
  • 88 Yucel E, Derim D. The effect of implantation age on visual attention skills. Int J Pediatr Otorhinolaryngol 2008; 72: 869-877
  • 89 Cejas I, Barker DH, Quittner AL, Niparko JK. Development of joint engagement in young deaf and hearing children: Effects of chronological age and language skills. Journal of Speech. 2014
  • 90 Bortfeld H, Oghalai JS. Joint Attention in Hearing Parent–Deaf Child and Hearing Parent–Hearing Child Dyads. IEEE Transactions on Cognitive and …. 2018
  • 91 Barker DH, Quittner AL, Fink NE. et al. Predicting behavior problems in deaf and hearing children: the influences of language, attention, and parent-child communication. Dev Psychopathol 2009; 21: 373-392
  • 92 Dye MWG, Hauser PC. Sustained attention, selective attention and cognitive control in deaf and hearing children. Hear Res 2014; 309: 94-102
  • 93 Spencer PE, Bodner-Johnson BA, Gutfreund MK. Interacting with infants with a hearing loss: What can we learn from mothers who are deaf. Journal of Early Intervention 1992; 16(1): 64-78
  • 94 Koo D, Crain K, LaSasso C, Eden GF. Phonological awareness and short-term memory in hearing and deaf individuals of different communication backgrounds. Ann N Y Acad Sci 2008; 1145: 83-99
  • 95 Johnson C, Goswami U. Phonological Awareness, Vocabulary and Reading in Deaf Children with Cochlear Implants. J Speech Lang Hear Res. 2010 (in press)
  • 96 Nittrouer S, Muir M, Tietgens K, Moberly AC, Lowenstein JH. Development of Phonological, Lexical, and Syntactic Abilities in Children With Cochlear Implants Across the Elementary Grades. J Speech Lang Hear Res 2018; 1–17
  • 97 Archbold S, Harris M, O’Donoghue G, Nikolopoulos T, White A, Richmond HL. Reading abilities after cochlear implantation: the effect of age at implantation on outcomes at 5 and 7 years after implantation. Int J Pediatr Otorhinolaryngol 2008; 72: 1471-1478
  • 98 Kral A, O’Donoghue GM. Profound deafness in childhood. N Engl J Med 2010; 363: 1438-1450
  • 99 Blumenthal PJ. Kaspar Hausers Geschwister: Auf der Suche nach dem wilden Menschen 2018; 442: pages
  • 100 Curtiss S. Genie: A Psycholinguistic Study of a Modern-Day “Wild Child” 1977; 283: pages
  • 101 Curtiss S. The Case Of Chelsea: The effects of late age at exposure to language on language performance and evidence for the modularity of language and mind. In: Schütze CT, Stockall L, Stockall L, eds. UCLA Working Papers in Linguistics. 2014: 115-146
  • 102 McGrew KS, Knopik SN. The relationship between intra-cognitive scatter on the Woodcock-Johnson Psycho-Educational Battery-Revised and school achievement. Journal of School Psychology 1996; 34: 351-364
  • 103 Kronenberger WG, Colson BG, Henning SC, Pisoni DB. Executive functioning and speech-language skills following long-term use of cochlear implants. J Deaf Stud Deaf Educ 2014; 19: 456-470
  • 104 Kronenberger WG, Beer J, Castellanos I, Pisoni DB, Miyamoto RT. Neurocognitive risk in children with cochlear implants. JAMA Otolaryngol Head Neck Surg 2014; 140: 608-615
  • 105 Marschark M, Kronenberger WG, Rosica M. et al. Social Maturity and Executive Function Among Deaf Learners. J Deaf Stud Deaf Educ 2017; 22: 22-34
  • 106 Pisoni DB, Kronenberger WG, Roman AS, Geers AE. Measures of digit span and verbal rehearsal speed in deaf children after more than 10 years of cochlear implantation. Ear Hear 2011; 32: 60S-74S
  • 107 Cejas I, Mitchell CM, Hoffman M, Quittner AL, Team CDI. Comparisons of IQ in children with and without cochlear implants: longitudinal findings and associations with language. Ear Hear 2018; 39: 1187-1198

Zoom Image
Abb. 1 Die psychophysiche Entwicklung von auditorischen Fertigkeiten kann ich zwei Bereiche aufgeteilt werden: in die Entwicklung der Fähigkeit akustische Merkmale zu unterscheiden (Diskriminationsfähigkeit) und in die Fertigkeit diese dann in auditorische Objekte zu kategorisieren. a: Bei der Fähigkeit die akustischen Merkmale zu diskriminieren kann es nach der Geburt sowohl zur Verbesserung, aber auch zum Verlust der Fähigkeit kommen. b: Die Kategorisierung ist abhängig von Erfahrung, da die Kategorien sind typischerweise erst durch die Interaktion mit der Umwelt entwickeln. Aus [27] [rerif].
Zoom Image
Abb. 2 Trennung von evozierter (thalamokortikaler) und induzierter (kortikokortikaler) Aktivität am Beispiel einer Ableitung im primären auditorischen Cortex der Katze. Links oben: 30 Wiederholungen eines auditorischen Stimulus (Kondensations-click, 50 µs, bei 0 Sek. präsentiert), einzelne Ableitungen („Trials“) in unterschiedlichen Farben dargestellt. Eine starke Phasen-gekoppelte (und daher in unterschiedlichen Trials wiederholbare) Antwort ist bei 0–0.2 Sek sichtbar. Aktivität nach ca. 0.2 Sek. unterscheidet sich aber auch von der Aktivität vor dem Reiz (-0.4–0 Sek.). Diese Aktivität ist jedoch nicht phasengekoppelt, in unterschiedliche Trials variiert sie stark. Links unten: Nach Frequenzanalyse (Morlet Wavelets) zeigt sich deutlich Aktivität um 0 Sek, aber auch zwischen 0.2–0.6 Sek. Mitte: Wenn die Zeitsignale gemittelt werden, sieht man den über Trials reproduzierbaren Teil der Aktivität (phasengekoppelt). Dieser ist auf die Zeit 0–0.2 Sek. Beschränkt. Rechts: Der Unterschied zwischen totaler und evozierter Aktivität ist die induzierte Aktivität, die von kortikokortikalen Interaktionen resultiert. Reproduziert aus [55] [rerif].
Zoom Image
Abb 3 Resultate der Konnektivitätsanalyse bei hörenden (links) und gehörlosen (rechts) Katzen. Sowohl das primäre Areal (A1) wie auch das sekundäre Areal (PAF) erhalten einen starken thalamischen Eingang, der die evozierte Aktivität in beiden Arealen verursacht. Nachfolgend kommt es zu einer Verrechnung im Cortex, bei dem die Areale miteinander über bottom-up (A1 ->PAF) wie auch top-down (PAF ->A1) Interaktionen verbunden sind. Beim gehörlosen Tier sind die evozierten Antworten ganz (A1) oder teilweise (PAF) erhalten, die kortiko-kortikalen Interaktionen, vor allem die top-down Interaktionen, defizient. Aus [56].
Zoom Image
Abb. 4 Das Konnektom-Modell der angeborenen Gehörlosigkeit. Exemplarische Darstellung der kortikalen Verbindungen des Hörsystems mit dem Rest der Hirnrinde. Bottom-up Interaktionen sind in grüner Farbe, top-down Interaktionen in roter Farbe. Das Hörsystem ist stark mit den anderen Subsystemen des Gehirns verbunden, und bei Gehörlosigkeit müssen sich diese auf das Fehlen des Hörens adäquat anpassen. Diese Anpassung ist interindividuell unterschiedlich. Aus [13] [rerif] „Nachgedruckt von Lancet Neurology 15, Kral A, Kronenberger WG, Pisoni DB, O’Donoghue GM, Neurocognitive factors in sensory restoration of early deafness: a connectome model 610-621, Copyright (2016), mit Genehmigung von Elsevier“.
Zoom Image
Fig. 1 The psychophysical development of auditory skills can be divided into two parts: the development of the ability to discriminate acoustic features (discrimination ability) and the ability to categorize them into auditory objects. A: Regarding the ability to discriminate the acoustic features, there can be both improvement and loss of the ability after birth. B: Categorization is dependent on experience, as categories are typically first developed through interaction with the environment. Taken from [27] [rerif].
Zoom Image
Fig. 2 Separation of evoked (thalamocortical) and induced (corticocortical) activity using the example of a measurement in the primary auditory cortex of the cat. Top left: 30 repetitions of an auditory stimulus (condensation click, 50 µs, presented at 0 sec), single measurements (“trials”) shown in different colors. A strong phase-coupled (and therefore repeatable in different trials) response is visible at 0–0.2 sec. Activity after about 0.2 sec, however, is also different from activity before the stimulus (-0.4–0 sec). This activity is not phase-coupled, it varies significantly in different trials. Bottom left: After frequency analysis (Morlet wavelets), activity is clearly seen around 0 sec, but also between 0.2–0.6 sec. Middle: When the time signals are averaged, one sees the part of the activity that can be reproduced over trials (phase-coupled). This is limited to the time 0–0.2 sec. Right: The difference between total and evoked activity is the induced activity resulting from corticocortical interactions. Reproduced from [55] [rerif].
Zoom Image
Fig. 3 Results of connectivity analysis in hearing (left) and deaf (right) cats. Both the primary area (A1) and the secondary area (PAF) receive a strong thalamic input causing evoked activity in both areas. Subsequently, there is an offset in the cortex in which the areas are connected to each other via bottom-up (A1 ->PAF) as well as top-down (PAF ->A1) interactions. In the deaf animal, evoked responses are fully (A1) or partially (PAF) preserved, and corticocortical interactions, especially top-down interactions, are deficient. D=dorsal; V=ventral; C=caudal; R=rostral. Taken from [56] [rerif].
Zoom Image
Fig. 4 The connectome model of congenital deafness. Exemplary representation of the cortical connections of the auditory system with the rest of the cortex. Bottom-up interactions are in green color, top-down interactions are in red color. The auditory system is strongly connected to the other subsystems of the brain, and in deafness, these must adapt adequately to the absence of hearing. This adaptation varies interindividually. Taken from [13] [rerif] “Reprinted from Lancet Neurology 15, Kral A, Kronenberger WG, Pisoni DB, O’Donoghue GM, Neurocognitive factors in sensory restoration of early deafness: a connectome model 610-621, Copyright (2016), with permission from Elsevier”.