Neue Hoffnung für die Wiederherstellung der Sprache nach einem Schlaganfall

Wissenschaftler entschlüsseln Sprechabsicht aus nicht-traditionellen Hirnarealen
Eine bahnbrechende Studie, veröffentlicht im Journal of Neural Engineering, zeigt, dass Hirnareale außerhalb der traditionellen Sprachzentren wertvolle Informationen über unsere Absicht zu sprechen enthalten. Diese Entdeckung könnte die Art und Weise verändern, wie Gehirn-Computer-Schnittstellen Menschen helfen, die ihre Kommunikationsfähigkeit verloren haben.
Forscher der Northwestern University haben nachgewiesen, dass der Temporal- und Parietallappen des Gehirns – Regionen, die typischerweise nicht mit der Sprachproduktion in Verbindung gebracht werden – entschlüsselbare Signale über die Sprechabsicht einer Person enthalten. Dies eröffnet möglicherweise neue Wege für Kommunikationsgeräte, die Schlaganfallüberlebenden und anderen Menschen mit Sprachbeeinträchtigungen helfen könnten.
“Der Verlust der Kommunikationsfähigkeit ist eine der verheerendsten Auswirkungen neurologischer Erkrankungen”, stellt das Forscherteam in ihrer Arbeit fest. Während sich aktuelle Gehirn-Maschine-Schnittstellen auf die Dekodierung von Sprache aus dem Frontallappen konzentrieren, deutet diese neue Forschung darauf hin, dass andere Hirnareale kritische Informationen für die Wiederherstellung der Kommunikationsfähigkeiten liefern könnten.
Jenseits traditioneller Sprachzentren
Historisch haben sich Wissenschaftler bei der Entwicklung von Gehirn-Computer-Schnittstellen für Sprache auf die motorischen Sprachareale des Frontallappens konzentriert. Diese Technologien haben beeindruckende Fortschritte bei der Unterstützung von Menschen mit Erkrankungen wie dem Locked-in-Syndrom gemacht, bei dem Patienten bei Bewusstsein bleiben, sich aber nicht bewegen oder verbal kommunizieren können.
Allerdings bieten diese Ansätze nur begrenzte Hilfe für die wesentlich größere Gruppe von Menschen, die durch Schlaganfall, traumatische Hirnverletzungen oder Tumore Schäden an ihren Frontallappen erlitten haben, was zu nicht-flüssiger Aphasie oder Sprechapraxie führen kann – Zustände, bei denen Patienten Sprache verstehen, aber Schwierigkeiten haben, sie zu produzieren.
Das von Dr. Marc W. Slutzky geleitete Northwestern-Team untersuchte, ob temporale und parietale Hirnregionen – Bereiche, die am Hören, Verstehen und der sensorischen Integration beteiligt sind – ebenfalls Signale enthalten könnten, die mit der Sprachproduktion zusammenhängen und für Kommunikationsgeräte genutzt werden könnten.
Entschlüsselung der Sprachpläne des Gehirns
In ihrer Studie zeichneten die Forscher die Hirnaktivität von neun Teilnehmern auf, denen vorübergehend Elektroden zu medizinischen Zwecken ins Gehirn implantiert worden waren. Die Teilnehmer führten verschiedene Sprachaufgaben durch, während die Forscher ihre Hirnsignale überwachten.
Mithilfe komplexer maschineller Lernalgorithmen konnte das Team nachweisen, dass sie erkennen konnten, wann eine Person sprechen wollte – etwa 300 Millisekunden bevor sie tatsächlich zu sprechen begann – und dies nur anhand von Signalen aus dem Temporal- und Parietallappen.
“Wir dekodierten die Sprechabsicht mit signifikant besserer Genauigkeit als der Zufall bei sieben von neun Teilnehmern”, berichten die Forscher. Noch bemerkenswerter war, dass diese Information sich von der Hirnaktivität unterschied, die beim Hören, Sprachverstehen oder beim Behalten von Wörtern im Gedächtnis beteiligt ist.
“Dies lieferte weitere Hinweise darauf, dass der temporale und/oder parietale Kortex Informationen über die Sprechabsicht enthielt, und nicht nur über Sprachverarbeitung oder Arbeitsgedächtnis”, erklärt das Team in ihren Ergebnissen.
Verteilte Sprachnetzwerke
Die Studie zeigte, dass Informationen über die Sprechabsicht nicht nur in einem Hirnareal konzentriert, sondern weitläufig über temporale und parietale Regionen verteilt sind, mit besonderer Dichte im superioren temporalen, mittleren temporalen und supramarginalen Gyrus.
Diese verteilte Natur der Sprachplanungssignale deutet darauf hin, dass das Gehirn umfangreiche Netzwerke für die Kommunikation nutzt, anstatt isolierter Kontrollzentren – eine Erkenntnis, die einige traditionelle Modelle darüber, wie Sprache im Gehirn produziert wird, in Frage stellt.
Bei der Analyse des zeitlichen Verlaufs der Hirnaktivität identifizierten die Forscher zwei unterschiedliche Muster: ein Aktivitätscluster begann etwa 300 Millisekunden vor dem Sprechen, und ein weiterer Cluster aktivierte sich etwa 100 Millisekunden nach Sprechbeginn. Das erste Muster stellt wahrscheinlich die Vorbereitung zum Sprechen dar, während das zweite das Hören der eigenen Stimme widerspiegelt.
Hoffnung für neue Kommunikationstechnologien
Die Ergebnisse versprechen besonders die Entwicklung neuer Hilfstechnologien für Menschen, die durch Schlaganfall oder Verletzungen Schäden an ihren frontalen Spracharealen erlitten haben.
“Eine viel größere Population von Personen mit Schäden am Frontallappen durch Schlaganfall, Hirntrauma oder Tumore, die zu nicht-flüssiger Aphasie oder Sprechapraxie führen… könnte von einer BMI [Gehirn-Maschine-Schnittstelle] zur Dekodierung beabsichtigter Sprache profitieren”, schreiben die Forscher.
Für jemanden, der weiß, was er sagen möchte, aber Schwierigkeiten hat, die Worte zu bilden, könnte ein Gerät, das diese Sprechabsichtssignale aus unbeschädigten Hirnregionen erkennt, potenziell ihre Gedanken in Sprache übersetzen und so ihre Kommunikationsfähigkeit wiederherstellen.
Die Forscher verweisen sorgfältig auf ethische Überlegungen zu einer solchen Technologie. Sie betonen, dass der Fokus speziell darauf liegt, zu erkennen, wann jemand versucht zu sprechen – nicht zufällige Gedanken zu lesen, die eine Person nicht äußern möchte.
Obwohl weitere Forschung nötig ist, bevor klinische Anwendungen entstehen, markiert diese Studie einen wichtigen Schritt in Richtung erweiterter Kommunikationsmöglichkeiten für diejenigen, die ihre Stimme aufgrund neurologischer Erkrankungen verloren haben. Sie könnten potenziell durch die Kraft neuer neuraler Dekodierungsansätze wieder mit der Welt in Verbindung treten.
Zusammenfassung der Forschungsarbeit
Methodik
Die Studie zeichnete Hirnaktivität mittels Elektrokortikographie (ECoG) und Stereoelektroenzephalographie (sEEG) von neun Teilnehmern auf, bei denen Elektroden zu klinischen Zwecken platziert wurden. Die Teilnehmer führten Aufgaben zum Lesen einzelner Wörter, Bildbenennung und auditive Aufgaben durch. Die Forscher verwendeten maschinelle Lernklassifikatoren, um Sprechabsicht von Stille und Sprechabsicht von Verzögerungsperioden zu unterscheiden, wobei sie Hochgamma-Aktivität (70-200 Hz) aus temporalen und parietalen Regionen nutzten.
Wichtigste Ergebnisse
- Sprechabsicht konnte 200-300ms vor Stimmansatz dekodiert werden
- Die Dekodierungsgenauigkeit erreichte etwa 67,5% bei Verwendung von Informationen aus 400ms vor Stimmansatz
- Neuronale Signale im Zusammenhang mit Sprechabsicht unterschieden sich von Sprachverarbeitung oder Arbeitsgedächtnis
- Die Informationen waren weitläufig über temporale und parietale Lappen verteilt, mit Konzentrationen im superioren temporalen, mittleren temporalen und supramarginalen Gyrus
Einschränkungen der Studie
- Die Forscher stellen fest, dass sie keine kausalen Zusammenhänge zwischen Sprechabsicht und neuronaler Aktivität herstellen konnten
- Kleine Stichprobengröße von neun Teilnehmern mit unterschiedlichen Elektrodenplatzierungen
- Einige Teilnehmer absolvierten weniger Durchgänge als andere, was möglicherweise die Dekodierungsgenauigkeit beeinflusste
- Nicht alle Teilnehmer führten identische Aufgaben durch
Diskussion & Erkenntnisse
- Die Ergebnisse deuten darauf hin, dass Hirnregionen außerhalb traditioneller Sprachareale wertvolle Informationen über Sprechabsicht enthalten
- Dies könnte die Anwendungen von Sprach-BMI auf Menschen mit Frontallappenschäden erweitern
- Sowohl Hochgamma- als auch Beta-Frequenzbänder enthielten sprachbezogene Informationen, wobei Hochgamma die meisten Informationen lieferte
- Die Ergebnisse unterstützen ein Modell verteilter Netzwerke der Sprachproduktion
Quelle
Prashanth Prakash et al, Decoding speech intent from non-frontal cortical areas, Journal of Neural Engineering (2025). DOI: 10.1088/1741-2552/adaa20