New Brain Decoder bietet Hoffnung auf die Verbesserung der Kommunikation bei Aphasie

Menschen mit Aphasie-eine Gehirnstörung, die etwa eine Million Menschen im US-amerikanischen Schwangerschaft betreffen, um ihre Gedanken in Worte zu verwandeln und die gesprochene Sprache zu verstehen.
Zwei Forscher an der Universität von Texas in Austin haben ein KI-basierter Tool gezeigt, das die Gedanken einer Person in kontinuierlichen Text umsetzen kann, ohne dass die Person gesprochene Wörter verstehen muss. Und der Prozess der Schulung des Werkzeugs für die einzigartigen Mustern einer Person der Gehirnaktivität dauert nur eine Stunde. Dies baut auf der früheren Arbeit des Teams auf, die einen Gehirndecoder erstellt, der viele Stunden Training über die Gehirnaktivität einer Person erforderte, als sie Audiogeschichten anhörten. Dieser jüngste Fortschritt deutet darauf hin, dass dies mit weiterer Verfeinerung für Gehirncomputerschnittstellen möglich sein kann, um die Kommunikation bei Menschen mit Aphasie zu verbessern.
„Der Zugang zu semantischen Darstellungen mit Sprache und Vision eröffnet neue Türen für die Neurotechnologie, insbesondere für Menschen, die Schwierigkeiten haben, die Sprache zu produzieren und zu verstehen“ Beschreibung der Arbeit in Aktuelle Biologie. „Es gibt uns eine Möglichkeit, sprachbasierte Gehirncomputerschnittstellen zu erstellen, ohne dass ein Sprachverständnis erforderlich ist.“
In früheren Arbeiten trainierte das Team ein System, einschließlich eines Transformatormodells, das der Art von ChatGPT ähnelt, um die Gehirnaktivität einer Person in kontinuierlichen Text zu übersetzen. Der resultierende semantische Decoder kann Text produzieren, unabhängig davon, ob eine Person eine Audiogeschichte hört, darüber nachdenkt, eine Geschichte zu erzählen oder ein stillen Video anzuschauen, das eine Geschichte erzählt. Aber es gibt Einschränkungen. Um diesen Gehirndecoder zu trainieren, mussten die Teilnehmer etwa 16 Stunden lang in einem fMRI -Scanner bewegungslos liegen, während sie sich Podcasts anhören, ein unpraktischer Prozess für die meisten Menschen und möglicherweise für jemanden mit Defiziten in der verständlichen Sprache möglicherweise nicht möglich. Und der ursprüngliche Gehirndecoder arbeitet nur an Menschen, für die es trainiert wurde.
Mit dieser neuesten Arbeit hat das Team eine Methode entwickelt, um den vorhandenen Gehirndecoder, der auf die harte Tour ausgebildet wurde, an eine neue Person mit nur einer Stunde Training in einem fMRI -Scanner, während Sie kurze, stille Videos wie Pixar -Shorts ansehen. Die Forscher entwickelten einen Konverteralgorithmus, der lernt, wie man die Gehirnaktivität einer neuen Person auf das Gehirn eines Menschen kartiert, dessen Aktivität zuvor zum Training des Gehirn -Decoders verwendet wurde, was zu einem ähnlichen Decodieren zu einem Bruchteil der Zeit mit der neuen Person führte.
Huth sagte, diese Arbeit enthüllt etwas tiefgreifend darüber, wie unser Gehirn funktioniert: Unsere Gedanken überschreiten die Sprache.
Dies weist auf eine tiefe Überlappung zwischen den Dingen im Gehirn hin, wenn Sie jemandem zuhören, der Ihnen eine Geschichte erzählt, und was Dinge im Gehirn passieren, wenn Sie sich ein Video ansehen, das eine Geschichte erzählt. Unser Gehirn behandelt beide Arten von Geschichten die gleiche. Es sagt uns auch, dass das, was wir dekodieren, keine Sprache ist. Es sind Darstellungen von etwas über dem Sprachniveau, das nicht an die Modalität der Eingabe gebunden ist. „
Alex Huth, außerordentlicher Professor für Informatik und Neurowissenschaften und Senior Autor
Die Forscher stellten fest, dass ihr verbessertes System genau wie bei ihrem ursprünglichen Gehirndecoder nur mit kooperativen Teilnehmern zusammenarbeitet, die bereitwillig am Training teilnehmen. Wenn die Teilnehmer, auf denen der Decoder ausgebildet wurde, später ausgebildet wurde, zum Beispiel den Widerstand, indem andere Gedanken-Resulte überlegen sind, unbrauchbar. Dies verringert das Potenzial für Missbrauch.
Während ihre jüngsten Testpersonen neurologisch gesund waren, führten die Forscher auch Analysen durch, um die Muster von Gehirnläsionen bei Teilnehmern mit Aphasie nachzuahmen und zeigten, dass der Decoder immer noch in der Lage war, sich in kontinuierlicher Text zu übersetzen, die sie wahrnahmen. Dies deutet darauf hin, dass der Ansatz letztendlich für Menschen mit Aphasie funktionieren könnte.
Sie arbeiten jetzt mit Maya Henry zusammen, einem Associate Professor an der Dell Medical School von UT und dem Moody College of Communication, der Aphasie studiert, um zu testen, ob ihr verbesserter Gehirndecoder für Menschen mit Aphasie funktioniert.
„Es hat Spaß gemacht und lohnend darüber nachgedacht, wie man die nützlichste Schnittstelle erstellt und den Teilnehmern so einfach wie möglich macht“, sagte Tang. „Ich freue mich sehr, weiter zu untersuchen, wie unser Decoder verwendet werden kann, um Menschen zu helfen.“
Diese Arbeit wurde vom Nationalen Institut für Taubheit und andere Kommunikationsstörungen der National Institutes of Health, der Whitehall Foundation, der Alfred P. Sloan Foundation und des Burroughs Wellcome Fund unterstützt.
Quellen:
Tang, J., & Huth, A. G., (2025) Semantic language decoding across participants and stimulus modalities. Current Biology. doi.org/10.1016/j.cub.2025.01.024.