Studie zeigt, dass KI den Spracherfolg nach Cochlea-Implantaten vorhersagen kann

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Laut einer großen internationalen Studie, die in veröffentlicht wurde, prognostizierte ein KI-Modell mit Deep Transfer Learning – der fortschrittlichsten Form des maschinellen Lernens – die Ergebnisse gesprochener Sprache ein bis drei Jahre nach Cochlea-Implantaten (implantiertem elektronischen Hörgerät) mit einer Genauigkeit von 92 % JAMA HNO-Heilkunde – Kopf- und Halschirurgie. Obwohl die Cochlea-Implantation die einzige wirksame …

Studie zeigt, dass KI den Spracherfolg nach Cochlea-Implantaten vorhersagen kann

Laut einer großen internationalen Studie, die in veröffentlicht wurde, prognostizierte ein KI-Modell mit Deep Transfer Learning – der fortschrittlichsten Form des maschinellen Lernens – die Ergebnisse gesprochener Sprache ein bis drei Jahre nach Cochlea-Implantaten (implantiertem elektronischen Hörgerät) mit einer Genauigkeit von 92 % JAMA HNO-Heilkunde – Kopf- und Halschirurgie.

Obwohl die Cochlea-Implantation die einzige wirksame Behandlung zur Verbesserung des Hörvermögens und zur Ermöglichung der gesprochenen Sprache bei Kindern mit schwerem bis hochgradigem Hörverlust ist, ist die Entwicklung der gesprochenen Sprache nach einer frühen Implantation im Vergleich zu Kindern mit normalem Hörvermögen variabler. Wenn vor der Implantation festgestellt wird, dass Kinder wahrscheinlich größere Schwierigkeiten mit der gesprochenen Sprache haben, kann früher eine intensivierte Therapie angeboten werden, um ihre Sprache zu verbessern.

Die Forscher trainierten KI-Modelle, um Ergebnisse auf der Grundlage von MRT-Scans des Gehirns vor der Implantation von 278 Kindern in Hongkong, Australien und den USA vorherzusagen, die drei verschiedene Sprachen (Englisch, Spanisch und Kantonesisch) sprachen. Die drei Zentren in der Studie verwendeten auch unterschiedliche Protokolle zum Scannen des Gehirns und unterschiedliche Ergebnismessungen.

Solche komplexen, heterogenen Datensätze sind für traditionelles maschinelles Lernen problematisch, die Studie zeigte jedoch hervorragende Ergebnisse mit dem Deep-Learning-Modell. Es übertraf herkömmliche Modelle des maschinellen Lernens in allen Ergebnismessungen.

„Unsere Ergebnisse belegen die Machbarkeit eines einzigen KI-Modells als robustes Prognoseinstrument für die Sprachergebnisse von Kindern, die weltweit von Cochlea-Implantat-Programmen versorgt werden. Dies ist ein aufregender Fortschritt für das Fachgebiet“, sagte die leitende Autorin Nancy M. Young, Ärztliche Direktorin für Audiologie und Cochlea-Implantat-Programme am Ann & Robert H. Lurie Children’s Hospital in Chicago – dem US-amerikanischen Zentrum der Studie.

Dieses KI-gestützte Tool ermöglicht einen „Vorhersage-zu-Verschreiben“-Ansatz zur Optimierung der Sprachentwicklung, indem ermittelt wird, welches Kind von einer intensiveren Therapie profitieren könnte.“

Nancy M. Young, Ann & Robert H. Lurie Kinderkrankenhaus von Chicago

Diese Arbeit wurde vom Research Grants Council of Hong Kong Grant GRF14605119, den National Institutes of Health R21DC016069 und R01DC019387 unterstützt.

Dr. Young hat die Lillian S. Wells-Professur für pädiatrische Otolaryngologie am Lurie Children’s inne. Sie ist außerdem Professorin für Hals-Nasen-Ohrenheilkunde an der Feinberg School of Medicine der Northwestern University sowie Professorin und Fellow am Knowles Hearing Center, Department of Communication Sciences and Disorders an der Northwestern University School of Communication.

Das Cochlea-Implantat-Programm für Kinder von Lurie ist eines der größten und erfahrensten der Welt. Seit seiner Einführung im Jahr 1991 wurden mehr als 2.000 Cochlea-Implantat-Eingriffe durchgeführt.


Quellen:

Journal reference:

Wang, Y., et al. (2025) Forecasting Spoken Language Development in Children With Cochlear Implants Using Preimplant Magnetic Resonance Imaging. JAMA Otolaryngology–Head & Neck Surgery. DOI:10.1001/jamaoto.2025.4694. https://jamanetwork.com/journals/jamaotolaryngology/fullarticle/2842669.