Gesundheit Allgemein

Behandeln Sie ungenaue Rassen- und ethnische Zugehörigkeitsdaten in der medizinischen KI

Die Ungenauigkeit der in elektronischen Gesundheitsakten (EHRS) festgestellten Rassen- und Ethnizitätsdaten kann die Patientenversorgung negativ beeinflussen, da die künstliche Intelligenz (KI) zunehmend in die Gesundheitsversorgung integriert wird. Da Krankenhäuser und Anbieter solche Daten inkonsistent sammeln und Schwierigkeiten haben, einzelne Patienten genau zu klassifizieren, können KI -Systeme, die auf diesen Datensätzen geschult wurden, die rassistische Vorurteile erben und aufrechterhalten.

In einer neuen Veröffentlichung in der Digitalgesundheit von PLOS fordern Experten für Bioethik und Recht die sofortige Standardisierung von Methoden zur Sammlung von Rassen- und ethnischen Daten und für Entwickler für die Qualität der Garantie- und ethnischen Datenqualität in medizinischen KI -Systemen. Die Forschung synthetisiert Bedenken, warum Patienten -Rassendaten in EHRs möglicherweise nicht korrekt sind, die Best Practices für Gesundheitssysteme und medizinische KI -Forscher zur Verbesserung der Datengenauigkeit identifizieren, und bietet eine neue Vorlage für medizinische KI -Entwickler, um die Qualität ihrer Rassen- und ethnischen Daten transparent zu rechtfertigen

Der führende Autor Alexandra Tsalidis, MBE, stellt fest, dass „KI-Entwickler unsere Empfehlung beachten, wie ihre Rassen- und ethnischen Daten gesammelt wurden, nicht nur die Transparenz in der medizinischen KI vorantreiben, sondern auch Patienten helfen, Patienten und Aufsichtsbehörden zu helfen, die Sicherheit der Sicherheit zu beurteilen. Werkzeuge.“

Rassenverzerrungen in KI -Modellen sind ein großes Problem, da die Technologie zunehmend in die Gesundheitsversorgung integriert wird. Dieser Artikel enthält eine konkrete Methode, die implementiert werden kann, um diese Bedenken auszuräumen. „

Francis Shen, JD, PhD, Senior Autor

Während weitere Arbeiten erledigt werden müssen, bietet der Artikel einen Ausgangspunkt vor, der Co-Autor Lakshmi Bharadwaj, MBE, vorschlägt. „Ein offener Dialog über Best Practices ist ein wesentlicher Schritt, und die von uns vorgeschlagenen Ansätze könnten erhebliche Verbesserungen erzielen.“

Die Forschung wurde durch das Programm der NIH Bridge to Artificial Intelligence (BRIDG2AI) und durch ein NIH -Hirnneuroethik -Zuschuss (R01MH134144) unterstützt.


Quellen:

Journal reference:

Tsalidis, A., Bharadwaj, L., & Shen, F. X. (2025). Standardization and accuracy of race and ethnicity data: Equity implications for medical AI. PLOS Digital Health. doi.org/10.1371/journal.pdig.0000807.

Daniel Wom

Daniel Wom ist ein renommierter Webentwickler und SEO-Experte, der in der digitalen Welt eine beeindruckende Karriere aufgebaut hat. Als Betreiber mehrerer Blogs und Online-Magazine erreicht er jeden Monat mehr als 1 Million begeisterte Leser. Sein unermüdlicher Einsatz für Qualität im Web und seine Fähigkeit, die neuesten Trends und Entwicklungen im Webdesign und in der digitalen Kommunikation vorherzusehen und sich daran anzupassen, haben ihn zu einer angesehenen Persönlichkeit in der Branche gemacht. In unserem Portal ist er der führende Kopf hinter dem Import und der Analyse der neuesten Studien.

Ähnliche Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert