Rasistiske og andre skjevheter i AI-algoritmer for helsetjenester kan bekjempes med offentlig støtte

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Medlemmer av publikum blir bedt om å bidra til å eliminere skjevheter basert på rase og andre vanskeligstilte grupper i kunstig intelligens-algoritmer for helsetjenester. Helseforskere etterlyser støtte for å ta opp spørsmålet om hvorfor «minoriserte» grupper som er aktivt vanskeligstilt av sosiale konstruksjoner ikke vil dra nytte av bruken av AI i helsevesenet i fremtiden. Teamet, ledet av University of Birmingham og University Hospitals Birmingham, skriver i dag i Nature Medicine om å lansere en konsultasjon om et sett med standarder som de håper vil redusere skjevheter som er kjent for å eksistere i AI-algoritmer. Det er alltid…

Mitglieder der Öffentlichkeit werden gebeten, dazu beizutragen, Vorurteile aufgrund von Rasse und anderen benachteiligten Gruppen in Algorithmen der künstlichen Intelligenz für das Gesundheitswesen zu beseitigen. Gesundheitsforscher fordern Unterstützung bei der Auseinandersetzung mit der Frage, warum „minorisierte“ Gruppen, die durch soziale Konstrukte aktiv benachteiligt werden, künftig keinen Nutzen aus dem Einsatz von KI im Gesundheitswesen ziehen würden. Das von der University of Birmingham und den University Hospitals Birmingham geleitete Team schreibt heute in Nature Medicine über den Start einer Konsultation zu einer Reihe von Standards, von denen sie hoffen, dass sie Vorurteile reduzieren, die bekanntermaßen in KI-Algorithmen bestehen. Es gibt immer …
Medlemmer av publikum blir bedt om å bidra til å eliminere skjevheter basert på rase og andre vanskeligstilte grupper i kunstig intelligens-algoritmer for helsetjenester. Helseforskere etterlyser støtte for å ta opp spørsmålet om hvorfor «minoriserte» grupper som er aktivt vanskeligstilt av sosiale konstruksjoner ikke vil dra nytte av bruken av AI i helsevesenet i fremtiden. Teamet, ledet av University of Birmingham og University Hospitals Birmingham, skriver i dag i Nature Medicine om å lansere en konsultasjon om et sett med standarder som de håper vil redusere skjevheter som er kjent for å eksistere i AI-algoritmer. Det er alltid…

Rasistiske og andre skjevheter i AI-algoritmer for helsetjenester kan bekjempes med offentlig støtte

Medlemmer av publikum blir bedt om å bidra til å eliminere skjevheter basert på rase og andre vanskeligstilte grupper i kunstig intelligens-algoritmer for helsetjenester.

Helseforskere etterlyser støtte for å ta opp spørsmålet om hvorfor «minoriserte» grupper som er aktivt vanskeligstilt av sosiale konstruksjoner ikke vil dra nytte av bruken av AI i helsevesenet i fremtiden. Teamet, ledet av University of Birmingham og University Hospitals Birmingham, skriver i dag i Nature Medicine om å lansere en konsultasjon om et sett med standarder som de håper vil redusere skjevheter som er kjent for å eksistere i AI-algoritmer.

Det er økende bevis på at noen AI-algoritmer fungerer dårligere for visse grupper av mennesker - spesielt de fra rasemessige/etniske minoriteter. En del av dette skyldes skjevheter i datasettene som brukes til å utvikle AI-algoritmer. Dette betyr at pasienter fra svart og etnisk minoritetsbakgrunn kan motta unøyaktige spådommer, noe som kan føre til feildiagnostisering og feilbehandling.

STANDING Together er et internasjonalt samarbeid som skal utvikle standarder for beste praksis for helsedatasett som brukes i kunstig intelligens for å sikre at de er mangfoldige, inkluderende og ikke etterlater seg underrepresenterte eller minoritetsgrupper. Prosjektet er finansiert av NHS AI Lab og Health Foundation, og finansieringen administreres av National Institute for Health and Care Research, NHS forskningspartner for offentlig helse og sosialomsorg, som en del av NHS AI Labs AI Ethics Initiative.

Dr. Xiaoxuan Liu, fra Institute of Inflammation and Aging ved University of Birmingham og medleder for STANDING Together-prosjektet, sa:

"Ved å ha det riktige datagrunnlaget sikrer STANDING Together at ingen blir etterlatt når vi søker å låse opp fordelene med datadrevne teknologier som AI. Vi har gjort vår Delphi-studie tilgjengelig for publikum slik at vi kan maksimere rekkevidden vår." til lokalsamfunn og enkeltpersoner. Dette lar oss sikre at STANDING Together sine anbefalinger virkelig gjenspeiler det som er viktig for vårt mangfoldige fellesskap.

Professor Alastair Denniston, overlege for øyelege ved universitetssykehusene i Birmingham og professor ved Institute of Inflammation and Aging ved University of Birmingham, er medleder i prosjektet. Professor Denniston sa:

"Som lege i NHS ønsker jeg velkommen innføringen av AI-teknologier som kan hjelpe oss med å forbedre helsevesenet vi tilbyr – raskere og mer nøyaktige diagnoser, stadig mer personlig tilpassede behandlinger og helsevesenet grensesnitt som gir pasienten mer kontroll." Men vi må også sørge for at disse teknologiene er inkluderende. Vi må sikre at de fungerer effektivt og trygt for alle som trenger dem.»

Dette er et av de mest givende prosjektene jeg noen gang har jobbet med fordi det reflekterer ikke bare min store interesse for å bruke nøyaktige validerte data og god dokumentasjon for å støtte oppdagelser, men også det presserende behovet for å inkludere minoritets- og undertjente grupper i forskningen som kommer dem til gode. Den siste gruppen inkluderer selvfølgelig også kvinner.»

Jacqui Gath, pasientpartner, STANDING Together-prosjektet

STANDING Together-prosjektet er nå åpent for offentlig høring gjennom en Delphi-konsensusstudie. Forskerne inviterer medlemmer av offentligheten, helsepersonell, forskere, AI-utviklere, dataforskere, beslutningstakere og regulatorer til å hjelpe til med å gjennomgå disse standardene for å sikre at de fungerer for deg og alle du jobber med.

Kilde:

Universitetet i Birmingham

Referanse:

Ganapathi, S., et al. (2022) Håndtering av skjevheter i AI-datasett gjennom STANDING together-initiativet. Naturmedisin. doi.org/10.1038/s41591-022-01987-w.