Расистките и други пристрастия в AI алгоритмите за здравеопазване могат да бъдат преборени с обществена подкрепа
Членовете на обществеността са помолени да помогнат за премахване на пристрастията, основани на раса и други групи в неравностойно положение, в алгоритмите за изкуствен интелект за здравеопазването. Здравните изследователи призовават за подкрепа при разглеждането на въпроса защо „миноризирани“ групи, които са активно в неравностойно положение от социалните конструкции, няма да се възползват от използването на ИИ в здравеопазването в бъдеще. Екипът, ръководен от университета в Бирмингам и университетските болници в Бирмингам, пише днес в Nature Medicine за стартиране на консултация относно набор от стандарти, които се надяват да намалят отклоненията, за които е известно, че съществуват в алгоритмите на ИИ. Винаги има…

Расистките и други пристрастия в AI алгоритмите за здравеопазване могат да бъдат преборени с обществена подкрепа
Членовете на обществеността са помолени да помогнат за премахване на пристрастията, основани на раса и други групи в неравностойно положение, в алгоритмите за изкуствен интелект за здравеопазването.
Здравните изследователи призовават за подкрепа при разглеждането на въпроса защо „миноризирани“ групи, които са активно в неравностойно положение от социалните конструкции, няма да се възползват от използването на ИИ в здравеопазването в бъдеще. Екипът, ръководен от университета в Бирмингам и университетските болници в Бирмингам, пише днес в Nature Medicine за стартиране на консултация относно набор от стандарти, които се надяват да намалят отклоненията, за които е известно, че съществуват в алгоритмите на ИИ.
Има все повече доказателства, че някои AI алгоритми работят по-малко добре за определени групи хора – особено тези от расови/етнически малцинства. Част от това се дължи на пристрастия в наборите от данни, използвани за разработване на AI алгоритми. Това означава, че пациенти от чернокожи и малцинствени етнически произход могат да получат неточни прогнози, което може да доведе до погрешна диагноза и неправилно лечение.
STANDING Together е международно сътрудничество, което ще разработи стандарти за най-добри практики за масиви от здравни данни, използвани в изкуствения интелект, за да се гарантира, че те са разнообразни, приобщаващи и не оставят зад себе си слабо представени или малцинствени групи. Проектът се финансира от NHS AI Lab и Здравната фондация, а финансирането се управлява от Националния институт за изследване на здравето и грижите, изследователският партньор на NHS за обществено здраве и социални грижи, като част от Инициативата за етика на NHS AI Labs AI.
Д-р Xiaoxuan Liu от Института по възпаление и стареене към университета в Бирмингам и съ-ръководител на проекта STANDING Together каза:
„Като разполагаме с правилната основа за данни, STANDING Together гарантира, че никой не е изоставен, докато се стремим да отключим предимствата на управляваните от данни технологии като AI. Направихме нашето проучване Delphi достъпно за обществеността, за да можем да увеличим максимално обхвата си.“ към общности и индивиди. Това ни позволява да гарантираме, че препоръките на STANDING Together наистина отразяват това, което е важно за нашата разнообразна общност.
Професор Аластър Денистън, офталмолог-консултант в университетските болници в Бирмингам и професор в Института по възпаление и стареене в университета в Бирмингам, е съвместен ръководител на проекта. Професор Денистън каза:
„Като лекар в NHS приветствам въвеждането на AI технологии, които могат да ни помогнат да подобрим здравните грижи, които предоставяме – по-бързи и по-точни диагнози, все по-персонализирани лечения и здравни интерфейси, които дават на пациента повече контрол.“ Но също така трябва да гарантираме, че тези технологии са приобщаващи. Трябва да гарантираме, че работят ефективно и безопасно за всеки, който има нужда от тях.“
Това е един от най-възнаграждаващите проекти, по които някога съм работил, защото отразява не само силния ми интерес към използването на точни валидирани данни и добра документация в подкрепа на откритията, но и спешната нужда от включване на малцинствени и недостатъчно обслужвани групи в изследванията, които са от полза за тях. Разбира се, в последната група влизат и жени.”
Jacqui Gath, пациентски партньор, проект STANDING Together
Проектът STANDING Together вече е отворен за обществено обсъждане чрез консенсусно проучване на Delphi. Изследователите канят членове на обществеността, здравни специалисти, изследователи, разработчици на изкуствен интелект, специалисти по данни, политици и регулатори да помогнат при прегледа на тези стандарти, за да се гарантира, че работят за вас и всички, с които работите.
източник:
Справка:
Ganapathi, S., et al. (2022) Справяне с пристрастията в наборите от данни за ИИ чрез инициативата STANDING together. Природна медицина. doi.org/10.1038/s41591-022-01987-w.