يمكن مكافحة التحيزات العنصرية وغيرها من التحيزات في خوارزميات الذكاء الاصطناعي الخاصة بالرعاية الصحية من خلال الدعم العام

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

يُطلب من أفراد الجمهور المساعدة في القضاء على التحيز على أساس العرق والمجموعات المحرومة الأخرى في خوارزميات الذكاء الاصطناعي للرعاية الصحية. يدعو الباحثون في مجال الصحة إلى تقديم الدعم في معالجة مسألة لماذا لن تستفيد المجموعات "الأقليات" المحرومة بشدة بسبب الهياكل الاجتماعية من استخدام الذكاء الاصطناعي في الرعاية الصحية في المستقبل. يكتب الفريق، بقيادة جامعة برمنغهام ومستشفيات جامعة برمنغهام، اليوم في مجلة Nature Medicine عن إطلاق استشارة حول مجموعة من المعايير التي يأملون أن تقلل من التحيزات المعروفة بوجودها في خوارزميات الذكاء الاصطناعي. هناك دائما…

Mitglieder der Öffentlichkeit werden gebeten, dazu beizutragen, Vorurteile aufgrund von Rasse und anderen benachteiligten Gruppen in Algorithmen der künstlichen Intelligenz für das Gesundheitswesen zu beseitigen. Gesundheitsforscher fordern Unterstützung bei der Auseinandersetzung mit der Frage, warum „minorisierte“ Gruppen, die durch soziale Konstrukte aktiv benachteiligt werden, künftig keinen Nutzen aus dem Einsatz von KI im Gesundheitswesen ziehen würden. Das von der University of Birmingham und den University Hospitals Birmingham geleitete Team schreibt heute in Nature Medicine über den Start einer Konsultation zu einer Reihe von Standards, von denen sie hoffen, dass sie Vorurteile reduzieren, die bekanntermaßen in KI-Algorithmen bestehen. Es gibt immer …
يُطلب من أفراد الجمهور المساعدة في القضاء على التحيز على أساس العرق والمجموعات المحرومة الأخرى في خوارزميات الذكاء الاصطناعي للرعاية الصحية. يدعو الباحثون في مجال الصحة إلى تقديم الدعم في معالجة مسألة لماذا لن تستفيد المجموعات "الأقليات" المحرومة بشدة بسبب الهياكل الاجتماعية من استخدام الذكاء الاصطناعي في الرعاية الصحية في المستقبل. يكتب الفريق، بقيادة جامعة برمنغهام ومستشفيات جامعة برمنغهام، اليوم في مجلة Nature Medicine عن إطلاق استشارة حول مجموعة من المعايير التي يأملون أن تقلل من التحيزات المعروفة بوجودها في خوارزميات الذكاء الاصطناعي. هناك دائما…

يمكن مكافحة التحيزات العنصرية وغيرها من التحيزات في خوارزميات الذكاء الاصطناعي الخاصة بالرعاية الصحية من خلال الدعم العام

يُطلب من أفراد الجمهور المساعدة في القضاء على التحيز على أساس العرق والمجموعات المحرومة الأخرى في خوارزميات الذكاء الاصطناعي للرعاية الصحية.

يدعو الباحثون في مجال الصحة إلى تقديم الدعم في معالجة مسألة لماذا لن تستفيد المجموعات "الأقليات" المحرومة بشدة بسبب الهياكل الاجتماعية من استخدام الذكاء الاصطناعي في الرعاية الصحية في المستقبل. يكتب الفريق، بقيادة جامعة برمنغهام ومستشفيات جامعة برمنغهام، اليوم في مجلة Nature Medicine عن إطلاق استشارة حول مجموعة من المعايير التي يأملون أن تقلل من التحيزات المعروفة بوجودها في خوارزميات الذكاء الاصطناعي.

هناك أدلة متزايدة على أن بعض خوارزميات الذكاء الاصطناعي تعمل بشكل أقل كفاءة مع مجموعات معينة من الناس - وخاصة أولئك الذين ينتمون إلى الأقليات العرقية/الإثنية. ويرجع جزء من هذا إلى التحيزات في مجموعات البيانات المستخدمة لتطوير خوارزميات الذكاء الاصطناعي. وهذا يعني أن المرضى من الخلفيات السوداء والأقليات العرقية قد يتلقون تنبؤات غير دقيقة، مما قد يؤدي إلى تشخيص خاطئ وعلاجات غير صحيحة.

STANDING Together هو تعاون دولي سيعمل على تطوير معايير أفضل الممارسات لمجموعات البيانات الصحية المستخدمة في الذكاء الاصطناعي لضمان تنوعها وشمولها وعدم ترك المجموعات غير الممثلة أو الأقليات وراءها. يتم تمويل المشروع من قبل NHS AI Lab ومؤسسة الصحة، ويدير التمويل المعهد الوطني لأبحاث الصحة والرعاية، شريك أبحاث الصحة العامة والرعاية الاجتماعية التابع لـ NHS، كجزء من مبادرة أخلاقيات الذكاء الاصطناعي الخاصة بمختبرات NHS AI.

قال الدكتور شياو شيوان ليو، من معهد الالتهاب والشيخوخة بجامعة برمنغهام والقائد المشارك لمشروع STANDING Together:

"من خلال وجود أساس البيانات الصحيح، تضمن مبادرة STANDING Together عدم تخلف أي شخص عن الركب بينما نسعى إلى إطلاق العنان لفوائد التقنيات المعتمدة على البيانات مثل الذكاء الاصطناعي. لقد جعلنا دراسة دلفي الخاصة بنا متاحة للعامة حتى نتمكن من زيادة وصولنا إلى أقصى حد." للمجتمعات والأفراد. وهذا يسمح لنا بالتأكد من أن توصيات STANDING Together تعكس حقًا ما هو مهم لمجتمعنا المتنوع.

ويشارك في قيادة المشروع البروفيسور أليستر دينيستون، استشاري طب العيون في مستشفيات جامعة برمنغهام والأستاذ في معهد الالتهابات والشيخوخة بجامعة برمنغهام. وقال البروفيسور دينيستون:

"بصفتي طبيبًا في هيئة الخدمات الصحية الوطنية، أرحب بإدخال تقنيات الذكاء الاصطناعي التي يمكن أن تساعدنا في تحسين الرعاية الصحية التي نقدمها - تشخيص أسرع وأكثر دقة، وعلاجات شخصية بشكل متزايد وواجهات رعاية صحية تمنح المريض المزيد من التحكم." ولكن يتعين علينا أيضاً أن نضمن أن تكون هذه التكنولوجيات شاملة. يجب علينا التأكد من أنها تعمل بفعالية وأمان لكل من يحتاج إليها.

يعد هذا واحدًا من أكثر المشاريع المجزية التي عملت عليها على الإطلاق لأنه لا يعكس فقط اهتمامي الشديد باستخدام بيانات دقيقة تم التحقق من صحتها وتوثيق جيد لدعم الاكتشاف، ولكن أيضًا الحاجة الملحة إلى تضمين الأقليات والمجموعات المحرومة في البحث الذي يفيدهم. وبطبيعة الحال، المجموعة الأخيرة تضم أيضا النساء.

جاكي جاث، شريك مريض، مشروع STANDING Together

مشروع STANDING Together مفتوح الآن للتشاور العام من خلال دراسة إجماع دلفي. يدعو الباحثون أفراد المجتمع ومتخصصي الرعاية الصحية والباحثين ومطوري الذكاء الاصطناعي وعلماء البيانات وصانعي السياسات والمنظمين للمساعدة في مراجعة هذه المعايير للتأكد من أنها تعمل لصالحك ومع كل من تعمل معه.

مصدر:

جامعة برمنجهام

مرجع:

غاناباثي، S.، وآخرون. (2022) معالجة التحيز في مجموعات بيانات الذكاء الاصطناعي من خلال مبادرة الوقوف معًا. الطب الطبيعي. doi.org/10.1038/s41591-022-01987-w.