إن التبني السريع للذكاء الاصطناعي في الرعاية الأولية يثير مخاوف تتعلق بالسلامة
من الكتبة الرقميين إلى ChatGPT، يجد الذكاء الاصطناعي (AI) طريقه بسرعة إلى ممارسات الرعاية الأولية. تحذر دراسة جديدة من جامعة سيدني من أن التكنولوجيا تتفوق على الضوابط الأمنية وتعرض المرضى وأنظمة الرعاية الصحية للخطر. الدراسة، التي نشرت في مجلة لانسيت للرعاية الأولية، استنادا إلى بيانات من الولايات المتحدة والمملكة المتحدة وأستراليا...
إن التبني السريع للذكاء الاصطناعي في الرعاية الأولية يثير مخاوف تتعلق بالسلامة
من الكتبة الرقميين إلى ChatGPT، يجد الذكاء الاصطناعي (AI) طريقه بسرعة إلى ممارسات الرعاية الأولية. تحذر دراسة جديدة من جامعة سيدني من أن التكنولوجيا تتفوق على الضوابط الأمنية وتعرض المرضى وأنظمة الرعاية الصحية للخطر.
الدراسة التي نشرت فيلانسيت للرعاية الأوليةرؤى عالمية موجزة حول كيفية استخدام الذكاء الاصطناعي في الرعاية الأولية باستخدام بيانات من الولايات المتحدة والمملكة المتحدة وأستراليا والعديد من البلدان الأفريقية وأمريكا اللاتينية وأيرلندا ومناطق أخرى. ووجدت أن أدوات الذكاء الاصطناعي مثل ChatGPT وAI Scribes والتطبيقات التي تتعامل مع المريض يتم استخدامها بشكل متزايد للاستعلامات السريرية والتوثيق واستشارة المرضى، ولكن يتم استخدام معظمها دون تقييم شامل أو رقابة تنظيمية.
الرعاية الأولية هي العمود الفقري لأنظمة الرعاية الصحية، حيث توفر رعاية مستمرة ويمكن الوصول إليها. يمكن للذكاء الاصطناعي أن يخفف الضغط على الخدمات المرهقة، ولكن بدون ضمانات فإننا نخاطر بعواقب غير مقصودة على سلامة المرضى وجودة الرعاية.
البروفيسور المشارك ليليانا لارانجو، الباحث الرئيسي، زميل Horizon في مركز ويستميد للأبحاث التطبيقية
يلجأ الأطباء العامون والمرضى إلى الذكاء الاصطناعي، لكن الأدلة ما تزال متخلفة
تتعرض الرعاية الأولية لضغوط في جميع أنحاء العالم، بدءًا من نقص القوى العاملة إلى إرهاق الأطباء إلى التعقيد المتزايد في تقديم الرعاية الصحية، والذي تفاقم بسبب جائحة كوفيد-19. ويتم الترويج للذكاء الاصطناعي كحل، بأدوات توفر الوقت من خلال توحيد المشاورات، وأتمتة الإدارة، ودعم عملية صنع القرار.
في المملكة المتحدة، أبلغ واحد من كل خمسة أطباء عامين عن استخدام الذكاء الاصطناعي التوليدي في الممارسات السريرية في عام 2024. ومع ذلك، وجدت المراجعة أن معظم دراسات الذكاء الاصطناعي في الرعاية الأولية تعتمد على عمليات المحاكاة بدلاً من دراسات العالم الحقيقي، مما يترك فجوات حرجة في الفعالية والسلامة والإنصاف.
عدد الأطباء العامين الذين يستخدمون الذكاء الاصطناعي التوليدي في أستراليا غير معروف بشكل موثوق، لكنه يقدر بنحو 40 في المائة.
وقال البروفيسور المشارك لارانجو: "إن الذكاء الاصطناعي موجود بالفعل في عياداتنا، ولكن بدون بيانات أسترالية حول عدد الأطباء العامين الذين يستخدمونه، أو الإشراف المناسب، فإننا نطير عمياء عندما يتعلق الأمر بالسلامة".
في حين أن كتبة الذكاء الاصطناعي وتقنيات الاستماع المحيطة يمكن أن تقلل من العبء المعرفي وتحسن الرضا الوظيفي للأطباء العامين، فإنها تشكل أيضًا مخاطر مثل التحيز الآلي وفقدان التفاصيل الاجتماعية أو السيرة الذاتية المهمة في السجلات الطبية.
وقال البروفيسور المشارك لارانجو: "وجدت دراستنا أن العديد من الأطباء العامين الذين يستخدمون الذكاء الاصطناعي لا يريدون العودة إلى الكتابة. ويقولون إنها تسرع الاستشارات وتسمح لهم بالتركيز على المرضى، لكن هذه الأدوات يمكن أن تفوت تفاصيل شخصية مهمة وتسبب التحيز".
بالنسبة للمرضى، تعد أدوات فحص الأعراض والتطبيقات الصحية بالراحة والرعاية الشخصية، ولكن دقتها غالبًا ما تتباين ويفتقر الكثير منها إلى فرصة التقييم المستقل.
قال البروفيسور المشارك لارانجو: "قد تبدو النماذج التوليدية مثل ChatGPT مقنعة، ولكنها في الواقع غير صحيحة". "إنهم غالبًا ما يتفقون مع المستخدمين حتى عندما يكونون مخطئين، وهو أمر خطير بالنسبة للمرضى ويمثل تحديًا للأطباء".
العدالة والمخاطر البيئية للذكاء الاصطناعي
يحذر الخبراء من أنه في حين يعد الذكاء الاصطناعي بتشخيصات أسرع ورعاية شخصية، فإنه يمكن أيضًا أن يؤدي إلى تعميق الفجوات الصحية مع زحف التحيز. على سبيل المثال، غالبًا ما تخطئ أدوات طب الأمراض الجلدية في تشخيص درجات لون البشرة الداكنة، والتي عادة ما تكون ممثلة تمثيلا ناقصا في مجموعات بيانات التدريب.
على العكس من ذلك، يقول الباحثون إنه عندما يتم تصميم الذكاء الاصطناعي بشكل جيد، فإنه يمكن أن يعالج الفوارق: فقد ضاعفت دراسة التهاب المفاصل عدد المرضى السود المؤهلين لاستبدال الركبة باستخدام خوارزمية مدربة على مجموعة بيانات متنوعة، مما يجعلها أفضل في التنبؤ بألم الركبة الذي أبلغ عنه المريض مقارنة بقراءات الأشعة السينية القياسية من قبل الأطباء.
وقال البروفيسور المشارك لارانجو: "إن تجاهل العوامل الاجتماعية والاقتصادية والتصميم الشامل يمكن أن يؤدي إلى انتقال الذكاء الاصطناعي في الرعاية الأولية من التقدم إلى النكسة".
والتكاليف البيئية هائلة أيضا. وقد أطلق تدريب GPT-3، وهو إصدار ChatGPT الذي تم إصداره في عام 2020، كميات من ثاني أكسيد الكربون تعادل 188 رحلة جوية بين نيويورك وسان فرانسيسكو. تستهلك مراكز البيانات الآن حوالي 1% من الاستهلاك العالمي للكهرباء، وفي أيرلندا، تعد مراكز البيانات مسؤولة عن أكثر من 20% من الاستهلاك الوطني للكهرباء.
قال البروفيسور المشارك لارانجو: "إن البصمة البيئية للذكاء الاصطناعي تمثل تحديًا". "نحن بحاجة إلى أساليب مستدامة توازن بين الابتكار والمساواة والصحة الكوكبية."
ويحث الباحثون الحكومات والأطباء ومطوري التكنولوجيا على إعطاء الأولوية لما يلي:
- robuste Bewertung und reale Überwachung von KI-Tools
- Regulierungsrahmen, die mit der Innovation Schritt halten
- Schulung von Ärzten und der Öffentlichkeit zur Verbesserung der KI-Kenntnisse
- Strategien zur Voreingenommenheitsminderung, um Gerechtigkeit in der Gesundheitsversorgung sicherzustellen
- nachhaltige Praktiken zur Reduzierung der Umweltauswirkungen von KI.
وقال البروفيسور المشارك لارانجو: "يوفر الذكاء الاصطناعي الفرصة لإعادة تشكيل الرعاية الأولية، ولكن الابتكار يجب ألا يأتي على حساب السلامة أو العدالة". "نحن بحاجة إلى شراكات عبر الصناعات لضمان استفادة الجميع من الذكاء الاصطناعي - وليس فقط خبراء التكنولوجيا أو المجهزين تجهيزًا جيدًا."
مصادر:
لارانجو، L.،وآخرون.(2025). الذكاء الاصطناعي في الرعاية الأولية: الابتكار على مفترق الطرق.لانسيت للرعاية الأولية. دوى: 10.1016/j.lanprc.2025.100078. https://www.thelancet.com/journals/lanprc/article/PIIS3050-5143(25)00078-0/fulltext