تشير الدراسات إلى أن خرائط الحرارة البارزة قد لا تكون جاهزة للاستخدام في وقت الذروة بعد

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

تعد نماذج الذكاء الاصطناعي التي تفسر الصور الطبية بتحسين قدرة الأطباء على إجراء تشخيصات دقيقة وفي الوقت المناسب مع تقليل عبء العمل من خلال السماح للأطباء المشغولين بالتركيز على الحالات الحرجة وتفويض المهام الروتينية إلى الذكاء الاصطناعي. لكن نماذج الذكاء الاصطناعي التي تفتقر إلى الشفافية فيما يتعلق بكيفية وسبب إجراء التشخيص يمكن أن تكون إشكالية. هذه الحجة المبهمة -؛ المعروف أيضًا باسم "الصندوق الأسود" AI -؛ يمكن أن يقلل من ثقة الطبيب في موثوقية أداة الذكاء الاصطناعي وبالتالي عدم تشجيع استخدامها. وقد يؤدي هذا الافتقار إلى الشفافية أيضًا إلى قيام الأطباء بالتغاضي عن تفسير...

Künstliche Intelligenzmodelle, die medizinische Bilder interpretieren, versprechen, die Fähigkeit von Klinikern zu verbessern, genaue und rechtzeitige Diagnosen zu stellen, und gleichzeitig die Arbeitsbelastung zu verringern, indem sie es vielbeschäftigten Ärzten ermöglichen, sich auf kritische Fälle zu konzentrieren und Routineaufgaben an KI zu delegieren. Aber KI-Modelle, denen es an Transparenz mangelt, wie und warum eine Diagnose gestellt wird, können problematisch sein. Diese undurchsichtige Argumentation -; auch bekannt als „Black Box“ AI -; kann das Vertrauen des Arztes in die Zuverlässigkeit des KI-Tools verringern und somit von seiner Verwendung abhalten. Dieser Mangel an Transparenz könnte Kliniker auch dazu verleiten, der Interpretation des …
تعد نماذج الذكاء الاصطناعي التي تفسر الصور الطبية بتحسين قدرة الأطباء على إجراء تشخيصات دقيقة وفي الوقت المناسب مع تقليل عبء العمل من خلال السماح للأطباء المشغولين بالتركيز على الحالات الحرجة وتفويض المهام الروتينية إلى الذكاء الاصطناعي. لكن نماذج الذكاء الاصطناعي التي تفتقر إلى الشفافية فيما يتعلق بكيفية وسبب إجراء التشخيص يمكن أن تكون إشكالية. هذه الحجة المبهمة -؛ المعروف أيضًا باسم "الصندوق الأسود" AI -؛ يمكن أن يقلل من ثقة الطبيب في موثوقية أداة الذكاء الاصطناعي وبالتالي عدم تشجيع استخدامها. وقد يؤدي هذا الافتقار إلى الشفافية أيضًا إلى قيام الأطباء بالتغاضي عن تفسير...

تشير الدراسات إلى أن خرائط الحرارة البارزة قد لا تكون جاهزة للاستخدام في وقت الذروة بعد

تعد نماذج الذكاء الاصطناعي التي تفسر الصور الطبية بتحسين قدرة الأطباء على إجراء تشخيصات دقيقة وفي الوقت المناسب مع تقليل عبء العمل من خلال السماح للأطباء المشغولين بالتركيز على الحالات الحرجة وتفويض المهام الروتينية إلى الذكاء الاصطناعي.

لكن نماذج الذكاء الاصطناعي التي تفتقر إلى الشفافية فيما يتعلق بكيفية وسبب إجراء التشخيص يمكن أن تكون إشكالية. هذه الحجة المبهمة -؛ المعروف أيضًا باسم "الصندوق الأسود" AI -؛ يمكن أن يقلل من ثقة الطبيب في موثوقية أداة الذكاء الاصطناعي وبالتالي عدم تشجيع استخدامها. وقد يؤدي هذا النقص في الشفافية أيضًا إلى ثقة الأطباء في تفسير الأداة.

في مجال التصوير الطبي، كانت تقييمات الأهمية وسيلة لإنشاء نماذج ذكاء اصطناعي أكثر قابلية للفهم وإزالة الغموض عن عملية صنع القرار في مجال الذكاء الاصطناعي -؛ أسلوب يستخدم خرائط الحرارة لتحديد ما إذا كانت الأداة تركز بشكل صحيح فقط على الأجزاء ذات الصلة من صورة معينة أو تستهدف أجزاء غير ذات صلة بها.

تعمل الخرائط الحرارية من خلال تسليط الضوء على المناطق في الصورة التي أثرت على تفسير نموذج الذكاء الاصطناعي. يمكن أن يساعد ذلك الأطباء البشريين على اكتشاف ما إذا كان نموذج الذكاء الاصطناعي يركز على نفس المناطق التي يركز عليها أم أنه يركز بشكل غير صحيح على أماكن غير ذات صلة في الصورة.

لكن دراسة جديدة نُشرت في 10 أكتوبر في مجلة Nature Machine Intelligence أظهرت أنه على الرغم من كل ما تعد به خرائط الحرارة البارزة، فهي ليست جاهزة للاستخدام في وقت الذروة بعد.

قام التحليل، الذي قاده براناف راجبوركار، الباحث في كلية الطب بجامعة هارفارد، وماثيو لونغرين من جامعة ستانفورد، وأدرييل سابورتا من جامعة نيويورك، بقياس صلاحية سبع طرق تسليط الضوء مستخدمة على نطاق واسع لتحديد مدى موثوقية ودقة تحديد الأمراض المرتبطة بعشرة حالات يتم تشخيصها بشكل شائع بواسطة صورة الأشعة السينية، مثل آفات الرئة، والانصباب الجنبي، والوذمة، أو تضخم هياكل القلب. ولتحديد الأداء، قارن الباحثون أداء الأدوات مع حكم الخبراء البشريين.

في نهاية المطاف، كان أداء الأدوات التي تستخدم خرائط الحرارة البارزة القائمة على خرائط الحرارة ضعيفًا باستمرار مقارنة بأخصائيي الأشعة البشرية في تقييم الصور وقدرتهم على اكتشاف الآفات المرضية.

يمثل هذا العمل أول تحليل مقارن بين خرائط البروز وأداء الخبراء البشريين في تقييم أمراض التصوير الشعاعي المتعددة. توفر الدراسة أيضًا فهمًا تفصيليًا حول ما إذا كانت بعض السمات المرضية في الصورة يمكن أن تؤثر على أداء أدوات الذكاء الاصطناعي وكيف يمكن ذلك.

يتم بالفعل استخدام ميزة خريطة البروز كأداة لضمان الجودة من خلال الممارسات السريرية التي تستخدم الذكاء الاصطناعي لتفسير طرق الكشف بمساعدة الكمبيوتر، مثل: ب. قراءة الأشعة السينية للصدر. ولكن في ضوء النتائج الجديدة، ينبغي الاستمتاع بهذه الميزة بحذر وجرعة صحية من الشك، وفقا للباحثين.

يوضح تحليلنا أن خرائط البروز ليست موثوقة بعد بدرجة كافية للتحقق من صحة القرارات السريرية الفردية التي يتخذها نموذج الذكاء الاصطناعي. لقد حددنا قيودًا مهمة تثير مخاوف خطيرة تتعلق بالسلامة لاستخدامها في الممارسة الحالية.

براناف راجبوركار، أستاذ مساعد في المعلوماتية الطبية الحيوية، HMS

ويحذر الباحثون من أنه بسبب القيود المهمة التي تم تحديدها في الدراسة، يجب تحسين الخرائط الحرارية القائمة على البروز قبل استخدامها على نطاق واسع في نماذج الذكاء الاصطناعي السريرية.

إن قاعدة التعليمات البرمجية والبيانات والتحليلات الكاملة للفريق مفتوحة ومتاحة لأي شخص مهتم باستكشاف هذا الجانب المهم من التعلم الآلي السريري في تطبيقات التصوير الطبي.

مصدر:

كلية الطب بجامعة هارفارد

مرجع:

سابورتا، A.، وآخرون. (2022) طرق قياس البروز لتفسير الصور الشعاعية للصدر. ذكاء الآلة والطبيعة. doi.org/10.1038/s42256-022-00536-x.

.