عادي

الذكاء الاصطناعي في الطب.. آمال ومخاوف

23:01 مساء
قراءة دقيقتين

إعداد: مصطفى الزعبي

يثير الذكاء الاصطناعي، الذي يُستخدم بشكل متزايد في الطب، الآمال والمخاوف، لذا وضع باحثون دوليون بقيادة جامعة روتشستر الأمريكية، توصيات لضمان مساعدة الأجهزة الطبية المعتمدة عليه للمرضى والأطباء وتجنب الأخطاء، كما يستخدم «تشات جي بي تي» بشكل متزايد في الطب لتحسين تشخيص الأمراض وعلاجها، ولتجنب الفحص غير الضروري للمرضى.

التطبيقات أو الأجهزة الطبية المعتمدة على الذكاء الاصطناعي يمكن أن تلحق الضرر بالمرضى وتؤدي إلى تفاقم الأخطاء، إذا لم يتم تصميمها واختبارها واستخدامها بعناية، وفقاً لفريق عمل دولي ضم متخصصين في أخلاقيات علم الأحياء بالمركز الطبي بجامعة روتشستر الأمريكية.

ودعا الباحثون الذين وضعوا التوصيات حول كيفية تطوير واستخدام الأجهزة الطبية المعتمدة على الذكاء الاصطناعي إلى زيادة الشفافية بشأن الدقة، وحدَّدوا طرقاً لضمان حصول جميع الأشخاص على أجهزة الذكاء الاصطناعي الطبية التي تناسبهم بغض النظر عن العرق أو الثروة، في حين أن عبء التصميم والاختبار المناسب يقع على عاتق مطوريه، فإن مقدمي الرعاية الصحية مسؤولون أيضاً عن استخدامه بشكل صحيح، ويجب ألا يعتمدوا على تنبؤاته عند اتخاذ قرارات رعاية المرضى.

وقال جونثان هيرينجتون، أستاذ مساعد في العلوم الإنسانية الصحية والأخلاقيات الحيوية في جامعة روتشستر الأمريكية والمشارك في وضع التوصيات: «يجب أن يكون هناك دائماً إنسان في الأشياء التي يدخل فيها الذكاء الاصطناعي لا سيما في المجال الطبي، ويجب على الأطباء استخدامه كمدخل في عملية صنع القرار الخاصة بهم، بدلاً من استبدال عملية صنع القرار، ما يتطلب أن يفهم الأطباء كيفية استخدام جهاز طبي معين يعمل به، ومدى جودة أدائه في هذه المهمة».

وأضاف: «عند استخدام الذكاء الاصطناعي لتحديد الأورام المحتملة في فحوص التصوير المقطعي، يجب أن يعرف مقدمو الرعاية الصحية مدى جودة أدائه في تحديد هذا النوع من الورم لدى المرضى من نفس الجنس أو العرق».

ومن التوصيات أيضاً إنشاء تنبيهات مباشرة في أجهزة الفحص لإعلام المستخدمين بدرجة عدم اليقين في تنبؤات الذكاء الاصطناعي على سبيل المثال التنبؤ بالفحوص الحرارية للسرطان التي توضح ما إذا كانت المناطق أكثر أو أقل عرضة للإصابة به.

وينبغي اختبار الأجهزة الطبية المعتمدة على الذكاء الاصطناعي في ما يسمى «التجارب الصامتة»، وهذا يعني أن أدائها سيتم تقييمه من قبل الباحثين على مرضى حقيقيين في الوقت الفعلي للحالة المرضية، ولكن تنبؤاتها لن تكون متاحة لمقدمي الرعاية الصحية أو تطبيقها على اتخاذ القرارات السريرية.

وأشار الباحثون إلى أن الأجهزة الطبية العاملة بالذكاء الاصطناعي يتم تدريبها على مجموعات البيانات التي يكون تمثيل المرضى اللاتينيين والسود فيها ناقصاً، ما يعني أن الأجهزة أقل احتمالية لتقديم تنبؤات دقيقة للمرضى من مجموعات أخرى.

ومن أجل تجنب تعميق عدم المساواة الصحية، يجب على المطورين التأكد من معايرة نماذج الذكاء الاصطناعي الخاصة بهم لجميع المجموعات العرقية والهوية من خلال تدريبهم على مجموعات البيانات التي تمثل جميع الأشخاص من ذكور وإناث ولون بشرة والذين سيخدمهم الجهاز أو النظام الطبي بعد اعتماده.

التقييمات
قم بإنشاء حسابك لتتمكن من تقييم المقالات
https://tinyurl.com/4cv6abya

لاستلام اشعارات وعروض من صحيفة "الخليج"