تنظيم الذكاء الاصطناعي.. متى وكيف؟

23:03 مساء
قراءة 4 دقائق

مارك روتنبرغ *

في وقت سابق من عام 2023، أصدر معهد مستقبل الحياة في بوسطن بياناً يدعو فيه مختبرات الذكاء الاصطناعي إلى التوقف «مؤقتاً» عن تطوير تقنيات ذكاء اصطناعي منافسة للبشر أقوى من روبوت الدردشة الآلي «تشات جي بي تي 4»، معتبراً أن مثل هذه الأنظمة المتقدمة تمثل مخاطر جسيمة على المجتمع والإنسانية، وأن وقف تطويرها الآن ريثما يتم إنشاء حواجز حماية آمنة من شأنه أن يساعد على منع حدوث زلزال تقني على المستوى العالمي.

وكان إيلون ماسك، وستيف وزنياك، وأندرو يانغ، وبعض المؤسسين للخوارزميات الحديثة مثل ستيوارت راسل وجون هوبفيلد، من بين 33 ألف شخص وقعوا على بيان المعهد. في وقت لم تعد فيه فكرة أن الذكاء الاصطناعي قد يشكل مخاطر وجودية تضاهي تلك المصاحبة لتغير المناخ أو الحرب النووية وجهة نظر هامشية، بل قضية مفصلية يتبناها أهم اللاعبين العالميين في مجال التكنولوجيا.

ويرى البعض أن هذا النوع من سلامة الذكاء الاصطناعي متجذر في فلسفة تسمى المدى البعيد، تؤكد ضمان رفاهية عدد لا يحصى من الأجيال المقبلة، بدلاً من الشعوب الحاليين. ولكن في المقابل، لا يتفق كثير من الخبراء مع هذه الفرضية، معتقدين أن الأولويات التنظيمية يجب أن تركز على العواقب الاجتماعية الحالية للذكاء الاصطناعي على البشر.

لقد استهلكت ثورة الذكاء الاصطناعي ثقافة وادي السيليكون وأصبحت موضوعاً رئيسياً للاهتمام في كليات النخبة. وتعمل مجموعات خيرية مستقلة ومنظمات تركز على أخلاقيات الصناعة على تمويل أبحاث المخاطر الوجودية المترتبة عليها بملايين الدولارات.

ومع استمرار الذكاء الاصطناعي في إظهار مستويات جديدة من التطور تصبح فكرة الكارثة التي يتم تسهيلها خوارزمياً أكثر صحة. ولكنها تتفوق أيضاً، بلا داعٍ، على الجهود التي تقودها منظمات المجتمع المدني، مثل «رابطة العدالة الخوارزمية» لمعالجة المخاطر القائمة التي تفرضها التكنولوجيا.

وفي شأن متصل، ثبت أن الذكاء الاصطناعي يُقوض الخصوصية على الإنترنت، ويسرق الأعمال التي ينشئها الإنسان، ويتعطل في كثير من الأحيان، ويميز ضد الأقليات، وينتج معلومات مضللة مقنعة، ويلحق الضرر بالشباب بشكل غير متناسب. علاوة على ذلك، تؤدي تقنياته غير المسؤولة في الغالب إلى تآكل الديمقراطية والحضارة. ويجب على الكونغرس، الذي بالكاد يشهد جلسات استماع أو ينظر في مشاريع القوانين ذات الصلة، التحرك على الفور ليلحق بالاتحاد الأوروبي الذي بات في المراحل النهائية لإقرار تشريع شامل وضابط للذكاء الاصطناعي.

ويعد مشروع القانون الأمريكي لتنظيم الذكاء الاصطناعي الذي طرحه السيناتور ريتشارد بلومنثال ونظيره جوش هاولي استراتيجية تنظيمية شاملة، ونهجاً قائماً على معالجة المخاطر المحتملة قبل حدوثها، لكنه لم يبصر النور بعد. كما عقد زعيم الأغلبية الديمقراطية في مجلس الشيوخ تشاك شومر العديد من الجلسات المغلقة مع المشرعين، ومع ذلك، لا يزال من غير الواضح ما إذا كان هناك أي تشريع قريب سيصدر. والتردد في المضي قدماً في التشريعات أمر مخيب للآمال، نظراً للعدد الملحوظ من مشاريع قوانين الذكاء الاصطناعي التي وافق عليها الحزبان والتي تم تقديمها إلى الكونغرس.

لقد أدى الصراع المستمر على السلطة في الذكاء الاصطناعي بين المعسكرين إلى محو المخاوف الملحة الأخرى التي تقع في المنطقة الرمادية للأخلاق والسلامة على المدى الطويل، مثل احتمال تسليح الذكاء الاصطناعي. وكما أشار السيناتور إد ماركي في مقال افتتاحي لمجلة «ساينتفيك أمريكان»، فإن الذكاء الاصطناعي قد يضفي الطابع الديمقراطي على الوصول إلى التكنولوجيا المحفوفة بالمخاطر. وهذا من شأنه أن يمكّن الجهات الخبيثة من إحداث دمار غير مسبوق، من تصميم الأسلحة الكيميائية إلى احتمال نشر الأوبئة.

في غضون ذلك، تشكل «عسكرة الذكاء الاصطناعي» مصدر قلق عالمي جديداً. فمع وجود أنظمة نووية يجري التحكم فيها بواسطة هذه التقنيات سيكون شبح التصعيد غير المقصود مخيماً باستمرار على البشرية، ما يدفع العالم إلى حافة الصراعات التي تنمو بشكل لن يكون ممكناً السيطرة عليها. ولهذا اقترح ماركي بحكمةٍ تشريعاً لمنع الذكاء الاصطناعي من إطلاق أسلحة نووية، ويستحق مشروع القانون هذا أيضاً اتخاذ إجراء حاسم في مجلس الشيوخ.

إن أولويات الذكاء الاصطناعي، المتمثلة في الأخلاق والتحديات الحالية الملموسة لعصر الأتمتة مقابل المخاطر المستقبلية للتقنيات غير المنضبطة، بعيدة كل البعد عن التناقض التام، ومع ذلك فقد خلقت تفاصيلها الدقيقة والحوار غير المثمر بين أصحاب المصلحة صدعاً حدّ من مواصلة العمل.

ويعد الأمر التنفيذي الأخير للرئيس بايدن، والذي يضع معايير جديدة للسلامة وحماية الخصوصية فيما يتعلق بالذكاء الاصطناعي، خطوة مهمة في الاتجاه الصحيح، ستحمي معلومات الأمريكيين، وتشجع الابتكار والمنافسة، وتعزز الدور الريادي للولايات المتحدة في المجال التكنولوجي.

وفي نهاية المطاف، من أجل حماية مستقبلنا، والوصول إلى استراتيجيات ذكاء اصطناعي ناجحة، يجب على المشرعين والمؤسسات أن يكونوا محصنين ضد المستقبل، وأن يعملوا على تطوير أطر الحوكمة التي تعالج التحديات والتهديدات الوجودية الفورية والطويلة المدى في آن واحد. فالتحدي يكمن في الإبحار عبر هذه الشبكة المعقدة من وعود الذكاء الاصطناعي ومخاطره، سعياً وراء استراتيجية تضمن التطور المسؤول والإنساني والأخلاقي للقطاع.

* المؤسس والمدير التنفيذي لمركز الذكاء الاصطناعي والسياسة الرقمية «ذا هيل»

التقييمات
قم بإنشاء حسابك لتتمكن من تقييم المقالات
http://tinyurl.com/yc78rptw

عن الكاتب

المؤسس والمدير التنفيذي لمركز الذكاء الاصطناعي والسياسة الرقمية «ذا هيل»

المزيد من الآراء

لاستلام اشعارات وعروض من صحيفة "الخليج"