أخطر من القنبلة

00:21 صباحا
قراءة 3 دقائق

أحمد مصطفى

ذكرني فيلم «أوبنهايمر» عن العالِم الذي قاد البرنامج الأمريكي لتطوير القنبلة النووية والمعروض حالياً في دور السينما بفيلم قديم من كلاسيكيات السينما الأمريكية قبل أكثر من نصف قرن. يدور الفيلم الحالي بالأساس حول العالم، أما فيلم «دكتور سترينجلاف» وإن كان يحمل عنوانه أيضاً اسم عالِم إلا أن الفيلم يدور حول القنبلة. ونجح المخرج الراحل ستانلي كوبريك ومعه الممثل بيتر سيللرز عبر الفيلم القديم في توعية الجماهير بمخاطر القنبلة النووية، وكيف أن مجرد خطأ بشري يمكن أن يدمر البشرية.

كان فيلم ستانلي كوبريك في عز الحرب الباردة بين الاتحاد السوفييتي والكتلة الشرقية من ناحية والولايات المتحدة والمعسكر الغربي من ناحية أخرى. القاسم المشترك بين الفيلمين هو الخلفية السياسية في أمريكا وقتها مع تأثير فترة الاضطهاد الفكري لكل من يحمل رأياً مخالفاً للمؤسسة المسيطرة والمعروفة بمرحلة «المكارثية». وعلى أساسها يكسب الفيلم القديم عدة نقاط عن الفيلم الحالي الذي يلمح إلى أن المكارثية كادت تحرم أمريكا من تطوير القنبلة. أما القديم فيظهر بطريقة غير فجّة كيف أن المكارثية كادت أن تشعل حرباً نووية تدمر العالم.

حتى سنوات قليلة مضت، كانت الاحتياطيات لدى القوى النووية الرئيسية في العالم تقوم على تدابير تفادي أي خطأ بشري يمكن أن يؤدي إلى اندلاع حرب غير مقصودة. لكن ما هو أخطر من القنبلة النووية والقنبلة الهيدروجينية، حتى ما نشرته صحيفة وول ستريت جورنال هذا الأسبوع، عن توجه أمريكي وصيني لاستخدام الذكاء الاصطناعي في المسيّرات القتالية، أي «الدرون الجوية» وغيرها.

وإذا كانت تلك المسيّرات حتى الآن يتم التحكم بها من قبل بشر في غرف القيادة البعيدة عن ساحات المعارك، فإن استخدام الذكاء الاصطناعي فيها يلغي العامل البشري تماماً، بحيث تتصرف تلك الأدوات القتالية باستقلالية تامة معتمدة فقط على بيانات تلتقطها من الأقمار الاصطناعية لتحدد الأهداف وطريقة التعامل معها والمناورة لتدميرها دون أي تدخل بشري.

في مطلع هذا العام استضافت هولندا مؤتمراً حول ضوابط استخدام الذكاء الاصطناعي في الجيوش الحديثة. وفي ذلك المؤتمر الذي ضم ممثلين عن خمسين دولة كشف ضابط أمريكي كبير عن إحدى التجارب التي تمت في بيئة محاكاة للواقع على «درون» تعمل بالذكاء الاصطناعي. وفي التجربة، لم تستجب الدرون لتدخل المشغل البشري بإجهاض العملية، بل وارتدت لتدمر مشغلها ومركز القيادة الذي يتحكم بها.

في التجارب التي أجرتها الصين مؤخراً، وأجرت مثلها أمريكا بالاشتراك مع بريطانيا واستراليا، تم إطلاق مجموعات من المسيّرات تعمل بالذكاء الاصطناعي بحيث تساند بعضها بعضاً في تحديد الأهداف وتدميرها والتصرف بشكل كامل، بعيداً عن أي تدخل بشري باستثناء البرمجة المسبقة (الذكاء الاصطناعي). وهنا مكمن الخطورة المدمرة. فإذا كانت الجيوش استقرت على إجراءات للتأمين ضد الأخطاء البشرية فإن ضمان عدم حدوث خطأ في برامج كمبيوترية ليس بهذه السهولة.

في النهاية تلك البرامج الكمبيوترية قابلة للاختراق عن بعد، ومجرد تعديل حرف في سطر من تلك البرامج يمكن أن يؤدي إلى كوارث يصعب تخيلها. فمهما كانت الاحتياطات وطرق التأمين لمصادر الطاقة التي تعمل بها تلك البرمجيات يصعب ضمان ألا تحدث أي مشكلة تقنية تجعل أسراباً من المسيّرات تتصرف بعشوائية وربما تدمر من أطلقوها قبل أن تدمر «أهدافاً معادية».

ليست تلك المخاطر افتراضية، إنما هي احتمالات قوية في الواقع الفعلي إذا وقعت سيكون من الصعب تفادي آثارها ولا حتى وقف تداعياتها. ولن تفيد هنا أي قوانين أو قواعد لوضع أطر أخلاقية ومهنية لاستخدامات الذكاء الاصطناعي العسكرية، ففي النهاية لن يكون لكل تلك النظم أي معنى إذا حدث الخطأ – وهو احتمال لا يقل عما يحدث معنا الآن حين يتجمد الكمبيوتر فجأة أو ينطفئ الهاتف الذكي بدون سبب واضح.

وإذا كنا في استخدامنا لتلك الأجهزة الشخصية، لدينا فرصة أن نغلق الجهاز ونعيد تشغيله حتى يعود إلى طبيعته، ففي حالة المسيّرات الذاتية القيادة والتصرف والمشغلة بالذكاء الاصطناعي لن يكون لدى قادتها البشريين أي فرصة إذا حدث عطل ما. بل ربما تتصرف تلك الأسلحة الذكية الفتاكة بشكل يقضي على أصحابها قبل أن يعيد ضبطها.

[email protected]

التقييمات
قم بإنشاء حسابك لتتمكن من تقييم المقالات
https://tinyurl.com/yxcrctx8

عن الكاتب

يشتغل في الإعلام منذ ثلاثة عقود، وعمل في الصحافة المطبوعة والإذاعة والتلفزيون والصحافة الرقمية في عدد من المؤسسات الإعلامية منها البي بي سي وتلفزيون دبي وسكاي نيوز وصحيفة الخيلج. وساهم بانتظام بمقالات وتحليلات للعديد من المنشورات باللغتين العربية والإنجليزية

المزيد من الآراء

لاستلام اشعارات وعروض من صحيفة "الخليج"