الذكاء الاصطناعي سيف ذو حدين

21:31 مساء
قراءة 4 دقائق

سيرجي بيلوف*

يعتبر الذكاء الاصطناعي حالياً أحد أهم الابتكارات التي يجري استخدامها في مجال الأمن السيبراني، حيث أسهم في إحداث تغيير جذري في أسلوب تعامل المؤسسات مع التهديدات السيبرانية والكشف عنها وتحليلها والاستجابة لها. كما تستثمر الشركات في جميع أنحاء الشرق الأوسط بشكل متزايد في الذكاء الاصطناعي، إدراكاً منها لأهمية الإمكانات التي يوفرها في تطوير الإجراءات وحماية الأصول الرقمية من خلال تدابير الأمن وحماية البيانات المتقدمة. حيث يمكن للشركات، من خلال الاستفادة من الإمكانيات التي يوفرها الذكاء الاصطناعي، تعزيز دفاعاتها والتعامل مع التهديدات بشكل استباقي قبل تصاعدها. ومع ذلك، وبينما يوفر الذكاء الاصطناعي مزايا كبيرة للشركات في جميع أنحاء العالم، فإن اعتماده يزيد أيضاً من خطر الهجمات والثغرات الأمنية المحتملة.
تُظهر الدراسات أن 91٪ من الشركات في الإمارات استخدمت الذكاء الاصطناعي في استراتيجيات السلامة السيبرانية الخاصة بها لمواجهة تصاعد التهديدات في وقتنا الحالي. ومن بين هذه الاستراتيجيات:
*الكشف عن التهديدات والاستجابة لها: تستخدم حلول الأمن المعززة بالذكاء الاصطناعي خوارزميات تعلم الآلة لتحليل مجموعات ضخمة من البيانات من مصادر مختلفة، ما يساعد خبراء تكنولوجيا المعلومات على تحديد التهديدات السيبرانية والتعامل معها بسرعة.
*تحليل السلوك: تعمل الأدوات التي تعمل بالذكاء الاصطناعي على تحليل سلوكيات وأفعال المستخدمين والنظم للكشف عن أي مؤشرات قد تشير إلى مخاطر أمنية محتملة.
*التحليلات المستقبلية: تقوم خوارزميات الذكاء الاصطناعي وتعلم الآلة بتحليل البيانات السابقة لتوقع اتجاهات حماية الإنترنت المستقبلية وتوقع التهديدات الناشئة.
*أتمتة المهام الروتينية: تعمل تقنيات الأتمتة التي تعمل بالذكاء الاصطناعي على تبسيط إجراءات السلامة اليومية، بما في ذلك الكشف عن التهديدات والاستجابة للحوادث وإدارة الثغرات الأمنية، ما يسمح لفِرق الأمن بالتركيز بشكل أكبر على الأنشطة الاستراتيجية.
ويترافق التقدم في مجال التكنولوجيا مع تطور التهديدات ضدها. حيث تشهد منطقة الشرق الأوسط تطوراً متسارعاً للتهديدات السيبرانية، حيث تتصاعد هجمات الفدية المستهدفة، وثغرات سلسلة التوريد، وطرق التصيد الاحتيالي المتقدمة.
وتُظهر البيانات الحديثة زيادة بنسبة 29.1٪ في اكتشاف البرامج الضارة وزيادة بنسبة 25.5٪ في عناوين المواقع المحجوبة، ما يؤكد الحاجة الملحة إلى تدابير أمنية قوية. ولذلك من الضروري لمعالجة هذه التحديات أن تكون على دراية بالتهديدات التي تكمن في التقنيات الجديدة وتحديد أفضل خطة عمل لمواجهتها.
*التحيز والتمييز: تعتبر خوارزميات الذكاء الاصطناعي عرضة للتحيز والتمييز، ما قد يؤدي إلى قرارات غير دقيقة وعواقب غير مقصودة ويحتم على المؤسسات، للتخفيف من هذه المخاطر، ضمان تدريب أنظمة الأمن السيبراني التي تعمل بالذكاء الاصطناعي على مجموعات بيانات متنوعة وشاملة، ما يقلل من التحيز ويخفف من المخاوف الأخلاقية والقانونية.
*الإنذارات الكاذبة: قد يصدر عن أنظمة الأمن التي تعمل بالذكاء الاصطناعي نتائج إيجابية كاذبة (تحديد الأنشطة الحميدة بشكل غير صحيح على أنها ضارة) أو نتائج سلبية كاذبة (عدم اكتشاف تهديدات أمنية حقيقية)، ما يؤدي إما إلى تنبيهات غير ضرورية أو تفويت فرص منع الحوادث الأمنية.
*الهجمات المعادية: يمكن أن تكون أنظمة الذكاء الاصطناعي عرضة للهجمات المعادية، حيث تقوم الجهات الفاعلة الخبيثة بالتلاعب ببيانات الإدخال لتجنب الكشف من قبل خوارزميات الذكاء الاصطناعي. يمكن أن تقلل تقنيات التدريب المضادة وكشف الحالات غير الطبيعية من هذه المخاطر وضمان مرونة الأنظمة التي تعتمد على الذكاء الاصطناعي.
علاوة على ذلك، فإن الذكاء الاصطناعي لا يعزز اكتشاف التهديدات فحسب، بل يمكّن المجرمين السيبرانيين أيضاً من تنفيذ هجمات متطورة. حيث شهدت 73٪ من المؤسسات في الإمارات العربية المتحدة هجمات فدية في العامين الماضيين، ما يبرز الحاجة الملحة إلى زيادة اليقظة.
ولتحقيق الاستفادة القصوى من التكنولوجيا الناشئة، يتعين على الشركات تبني نهج شامل لإدارة المخاطر المرتبطة بها. يشمل ذلك الاستثمار في أدوات الكشف والوقاية من التهديدات المدعومة بالذكاء الاصطناعي، وتطبيق إجراءات أمن متطورة للذكاء الاصطناعي، والاستمرار في تحديث وتحسين استراتيجيات حماية الأنظمة الإلكترونية. علاوة على ذلك، ينبغي للمؤسسات تنفيذ برامج تدريب منتظمة ومحاكاة هجمات وتوعية للموظفين لتعزيز استعدادهم لمخاطر الاستخدام الخبيث للذكاء الاصطناعي.
تشمل الأمثلة على الاستخدام الضار للذكاء الاصطناعي الذي يستهدف الموظفين السيناريوهات التالية:
*التزييف العميق: يمكن استخدام تقنيات التزييف العميق من قبل الجهات الإجرامية بسهولة لانتحال هوية المديرين التنفيذيين في مكالمات الفيديو، ما يؤدي إلى الكشف عن معلومات حساسة أو الموافقة على معاملات احتيالية.
*عمليات التصيد الاحتيالي: يمكن للذكاء الاصطناعي توليد رسائل بريد إلكتروني احتيالية مصممة خصيصاً، ما يزيد من احتمالية قيام الموظفين بالنقر على روابط ضارة أو تنزيل مرفقات خبيثة.
*تقليد الصوت: يمكن استخدام الذكاء الاصطناعي لإنشاء تقليد صوتي واقعي، ما يسمح للجهات الإجرامية بالتلاعب بالموظفين للحصول على معلومات سرية أو تنفيذ إجراءات ضارة.
الهندسة الاجتماعية الآلية: يمكن للذكاء الاصطناعي جمع معلومات تفصيلية عن الموظفين من المنصات الرقمية لابتكار سيناريوهات وهمية بهدف الحصول على معلومات حساسة.
*الأخبار المزيفة والدعاية المضللة: يمكن استخدام الذكاء الاصطناعي لنشر معلومات خاطئة بهدف التأثير على الموظفين وتعريض استقرار الشركة للخطر.
تُظهر هذه الأمثلة سهولة استغلال أدوات الذكاء الاصطناعي من قبل الجهات الإجرامية لاستهداف الموظفين وتعريض أمن المؤسسة للخطر. لذا، من الضروري توعية الموظفين بهذه التهديدات وتطبيق تدابير أمنية قوية. بالإضافة إلى الإجراءات الأمنية الداخلية، ينبغي على المنظمات الاستفادة من حلول الأمان الخارجية لتعزيز حماية الأنظمة، لا سيما في مواجهة التهديدات المتطورة. مع تطور الذكاء الاصطناعي، يتعين على الشركات تحقيق التوازن بين الاستفادة من إمكاناته وإدارة المخاطر المرتبطة به. يتطلب ذلك تطوير استراتيجيات شاملة للأمن السيبراني.
*رئيس قسم الأمن الداخلي في شركة أكرونيس

التقييمات
قم بإنشاء حسابك لتتمكن من تقييم المقالات
https://tinyurl.com/5x72vywh

عن الكاتب

رئيس قسم الأمن الداخلي في شركة أكرونيس

المزيد من الآراء

لاستلام اشعارات وعروض من صحيفة "الخليج"