عادي

دراسة: نماذج الذكاء الاصطناعي تفتقر إلى «الشفافية»

19:37 مساء
قراءة دقيقتين
16977261680

تفتقر نماذج الذكاء الاصطناعي التي تكاثرت منذ إطلاق «تشات جي بي تي» إلى الشفافية في تصميمها، ما يشكل خطراً على التطبيقات التي ترتكز عليها تقنياً، بحسب دراسة أجرتها جامعة ستانفورد ونُشِرَت نتائجها الأربعاء.

وبيّن مؤشر جديد وضعه وأجرى حسابات على أساسه باحثون في هذه الجامعة الواقعة في ولاية كاليفورنيا الأمريكية، أن الأكثر شفافية بين النماذج العشرة التي أُخضِعَت للتقويم هو «لاما 2»، وهو نظام ذكاء اصطناعي أطلقته مجموعة «ميتا» في يوليو/تموز الماضي، ويمكن إعادة استخدامه، لكنّ هذا النموذج لا يوفّر في الواقع إلا 54% من الشفافية المطلوبة، وهي نسبة غير كافية مقارنة بما يجب أن يحققه لكي يكون شفافاً، وفقاً لمعدي الدراسة.

أما «تشات جي بي تي-4»، وهو المنتَج الرئيسي لشركة «أوبن إيه آي» التي تنتج روبوت «تشات جي بي تي» الشهير والممَوّلَة من «مايكروسوفت»، فلا تتعدى درجة شفافيته 48%.

وحصلت على مراتب أدنى نماذج أخرى تلقى رواجاً، بينها «بالم-2» من «غوغل» و«كلود 2» من «انثروبيك» «(الممولة من «أمازون»).

وأوضح مدير الأبحاث في جامعة ستانفورد ريشي بوماساني في بيان أن درجة الشفافية المطلوب توفرها في ما يسمى «نماذج التأسيس» يجب أن تتراوح بين 80 % و100%.

وأوضح معدو الدراسة أن الافتقار إلى الشفافية يصعّب على الشركات معرفة ما إذا كان بإمكانها بناء تطبيقات بأمان تقوم على هذه النماذج، وعلى الأكاديميين الاعتماد على هذه النماذج في أبحاثهم.

ولاحظت الدراسة أن معظم الشركات لا تفصح عن مدى المحتوى المحمي بحقوق المؤلف والمستخدم لتدريب نموذجها. كذلك لا تكشف الشركات عن استخدام العمالة البشرية لتصحيح بيانات التدريب، الأمر الذي قد يكون مشكلة كبيرة.

التقييمات
قم بإنشاء حسابك لتتمكن من تقييم المقالات
https://tinyurl.com/yam9dafb

لاستلام اشعارات وعروض من صحيفة "الخليج"