الاثنين 20 أكتوبر 2025 | 06:10 مساءً

دليل شامل لأدوات الذكاء الاصطناعي
حذر إريك شميت، الرئيس التنفيذي السابق لشركة "جوجل"، من إمكانية اختراق أنظمة الذكاء الاصطناعي وإعادة تدريبها لتصبح أسلحة خطيرة للغاية.
وفي مؤتمر أقيم بلندن، أكد أنه يمكن إزالة ضوابط الأمان من النماذج المتقدمة للذكاء الاصطناعي.
أضاف أن هناك أدلة على إمكانية استخدام النماذج، مغلقة كانت أم مفتوحة، واختراقها لإزالة حواجزها الواقية .
وأشاد شميت بشركات الذكاء الاصطناعي الكبرى لحجبها للمطالبات الخطيرة، قائلا "جميع الشركات الكبرى تجعل من المستحيل على النماذج الإجابة عن مثل هذه الأسئلة والمطالبات الخطيرة، إنه قرار صائب"
وشبه شميت سباق الذكاء الاصطناعي اليوم بالعصر النووي المبكر، قائلا إن هذه التقنية قوية لكنها ذات ضوابط عالمية محدودة.
وكان الرئيس التنفيذي السابق لـ "غوغل" قد عبر عن قلقه في فبراير الماضي من أن يستخدم الإرهابيون أو الدول المارقة الذكاء الاصطناعي لإيذاء الأبرياء.
ودعا إلى فرض رقابة حكومية على شركات التكنولوجيا الخاصة التي تعمل على تطوير نماذج الذكاء الاصطناعي
0 تعليق