كشفت وحدة "ديب مايند" التابعة لشركة "جوجل"، الإثنين، عن وثيقة جديدة خاصة بمخاطر الذكاء الاصطناعي، تضمنت التحذير من تهديدات أبرزها احتمال أن يحاول نموذج متطور منع البشر من إيقافه أو تعديل برمجياته.
وقالت الوحدة إن الإطار المحدث للسلامة المعروف باسم "Frontier Safety Framework" أضاف أيضاً فئة جديدة مرتبطة بقدرة النماذج على الإقناع.
ويكمن هذا الخطر في أن قدرة بعض الأنظمة على الإقناع قد تصل إلى مستوى يمكّنها من التأثير بشكل عميق على معتقدات وسلوك المستخدمين.
ورداً على سؤال من موقع "أكسيوس" عن الإجراءات التي تتخذها "جوجل" للحد من هذا الخطر، قال متحدث باسم "ديب مايند" إن الشركة تتبع هذه القدرة، وطورت مجموعة جديدة من التقييمات تتضمن دراسات على مشاركين بشريين لقياس واختبار مداها.
وتراجع "جوجل" إطار السلامة الخاص بها بشكل سنوي لتحديد "مستويات القدرات الحرجة" التي قد تشكل، في حال غياب إجراءات التخفيف، خطراً متزايداً يُلحق أضراراً جسيمة.
كن أول من يعلق على الخبر
تحليل التعليقات: