أعلنت شركة أوبنAI عن تحديث جديد لـ إطار الجاهزية، وهو النظام الذي تعتمد عليه لتقييم سلامة نماذج الذكاء الاصطناعي. التحديث يتضمن احتمال تعديل ضوابط الأمان إذا أطلقت إحدى الشركات المنافسة نموذجًا عالي الخطورة دون توفير الحماية اللازمة.
التنافس يضغط على معايير السلامة
تشهد صناعة الذكاء الاصطناعي سباقًا لإطلاق النماذج بسرعة. وتواجه أوبنAI اتهامات بتقليص معايير الأمان لتسرّع من وتيرة الإطلاق. في الأسبوع الماضي، قدّم 12 موظفًا سابقًا في الشركة إفادة قانونية تدعم قضية إيلون ماسك ضدها. وأكدوا أن إعادة الهيكلة قد تدفع الشركة لتجاهل معايير السلامة.
مع ذلك، تقول أوبنAI إنها لن تُجري أي تغييرات إلا بعد دراسة دقيقة. كما تؤكد أنها ستبقي على معايير أمان تتفوق على معايير المنافسين.
وأضافت الشركة: “إذا أطلقت جهة منافسة نموذجًا عالي الخطورة دون حماية مناسبة، سنراجع ممارساتنا. لكننا سنتحقق أولًا من تغير مستوى المخاطر، ونُعلن ذلك بشكل علني، ونضمن ألا تزيد التعديلات من احتمال وقوع ضرر كبير.”
التقييمات المؤتمتة بدلاً من الاختبارات البشرية
اعتمدت أوبنAI على تقييمات آلية بشكل متزايد لتسريع التطوير. ورغم أنها لا تزال تُجري بعض التقييمات يدويًا، إلا أنها بنت مجموعة من الاختبارات المؤتمتة لتواكب سرعة الإصدارات.
لكن تقارير صحفية مثل فاينانشيال تايمز شككت في هذه المزاعم. وأشارت إلى أن أوبنAI منحت الفرق أقل من أسبوع لاختبار أحد النماذج، وهي مدة قصيرة مقارنة بإصدارات سابقة. كما أوضحت أن الشركة غالبًا ما تختبر النماذج الأولية بدلاً من النسخ النهائية.
أوبنAI أنكرت هذه التقارير. وقالت إن إجراءاتها لا تزال صارمة وتراعي السلامة.
تصنيفات جديدة للمخاطر
غيرت أوبنAI طريقة تصنيف نماذجها من حيث الخطورة. أصبح التركيز الآن على ما إذا كان النموذج يمتلك “قدرة عالية” أو “قدرة حرجة”:
- القدرة العالية: نموذج قد يُضاعف مسارات الضرر الحالية.
- القدرة الحرجة: نموذج يفتح مسارات جديدة وخطيرة لم تكن موجودة من قبل.
وأكدت أوبنAI أن أي نموذج يصنّف ضمن “القدرة العالية” يجب أن يُطلق فقط بعد تقليل المخاطر المرتبطة به. أما النماذج التي تحمل “القدرة الحرجة”، فتحتاج إلى إجراءات أمان صارمة حتى أثناء مراحل التطوير.
ويُعتبر هذا أول تحديث تجريه الشركة على إطار الجاهزية منذ عام 2023.