نفت شركة ميتا بشكل قاطع صحة الشائعات التي اتهمتها بتعديل نتائج تقييم نماذجها الجديدة من الذكاء الاصطناعي لإبراز أدائها على نحو مصطنع.
كتب أحمد الدهل، نائب رئيس قسم الذكاء الاصطناعي التوليدي في ميتا، على منصة X قائلًا:
“هذا غير صحيح إطلاقًا. لم نقم بتدريب نماذج Llama 4 Maverick وLlama 4 Scout على مجموعات الاختبار.”
وتُستخدم مجموعات الاختبار في تقييم أداء النماذج بعد تدريبها. ولو تم التدريب عليها، فإن النتائج ستكون مضللة وتوحي بكفاءة غير حقيقية.
شائعات غير موثقة تُثير الجدل
بدأت الشائعات بالانتشار على منصات X وReddit نهاية الأسبوع. ادعى مستخدم على موقع صيني أنه استقال من ميتا احتجاجًا على ما وصفه بممارسات غير أخلاقية في تقييم النماذج.
مزاعم ضعف الأداء في بعض المهام، إلى جانب استخدام نسخة غير منشورة من نموذج Maverick لتحقيق نتائج مرتفعة على منصة LM Arena، زادت من شكوك المستخدمين.
لاحظ بعض الباحثين اختلافًا كبيرًا بين أداء النسخة القابلة للتحميل من Maverick وتلك المستضافة على LM Arena.
ميتا توضح الفروقات في الأداء
اعترف الدهل بأن المستخدمين يلاحظون أداءً متفاوتًا بين النسخ المستضافة على خدمات سحابية مختلفة.
وقال:
“أطلقنا النماذج بمجرد جاهزيتها. نعلم أن الأمر سيستغرق أيامًا حتى تستقر التطبيقات العامة.”
وأكد أن الفريق يعمل على إصلاح الأخطاء ودعم الشركاء التقنيين لضبط الأداء.