أعلنت شركة OpenAI عن خطة جديدة لتقييد الوصول إلى بعض نماذج الذكاء الاصطناعي المتقدمة.
سيحتاج المطورون إلى اجتياز عملية تحقق بالهوية تُسمى “Verified Organization”.
ما هي “Verified Organization”؟
أتاحت OpenAI هذا النظام للمطورين الذين يرغبون في استخدام النماذج الأكثر تطورًا.
تطلب العملية تقديم هوية حكومية صالحة من دولة تدعمها المنصة.
لا يمكن استخدام نفس الهوية لأكثر من جهة خلال 90 يومًا.
ولا تضمن الشركة الموافقة لجميع المؤسسات.
الهدف من هذا التغيير
قالت OpenAI إنها تسعى لضمان الاستخدام الآمن لتقنياتها.
لاحظت الشركة أن بعض المطورين خالفوا سياسات الاستخدام عمدًا.
لذلك قررت تنفيذ التحقق لتقليل المخاطر الأمنية.
تعزيز الأمان ضد المخاطر الرقمية
ركزت OpenAI في الأشهر الأخيرة على تتبع الأنشطة المشبوهة.
أصدرت تقارير حول محاولات استخدام نماذجها بطرق ضارة.
وأشارت إلى مجموعات يُعتقد أنها تعمل من كوريا الشمالية.
منع تسريب البيانات
أفاد تقرير من Bloomberg أن OpenAI فتحت تحقيقًا داخليًا في أواخر 2024.
يشتبه أن جهة مرتبطة بمختبر DeepSeek الصيني استخدمت واجهة API للحصول على بيانات ضخمة.
يُحتمل أن هذه البيانات استُخدمت لتدريب نماذج غير مصرح بها.
ردًا على ذلك، منعت الشركة الوصول إلى خدماتها من داخل الصين.