OpenAI تطلق نموذج GPT-4.1 بدون تقرير أمان

في خطوة أثارت جدلاً واسعًا، أطلقت شركة OpenAI نموذج الذكاء الاصطناعي الجديد GPT-4.1 دون إرفاقه بتقرير الأمان المعتاد المعروف بـ”بطاقة النظام”، والذي يمثل معيارًا مهمًا في سياسة الشفافية لدى شركات الذكاء الاصطناعي.
شارك الان

في خطوة أثارت جدلاً واسعًا، أطلقت شركة OpenAI نموذج الذكاء الاصطناعي الجديد GPT-4.1 دون إرفاقه بتقرير الأمان المعتاد المعروف بـ”بطاقة النظام”، والذي يمثل معيارًا مهمًا في سياسة الشفافية لدى شركات الذكاء الاصطناعي.

تجاهل تقرير الأمان يفتح الباب للتساؤلات

تُجري معظم مختبرات الذكاء الاصطناعي اختبارات داخلية وخارجية قبل طرح أي نموذج جديد، ثم تُصدر تقارير توثق تلك الإجراءات. هذه التقارير تكشف أحيانًا عن نقاط ضعف خطيرة، مثل ميل النموذج إلى خداع المستخدمين أو التأثير عليهم نفسيًا.

لكن في هذه الحالة، أطلقت OpenAI نموذج GPT-4.1 دون أي تقرير أمان. وقال المتحدث الرسمي باسم الشركة، شاوكيي أمدو، في بيان لموقع TechCrunch:

“نموذج GPT-4.1 لا يُصنف ضمن نماذج الجيل المتقدم، لذا لن ننشر بطاقة نظام خاصة به”.

مختبرات الذكاء الاصطناعي تخفف معايير الشفافية

شهدت الأشهر الماضية تراجعًا واضحًا في التزام الشركات الكبرى بإصدار تقارير الأمان المفصّلة.
Google مثلًا تأخرت في تقديم تلك التقارير، بينما نشرت شركات أخرى نسخًا تفتقر إلى التفاصيل الجوهرية.

في ديسمبر، نشرت OpenAI تقرير أمان احتوى على نتائج لا تتعلق بالنموذج الفعلي المستخدم. كما أطلقت الشهر الماضي نموذج “Deep Research” دون بطاقة نظام، ثم نشرتها بعد أسابيع من الإطلاق.

باحثون: التقارير ليست إلزامية… لكنها ضرورية

أوضح الباحث السابق في OpenAI، ستيفن أدلر، أن القانون لا يُجبر الشركات على إصدار تقارير الأمان.
وأضاف في رسالة إلى TechCrunch:

“بطاقات النظام تمثل الأداة الأبرز التي تعتمد عليها الصناعة لتوضيح اختبارات الأمان والشفافية. لكن الالتزام بها طوعي، وكل شركة تتخذ قرارها منفردة”.

التزامات معلنة… ولكن بلا تنفيذ فعلي

رغم هذا التجاهل، أكدت OpenAI في مدونة نشرتها قبيل قمة سلامة الذكاء الاصطناعي بالمملكة المتحدة عام 2023 أن بطاقات النظام عنصر أساسي في نهجها نحو المساءلة.
كما كررت الشركة نفس الالتزام قبل قمة باريس 2025، مشيرة إلى أن تلك البطاقات تسلط الضوء على المخاطر المحتملة.

أصوات داخلية تنتقد أداء الشركة

أعرب موظفون حاليون وسابقون عن قلقهم إزاء اتجاه الشركة نحو تقليص جهود السلامة.
ستيفن أدلر و11 موظفًا سابقًا قدّموا طلبًا رسميًا لدعم قضية إيلون ماسك ضد OpenAI، مشيرين إلى أن الشركة تهمل اعتبارات الأمان لصالح الربح.

كشفت صحيفة Financial Times أن OpenAI قلّصت الموارد المخصصة لاختبارات السلامة، استجابةً لضغط المنافسة.

أداء GPT-4.1 يفرض الحاجة لتقرير سلامة

أوضح توماس وودسايد، الشريك المؤسس في مشروع Secure AI، أن النموذج الجديد يتميز بتحسينات في الكفاءة وسرعة الاستجابة.
وشدّد على أن هذه القدرات تزيد من احتمالية المخاطر، مؤكدًا أهمية إصدار تقرير أمان يُقيّم هذه الجوانب.

معارضة لمحاولات تشريع الشفافية

تسعى بعض الولايات الأمريكية إلى إقرار قوانين تُجبر شركات الذكاء الاصطناعي على نشر تقييمات أمان، مثل مشروع قانون SB 1047 في كاليفورنيا.
لكن OpenAI رفضت دعم هذه الجهود، وعارضت هذا النوع من التشريع.

شارك الان