انتقاد لنهج OpenAI في أمان الذكاء الاصطناعي
وجه مايلز بروندج، الباحث السابق في سياسات OpenAI، انتقادات حادة للشركة بسبب “إعادة كتابة تاريخها” فيما يتعلق بنهجها لنشر أنظمة الذكاء الاصطناعي الخطرة. جاء ذلك عبر منشور له على منصة X، حيث أعرب عن استيائه من الوثيقة الجديدة التي أصدرتها OpenAI، والتي تحدد رؤيتها الحالية حول أمان الذكاء الاصطناعي والتوافق مع الذكاء العام الاصطناعي (AGI).
إعادة تفسير نهج OpenAI في الأمان
في وثيقتها الأخيرة، أكدت OpenAI أن تطوير الذكاء العام الاصطناعي هو مسار مستمر يتطلب “نشرًا تدريجيًا” واكتساب الدروس من النماذج الحالية. وجاء في الوثيقة:
في عالم غير متصل، تأتي دروس الأمان من التعامل مع الأنظمة الحالية بحذر مفرط مقارنة بقدراتها الظاهرة، وهذا هو النهج الذي اتبعناه مع GPT-2.
لكن بروندج، الذي كان ضمن فريق تطوير GPT-2، يرفض هذا الطرح تمامًا، مشيرًا إلى أن الحذر الذي مارسته OpenAI عند إطلاق النموذج كان مُبرَّرًا تمامًا، ولم يكن قائمًا على تصور أن AGI قد يظهر فجأة، بل كان جزءًا من استراتيجيتها المعتادة للنشر التدريجي.
GPT-2: نموذج مثير للجدل
تم الإعلان عن GPT-2 عام 2019، وكان يُعد في ذلك الوقت إنجازًا كبيرًا في معالجة اللغة الطبيعية، حيث تمكن من الإجابة على الأسئلة، تلخيص المقالات، وإنشاء نصوص تكاد تكون indistinguishable من الكتابات البشرية. وبسبب المخاوف من إساءة الاستخدام، قررت OpenAI عدم نشر الكود المصدري الكامل على الفور، ومنحت بدلاً من ذلك حق الوصول المحدود لجهات إعلامية مختارة.
أثار هذا القرار جدلاً واسعًا في أوساط الباحثين، حيث اعتبر بعض الخبراء أن مخاطر GPT-2 كانت مُبالغًا فيها. حتى أن مجلة The Gradient نشرت رسالة مفتوحة تطالب OpenAI بإتاحة النموذج للباحثين، بحجة أن أهميته التقنية تفوق المخاطر المحتملة. في النهاية، أصدرت الشركة نموذجًا جزئيًا بعد ستة أشهر، تلاه الإصدار الكامل لاحقًا.
اتهامات لسياسات OpenAI
يرى بروندج أن الوثيقة الأخيرة تهدف إلى إعادة صياغة التاريخ لتبرير نهج OpenAI الحالي، والذي يقلل من أهمية الحذر عند تطوير النماذج المتقدمة. وأوضح:
إذا كنت لا تزال تعمل في OpenAI، كنت سأسأل عن سبب كتابة هذه الوثيقة بهذه الطريقة، وما الذي تحاول الشركة تحقيقه بتقليل أهمية الحذر بهذه الدرجة؟
هذه الانتقادات ليست الأولى من نوعها، إذ تم اتهام OpenAI سابقًا بأنها تفضل إطلاق المنتجات بسرعة على حساب الأمان، خاصة بعد حل فريق AGI readiness العام الماضي، وخروج العديد من الباحثين المتخصصين في سياسات الأمان إلى شركات منافسة.
الضغوط التنافسية والتحديات المالية
تواجه OpenAI ضغوطًا متزايدة في سوق الذكاء الاصطناعي، خاصة بعد صعود مختبر الذكاء الاصطناعي الصيني DeepSeek، الذي كشف عن نموذج R1، والذي تفوق على نموذج OpenAI o1 في بعض الاختبارات الأساسية. واعترف سام ألتمان، الرئيس التنفيذي لـ OpenAI، بأن DeepSeek قلص الفجوة التكنولوجية بين الشركتين، مما دفع OpenAI إلى تسريع دورة إصدار النماذج.
لكن هذه الخطوة تثير مخاوف بشأن التوازن بين التنافسية والأمان، خاصة في ظل تقارير تفيد بأن خسائر OpenAI قد تتضاعف إلى 14 مليار دولار بحلول عام 2026. ويرى خبراء مثل بروندج أن هذا السباق المحموم قد يكون مكلفًا على المدى الطويل، حيث قد يأتي على حساب مبادئ الأمان والمسؤولية في تطوير الذكاء الاصطناعي.