الذكاء الاصطناعي | السياسات التقنية | في-في لي | قوانين السلامة التقنية | كاليفورنيا | SB 1047
دعوة لوضع قوانين استباقية
في تقرير جديد، دعت في-في لي، أستاذة في جامعة ستانفورد وخبيرة في مجال الذكاء الاصطناعي، إلى وضع قوانين تنظيمية استباقية. هذه القوانين يجب أن تراعي المخاطر المستقبلية المحتملة للذكاء الاصطناعي، حتى لو لم تظهر حتى الآن.
تم إصدار التقرير من قبل مجموعة العمل لسياسات كاليفورنيا بشأن نماذج الذكاء الاصطناعي المتقدمة، والتي شكلها حاكم الولاية غافين نيوسوم. جاء هذا بعد رفضه لمشروع القانون SB 1047 العام الماضي، رغم إقراره بالحاجة لتنظيم هذا القطاع سريع النمو.
دعوة إلى الشفافية والمحاسبة
يحث التقرير على ضرورة تعزيز الشفافية في مختبرات الذكاء الاصطناعي مثل OpenAI. يجب أن تُجبر هذه المختبرات على الإفصاح عن اختبارات السلامة ومصادر البيانات المستخدمة، إلى جانب سياسات الأمان الداخلية.
شارك في صياغة التقرير كل من:
- في-في لي – جامعة ستانفورد
- جينيفر تشايس – جامعة بيركلي
- ماريانو كويار – مؤسسة كارنيجي
حماية المبلّغين والتقييم المستقل
يدعو التقرير إلى وضع معايير صارمة للتقييم المستقل للنماذج الذكية. كما يوصي بتوسيع نطاق حماية المبلّغين داخل شركات الذكاء الاصطناعي، بهدف كشف أي ممارسات قد تُعرض المجتمع للخطر.
ورغم أن الأدلة حول قدرة الذكاء الاصطناعي على تنفيذ هجمات أو إنتاج أسلحة ما تزال محدودة، يؤكد التقرير أنه لا يجب الانتظار حتى وقوع الكارثة.
“لسنا بحاجة إلى مشاهدة انفجار قنبلة نووية لنعلم أنها خطيرة”.
“ثق ولكن تحقق”
يعرض التقرير استراتيجية بعنوان: “ثق ولكن تحقق”. وهي تقوم على:
- توفير قنوات آمنة لمطوري النماذج للإبلاغ عن المخاطر
- إلزام الشركات بتقديم نتائج اختبارات السلامة لمراجعة مستقلة
تأييد واسع من صناع القرار
لاقى التقرير ترحيبًا من مختلف الجهات، بمن فيهم المعارضون السابقون لمشروع SB 1047 مثل أيون ستويكا، والشخصيات المؤيدة للسلامة مثل يوشوا بنجيو.
كما اعتبره السيناتور سكوت وينر، صاحب مشروع القانون السابق، خطوة إيجابية نحو استكمال الحوار حول حوكمة الذكاء الاصطناعي الذي بدأ في 2024.
تقرير نهائي في يونيو 2025
من المتوقع صدور النسخة النهائية من التقرير في يونيو 2025. ويتوقع أن تحتوي على توصيات أكثر تفصيلًا حول تنظيم تطوير النماذج الذكية المتقدمة.