في إطار المواهب الاتحاد الأوروبي للمتقدم النهائي في مايو المقبل لوضع إرشادات نهائية لمقدمي نماذج الذكاء الاصطناعي (GPAI) حول مكافحة أدباء قانون الذكاء الاصطناعي الأوروبي، تم نشر المسودة الثالثة من مدونة الفعالة يوم الثلاثاء. وتستمر تطوير المدونة منذ العام الماضي، ومن المتوقع أن تكون هذه المسودة هي الأخيرة.
وقد تم إطلاق موقع إلكتروني يهدف إلى تعزيز إمكانية الوصول إلى المدونة. كما ينبغي تقديم التعليقات المكتوبة على المسودة الأخيرة بحلول 30 مارس 2025.
التشريع الأوروبي الذكي للذكاء الاصطناعي
تتضمن القواعد الخاصة بالاتحاد الأوروبي بشأن الذكاء الاصطناعي مجموعة من الالتزامات التي تنطبق فقط على مطوري النماذج الأكثر قوة، وتشمل مجالات مثل الشفافية، وحقوق الطبع والنشر، والتخفيف من المخاطر. تهدف المدونة إلى مساعدة مطوري نماذج الذكاء الاصطناعي العامة على فهم كيفية الوفاء بالالتزامات القانونية وتجنب خطر العقوبات على عدم الامتثال. قد تصل العقوبات بموجب قانون الذكاء الاصطناعي إلى 3% من الإيرادات السنوية العالمية.
تحسين الهيكلية والالتزامات
تم تصنيف المسودة الأخيرة بأنها تحتوي على هيكل أكثر تبسيطًا مع التزامات وتدابير مكررة، مقارنة بالمسودات السابقة، بناءً على الملاحظات الواردة من المسودة الثانية التي نُشرت في ديسمبر الماضي.
وسيتم دمج التعليقات الإضافية، ومناقشات مجموعات العمل، وورش العمل في عملية تحويل المسودة الثالثة إلى إرشادات نهائية. ويأمل الخبراء في تحقيق وضوح وتماسك أكبرفي النسخة النهائية التي سيتم اعتمادها.
محتويات المدونة
تم تقسيم المسودة إلى عدة أقسام تشمل التزامات نماذج الذكاء الاصطناعي العامة، مع إرشادات مفصلة بشأن الشفافية وحقوق الطبع والنشر. كما توجد فقرة تتعلق بالتزامات السلامة والأمن التي تنطبق على النماذج الأكثر قوة (التي تتسم بما يسمى بالمخاطر النظامية أو GPAISR).
الشفافية وحقوق الطبع والنشر
يشمل دليل الشفافية مثالًا على نموذج توثيق قد يُطلب من نماذج الذكاء الاصطناعي العامة تعبئته لضمان أن المستخدمين النهائيين لتقنيتهم لديهم إمكانية الوصول إلى المعلومات الأساسية التي تساعدهم في الامتثال الخاص بهم.
وفي مكان آخر، يبقى قسم حقوق الطبع والنشر الأكثر إثارة للجدل بالنسبة للشركات الكبرى في مجال الذكاء الاصطناعي.
تحتوي المسودة الحالية على مصطلحات مثل أفضل الجهود،تدابير معقولةوتدابير مناسبةعندما يتعلق الأمر بالامتثال للمتطلبات مثل احترام حقوق الطبع والنشر أثناء جمع البيانات عبر الإنترنت لتدريب النماذج، أو تقليل خطر النماذج التي تنتج مخرجات تنتهك حقوق الطبع والنشر.
يبدو أن استخدام هذه اللغة الوسيطة يشير إلى أن الشركات الكبرى في الذكاء الاصطناعي قد ترى أنها لا تزال تملك مجالًا واسعًا للاستمرار في جمع المعلومات المحمية لتدريب نماذجها وطلب المغفرة لاحقًا. لكن من غير المؤكد ما إذا كانت هذه اللغة ستتغير لتصبح أكثر صرامة في النسخة النهائية من المدونة.
الأمن والسلامة
بالنسبة للسلامة والأمن، تقتصر متطلبات قانون الذكاء الاصطناعي الأوروبي لتقييم وتخفيف المخاطر النظامية بالفعل على مجموعة فرعية من النماذج الأكثر قوة (التي تم تدريبها باستخدام أكثر من 10^25 FLOPs من قدرة الحوسبة). ولكن المسودة الأخيرة ترى تقليص بعض التدابير الموصى بها استجابةً للملاحظات الواردة.
الضغط الأمريكي
لم تذكر البيانات الصحفية للاتحاد الأوروبي عن المسودة الأخيرة الهجمات الحادة على التشريعات الأوروبية بشكل عام، وقواعد الاتحاد الأوروبي بشأن الذكاء الاصطناعي بشكل خاص، التي أطلقها الرئيس الأمريكي دونالد ترامب.
في قمة باريس بما في ذلك الذكاء الاصطناعي الشهر الماضي، رفض نائب الرئيس الأمريكي جي دي فانس الحاجة إلى تنظيم الذكاء الاصطناعي وتطبيقه بشكل آمن، مشيرًا إلى أن إدارة ترامب ستعتمد بدلاً من ذلك على فرص الذكاء الاصطناعي. واحذر أوروبا من أن توقع في التنظيم قد يؤدي إلى قتل الدجاجة التي تبيض ذهباً .
منذ ذلك الحين، تحرك الاتحاد الأوروبي لإلغاء إحدى المبادرات الخاصة بالسلامة في مجال الذكاء الاصطناعي — حيث تم وضع توجيه المسؤولية الخاصة بالذكاء الاصطناعي على الرف. كما أشار المشرعون في الاتحاد الأوروبي إلى حزمةشاملةمن الإصلاحات لتبسيط القوانين الحالية بهدف تقليل البيروقراطية، مع التركيز على مجالات مثل التقارير المتعلقة بالاستدامة.