في ورقة سياسات نُشرت يوم الأربعاء، حذر كل من إريك شميدت، الرئيس التنفيذي السابق لشركة جوجل، وألكسندر وانغ، الرئيس التنفيذي لشركة Scale AI، ودان هندريكس، مدير مركز سلامة الذكاء الاصطناعي، من أن الولايات المتحدة لا ينبغي أن تسعى إلى تطوير أنظمة ذكاء اصطناعي خارقة (AGI) بأسلوب شبيه بمشروع مانهاتن الذي أدى إلى تطوير القنبلة الذرية في الأربعينيات.
مخاطر سباق الهيمنة على الذكاء الاصطناعي
في الورقة البحثية التي حملت عنوان “استراتيجية الذكاء الفائق”، حذر المؤلفون من أن محاولة الولايات المتحدة للسيطرة الحصرية على الذكاء الاصطناعي العام (AGI) قد تؤدي إلى تصعيد التوترات مع الصين، بل وربما إلى هجمات سيبرانية تهدد استقرار العلاقات الدولية.
افتراض أن المنافسين سيقبلون بعدم التوازن الدائم أو التهديد الوجودي بدلاً من محاولة منعه، هو افتراض خاطئ، كما كتب المؤلفون. وأضافوا: “ما يبدأ كمسعى للهيمنة يمكن أن يؤدي إلى ردود فعل عدائية وتصعيد التوترات، مما يقوض الاستقرار الذي يُفترض أن هذه الاستراتيجية تسعى لتحقيقه.”
رد على دعوات تبني نموذج مانهاتن
تأتي هذه التحذيرات بعد أشهر من اقتراح لجنة في الكونغرس الأمريكي إطلاق مشروع ضخم لتمويل تطوير الذكاء الاصطناعي العام، على غرار برنامج القنبلة الذرية الأمريكي في الأربعينيات. كما صرح وزير الطاقة الأمريكي، كريس رايت، بأن الولايات المتحدة تقف عند بداية “مشروع مانهاتن جديد” في مجال الذكاء الاصطناعي، وذلك خلال حدث تعاوني حول الذكاء الاصطناعي شارك فيه أحد مؤسسي OpenAI، غريغ بروكمان.
لكن وفقًا لشميدت ورفاقه، فإن هذا النهج قد يكون محفوفًا بالمخاطر. فكما أن امتلاك القوى العالمية للأسلحة النووية أدى إلى توازن عبر مبدأ التدمير المتبادل المؤكد (MAD)، فإن السعي وراء احتكار الذكاء الاصطناعي العام قد يؤدي إلى ردود فعل عدائية قبل أن تصل الولايات المتحدة إلى مرحلة التفوق الفعلي.
تعطيل الذكاء الاصطناعي العدائي بدلًا من سباق الهيمنة
بدلًا من السعي وراء سباق التسلح في الذكاء الاصطناعي ، يقترح المؤلفون نهجًا بديلاً يركز على ردع الدول الأخرى عن تطوير أنظمة الذكاء الاصطناعي الفائق. من بين الإجراءات المقترحة:
تعزيز القدرات السيبرانية الأمريكية لتعطيل المشاريع الخطيرة التي تسعى إليها الدول الأخرى.
تقييد وصول الخصوم إلى رقائق الذكاء الاصطناعي المتقدمة والنماذج مفتوحة المصدر التي قد تساعدهم على تحقيق اختراقات في الذكاء الاصطناعي الفائق.
كما يطرح المؤلفون مفهومًا جديدًا أطلقوا عليه اسم تعطل الذكاء الاصطناعي المتبادل المؤكد (MAIM)، حيث يمكن للحكومات تعطيل مشاريع الذكاء الاصطناعي الخطرة قبل أن تتحول إلى تهديدات فعلية.
توازن بين المتشائمين والمتفائلين
يرى مؤلفو الورقة أن هناك قطبين متناقضين في مجال سياسات الذكاء الاصطناعي:
المتشائمون (Doomers) الذين يرون أن الذكاء الاصطناعي سيؤدي حتمًا إلى كوارث، ويدعون إلى إبطاء تطويره.
المتفائلون (Ostriches) الذين يعتقدون أن التقدم السريع في الذكاء الاصطناعي هو الحل، ويأملون أن تسير الأمور على ما يرام تلقائيًا.
أما النهج الذي يقترحه شميدت وزملاؤه، فهو طريق وسط يركز على استراتيجيات دفاعية تمنع نشوء مخاطر حقيقية دون الدخول في سباق خطير نحو هيمنة الذكاء الاصطناعي.
موقف شميدت المتغير تجاه سباق الذكاء الاصطناعي
يعد هذا الموقف تحولًا ملحوظًا في رؤية إريك شميدت، الذي كان من أبرز المؤيدين لفكرة منافسة الصين بقوة في مجال الذكاء الاصطناعي. فقبل بضعة أشهر فقط، نشر شميدت مقالًا رأى فيه أن ظهور نموذج الذكاء الاصطناعي الصيني DeepSeek يمثل نقطة تحول في السباق الأمريكي الصيني.
لكن الآن، يبدو أن شميدت يفضل نهجًا دفاعيًا أكثر حذرًا، محذرًا من أن قرارات الولايات المتحدة بشأن الذكاء الاصطناعي لا تحدث في فراغ دولي، بل قد تؤدي إلى نتائج غير متوقعة إذا لم يتم التعامل معها بحذر.