هل اكتشف الباحثون قانونًا جديدًا لتوسيع الذكاء الاصطناعي؟

هل اكتشف الباحثون قانونًا جديدًا لتوسيع الذكاء الاصطناعي؟ هذا ما يشير إليه بعض الحديث على وسائل التواصل الاجتماعي، لكن الخبراء يتبنون موقفًا حذرًا.
شارك الان

هل اكتشف الباحثون قانونًا جديدًا لتوسيع الذكاء الاصطناعي؟ هذا ما يشير إليه بعض الحديث على وسائل التواصل الاجتماعي، لكن الخبراء يتبنون موقفًا حذرًا.

تعد قوانين توسيع الذكاء الاصطناعي، وهي مفهوم غير رسمي نوعًا ما، بمثابة وصف لكيفية تحسين أداء نماذج الذكاء الاصطناعي عندما تزداد أحجام البيانات والموارد الحسابية المستخدمة لتدريبها. حتى قبل حوالي عام، كان توسيع “التدريب المبدئي” — تدريب النماذج الأكبر على مجموعات بيانات أكبر — هو القانون السائد بلا منازع، على الأقل من حيث أن معظم مختبرات الذكاء الاصطناعي الرائدة كانت تعتمد عليه.

لم يختفِ التدريب المبدئي، ولكن ظهرت قوانين توسيع إضافية، مثل توسيع ما بعد التدريب وتوسيع وقت الاختبار، لتكملته. توسيع ما بعد التدريب يعني تعديل سلوك النموذج، بينما ينطوي توسيع وقت الاختبار على تطبيق المزيد من الحسابات على الاستنتاج — أي تشغيل النماذج — لدفع نوع من “التفكير” (انظر: نماذج مثل R1).

مؤخراً، اقترح باحثو جوجل وجامعة كاليفورنيا في بيركلي في ورقة بحثية ما وصفه بعض المعلقين على الإنترنت بالقانون الرابع: “البحث في وقت الاستدلال”.

البحث في وقت الاستدلال: نموذج جديد يعزز الأداء

يعتمد البحث في وقت الاستدلال على أن يقوم النموذج بتوليد العديد من الإجابات الممكنة للاستفسار في وقت واحد، ثم يقوم باختيار “أفضل” الإجابات من بين هذه الخيارات. يدعي الباحثون أنه يمكن تعزيز أداء نموذج قديم، مثل جيمي 1.5 من جوجل، ليصبح بمستوى يفوق نموذج “التفكير” o1-preview من OpenAI في اختبارات العلوم والرياضيات.

كما كتب إريك زاو، زميل الدكتوراه في جوجل وأحد مؤلفي الورقة البحثية، في سلسلة منشورات على منصة X:
“من خلال أخذ عينات عشوائية لـ 200 إجابة والتحقق الذاتي، يتفوق جيمي 1.5 – النموذج القديم من أوائل 2024 – على o1-preview ويقترب من o1.”

التحديات والشكوك: لماذا قد لا يكون البحث في وقت الاستدلال حلاً مناسبًا؟

مع ذلك، يقول العديد من الخبراء إن هذه النتائج ليست مفاجئة، ويعتقدون أن البحث في وقت الاستدلال قد لا يكون مفيدًا في العديد من السيناريوهات.

أوضح ماثيو جوزديال، باحث في الذكاء الاصطناعي وأستاذ مساعد في جامعة ألبرتا، لـ TechCrunch أن هذا النهج يعمل بشكل أفضل عندما يكون هناك “دالة تقييم” جيدة، بمعنى أنه يمكن تحديد أفضل إجابة بسهولة. لكن معظم الاستفسارات ليست بهذه البساطة.

وقال: “إذا لم نتمكن من كتابة كود لتعريف ما نريده، فلا يمكننا استخدام البحث في وقت الاستدلال… في حالات مثل التفاعل العام مع اللغة، لا يمكننا فعل ذلك.”

من جانبه، رد إريك زاو، الباحث في جوجل وأحد مؤلفي الدراسة، على اعتراضات جوزديال قائلاً:
“ورقتنا تركز على الحالات التي لا يتوفر فيها ‘دالة تقييم’ أو ‘كود لتعريف ما نريده’، والتي غالبًا ما نُشير إليها كـ ‘محقق الحقيقة الأساسية’. بدلاً من ذلك، ندرس الحالات التي يحتاج فيها النموذج إلى التحقق من نفسه.”

ومع ذلك، وافق مايك كوك، زميل البحث في كلية كينغ بلندن والمتخصص في الذكاء الاصطناعي، مع تقييم جوزديال، مضيفًا أن هذه الفكرة تُظهر الفجوة بين “التفكير” في الذكاء الاصطناعي وعمليات التفكير البشرية.

وقال كوك: “البحث في وقت الاستدلال لا ‘يرتقي بعملية التفكير’ في النموذج، بل هو مجرد وسيلة للتغلب على قيود التكنولوجيا التي تميل إلى ارتكاب أخطاء بدعم كبير.”

ما هو التالي؟

يبدو أن البحث عن تقنيات جديدة لتوسيع الذكاء الاصطناعي سيستمر، في وقت يشهد فيه قطاع الذكاء الاصطناعي مساعي مكثفة لتوسيع قدرة النماذج على “التفكير” بطريقة فعّالة من حيث الحسابات.

شارك الان