أوضحت OpenAI أن تقريرها الفني كان يحمل صياغة غير دقيقة توحي بأن أبحاثها حول الإقناع مرتبطة بقرارها بشأن توفير نموذج البحث العميق عبر API. قامت الشركة بتحديث التقرير لتوضيح أن أبحاث الإقناع منفصلة عن خطط إصدار النموذج. المقال الأصلي أدناه.)
OpenAI تؤجل إتاحة نموذج البحث العميق عبر API
أكدت OpenAI أنها لن توفر نموذج الذكاء الاصطناعي الذي يشغل أداة البحث العميق عبر API في الوقت الحالي، حيث تسعى لفهم المخاطر المحتملة التي قد تنشأ عند استخدام الذكاء الاصطناعي في إقناع المستخدمين أو تغيير معتقداتهم.
في تقرير فني نشرته الشركة يوم الأربعاء، ذكرت OpenAI أنها تعمل على تحسين أساليب تقييم مخاطر الإقناع في العالم الحقيقي، مثل نشر معلومات مضللة على نطاق واسع.
هل يمكن استخدام البحث العميق لنشر المعلومات المضللة؟
أوضحت OpenAI أنها لا تعتقد أن نموذج البحث العميق يمكن استغلاله بسهولة في حملات التضليل الإعلامي، نظرًا لارتفاع تكلفته الحسابية وبطء سرعته النسبية. ومع ذلك، فإن الشركة تبحث في إمكانية تخصيص المحتوى المقنع بطريقة قد تكون ضارة قبل أن تقرر إتاحة النموذج عبر API.
نعيد النظر في نهجنا تجاه تقنيات الإقناع، سنوفر هذا النموذج حاليًا داخل ChatGPT فقط، وليس عبر API.– OpenAI
الذكاء الاصطناعي والمعلومات المضللة: خطر متزايد؟
يشهد العالم تصاعدًا في استخدام الذكاء الاصطناعي لنشر الأخبار الزائفة والتلاعب بالرأي العام. على سبيل المثال، انتشرت العام الماضي التزييفات العميقة السياسية (Deepfakes) بسرعة مذهلة.
في تايوان، خلال يوم الانتخابات، نشرت مجموعة مرتبطة بالحزب الشيوعي الصيني تسجيلًا صوتيًا مزيفًا بالذكاء الاصطناعي يظهر سياسيًا يعلن دعمه لمرشح مؤيد للصين – وهي خطوة تهدف إلى التأثير على الناخبين بطريقة غير مشروعة.
بالإضافة إلى ذلك، تُستخدم التزييفات العميقة في تنفيذ هجمات الهندسة الاجتماعية، حيث يتم خداع المستهلكين عبر مقاطع فيديو مزيفة لمشاهير يروجون للاستثمارات الاحتيالية، كما تعرضت شركات كبرى لخسائر بملايين الدولارات بسبب منتحلي شخصيات باستخدام الذكاء الاصطناعي.
نتائج اختبار نموذج البحث العميق
نشرت OpenAI نتائج اختبارات عدة حول قدرة نموذج البحث العميق على الإقناع. يُعتبر هذا النموذج إصدارًا خاصًا من نموذج الذكاء الاصطناعي المتقدم o3، المصمم خصيصًا لتحليل البيانات وتصفح الإنترنت بذكاء.
في اختبار لكتابة حجج مقنعة، تفوق النموذج على جميع نماذج OpenAI السابقة – لكنه لم يتمكن من تجاوز الأداء البشري.
في تجربة أخرى، حاول النموذج إقناع GPT-4o بإجراء دفعة مالية، وتمكن من تحقيق نتائج أفضل من أي نموذج آخر للشركة.
لكن النموذج لم ينجح في جميع الاختبارات. وفقًا للتقرير، لم يتمكن نموذج البحث العميق من إقناع GPT-4o بالكشف عن كلمة سرية، بينما نجح GPT-4o نفسه في ذلك.
تشير OpenAI إلى أن هذه النتائج قد تكون أقل من الإمكانيات الفعلية للنموذج، وأن تطوير استراتيجيات استدعاء أفضل قد يؤدي إلى زيادة ملحوظة في الأداء.
المنافسون يتحركون بسرعة
بينما تتأنى OpenAI في طرح البحث العميق عبر API، لا يبدو أن جميع منافسيها يسيرون بنفس النهج.
فقد أعلنت شركة Perplexity اليوم عن إطلاق أداة البحث العميق عبر منصة Sonar، وهي خدمة API تعتمد على نموذج مخصص من مختبر الذكاء الاصطناعي الصيني DeepSeek R1، الذي يُقال إنه يتفوق على نموذج o1 من OpenAI في بعض الاختبارات.
يبدو أن سباق الذكاء الاصطناعي البحثي قد بدأ بالفعل، لكن OpenAI تتريث في اتخاذ قرارها النهائي بشأن إتاحة نموذجها للمطورين عبر API.
هل ستتغلب المخاوف الأخلاقية على السباق التكنولوجي؟
مع استمرار تطور الذكاء الاصطناعي المتقدم، ستظل الأسئلة حول المخاطر الأخلاقية وقدرة الأنظمة على الإقناع مصدر قلق رئيسي. وفي حين أن OpenAI تتخذ نهجًا حذرًا ومدروسًا، فإن الشركات الأخرى لا تنتظر، مما يجعل المنافسة أكثر تعقيدًا من أي وقت مضى.