إنسيبشن تكشف عن نموذج ذكاء اصطناعي جديد بتقنية الانتشار
إنسيبشن (Inception)، الشركة الناشئة التي تتخذ من بالو ألتو مقرًا لها، والتي أسسها ستيفانو إيرمون، أستاذ علوم الحاسوب في جامعة ستانفورد، تعلن عن تطوير نموذج ذكاء اصطناعي جديد يعتمد على تقنية الانتشار (Diffusion). تطلق الشركة على هذا النموذج اسمDLM (نموذج اللغة الكبير المعتمد على الانتشار)، وهو يقدم أداءً أسرع من النماذج التقليدية مع تقليل تكلفة الحوسبة.
ما الفرق بين نماذج الانتشار (DLM) والنماذج التقليدية (LLM)؟
حاليًا، يمكن تقسيم نماذج الذكاء الاصطناعي التوليدي إلى نوعين رئيسيين:
نماذج اللغة الكبيرة (LLMs)، والتي تُستخدم في توليد النصوص.
نماذج الانتشار (Diffusion Models)، التي تشغّل أنظمة مثل Midjourney وSora من OpenAI، وهي مخصصة لتوليد الصور والفيديوهات والصوت.
ولكن إنسيبشن تقدم حلاً مبتكرًا: DLM، وهو نموذج يجمع بين إمكانيات LLM التقليدية مثل إنشاء الأكواد البرمجية والإجابة على الأسئلة، ولكن مع سرعة أعلى وتكلفة أقل.
كيف يعمل نموذج إنسيبشن الجديد؟
أوضح إيرمون أن نماذج اللغة الكبيرة التقليدية (LLMs) تعاني من البطء، حيث يتم توليد الكلمات بشكل متسلسل:
لا يمكن للنموذج توليد الكلمة الثانية قبل الأولى، ولا الثالثة قبل الثانية، بحسب إيرمون.
أما نماذج الانتشار، فهي تعمل بشكل مختلف تمامًا، حيث تبدأ بصورة أولية للنص ثم تُحسّنه دفعة واحدة، مما يتيح توليد كتل كبيرة من النصوص بشكل متوازٍ، بدلاً من الترتيب التسلسلي البطيء.
بعد سنوات من الأبحاث، نجح إيرمون وطالب لديه في تحقيق اختراق علمي، والذي تم تفصيله في ورقة بحثية نُشرت العام الماضي.
دعم استثماري وعملاء كبار
على الرغم من أن إيرمون لم يكشف عن حجم التمويل الذي حصلت عليه الشركة، فإن TechCrunch تؤكد أن صندوق الاستثمار Mayfield Fund قد استثمر في إنسيبشن.
كما تمكنت الشركة الناشئة من تأمين عقود مع عدة شركات كبرى، بما في ذلك شركات ضمن قائمة Fortune 100، وذلك بفضل قدرتها على تقليل زمن الاستجابة (latency) وزيادة سرعة النماذج.
وجدنا أن نماذجنا تستفيد بشكل أكثر كفاءة من وحدات معالجة الرسومات (GPUs) ، يقول إيرمون، مشيرًا إلى أن هذه التقنية ستغير طريقة بناء نماذج اللغة.
ما الذي تقدمه إنسيبشن؟
توفر إنسيبشن مجموعة من الحلول، منها:
✅ واجهة برمجية (API) سهلة التكامل.
✅ نشر النماذج على الخوادم المحلية (On-Premises) والأجهزة الطرفية (Edge Devices).
✅ دعم تخصيص النماذج (Fine-tuning) وفقًا لاحتياجات العملاء.
✅ مجموعة جاهزة من نماذج DLM لمختلف التطبيقات.
وتدعي الشركة أن نماذجها يمكن أن تعمل بسرعة تصل إلى 10 أضعاف مقارنةً بالنماذج التقليدية، وبتكلفة أقل 10 مرات.
مقارنة بين أداء إنسيبشن والنماذج المنافسة
وفقًا لما صرّح به متحدث باسم إنسيبشن:
نموذجنا البرمجي الصغير يضاهي GPT-4o mini من OpenAI، ولكنه أسرع منه بأكثر من 10 مرات.
أما نموذجنا الصغير Mini DLM، فيتفوق على النماذج المفتوحة المصدر مثل Llama 3.1 8B من Meta، حيث يحقق سرعة تزيد عن 1,000 رمز (Token) في الثانية.
وللمقارنة، فإن الوصول إلى 1,000 رمز في الثانية هو معدل أداء استثنائي، وفقًا لمعايير الصناعة الحالية.
خاتمة
يبدو أن إنسيبشن على وشك إعادة تعريف طريقة بناء نماذج اللغة الكبيرة، مما قد يغير بشكل جذري كيفية تطوير ونشر تطبيقات الذكاء الاصطناعي. مع تقنيتها الجديدة، يمكن أن تصبح الشركة واحدة من اللاعبين الرئيسيين في صناعة الذكاء الاصطناعي في المستقبل القريب.