...

Cohere تطلق نموذج Aya Vision للذكاء الاصطناعي: الأفضل في فئته؟

أعلنت شركة Cohere، المتخصصة في الذكاء الاصطناعي، عن إطلاق نموذجها الجديد Aya Vision، والذي وصفته بأنه الأفضل في فئته ضمن النماذج المتعددة الوسائط. يتم تطوير هذا النموذج في مختبر الأبحاث غير الربحي التابع للشركة Cohere For AI، وهو مصمم لأداء مجموعة متنوعة من المهام، بما في ذلك وصف الصور، والإجابة على الأسئلة حول الصور، وترجمة النصوص، وإنشاء الملخصات بـ 23 لغة مختلفة.
شارك الان

أعلنت شركة Cohere، المتخصصة في الذكاء الاصطناعي، عن إطلاق نموذجها الجديد Aya Vision، والذي وصفته بأنه الأفضل في فئته ضمن النماذج المتعددة الوسائط. يتم تطوير هذا النموذج في مختبر الأبحاث غير الربحي التابع للشركة Cohere For AI، وهو مصمم لأداء مجموعة متنوعة من المهام، بما في ذلك وصف الصور، والإجابة على الأسئلة حول الصور، وترجمة النصوص، وإنشاء الملخصات بـ 23 لغة مختلفة.

وقالت Cohere إن النموذج سيكون متاحًا مجانًا عبر تطبيق WhatsApp، واصفة إياه بأنه خطوة كبيرة نحو جعل الابتكارات التقنية في متناول الباحثين حول العالم.

لماذا Aya Vision؟ سد فجوة اللغات في الذكاء الاصطناعي

رغم التطورات السريعة في الذكاء الاصطناعي، لا تزال هناك فجوة واضحة في أداء النماذج عبر اللغات المختلفة، خاصةً في المهام المتعددة الوسائط التي تتطلب فهم كلٍّ من النصوص والصور.
وأكدت Cohere، في منشور لها على مدونتها الرسمية، أن Aya Vision تم تطويره خصيصًا لردم هذه الفجوة وتحسين دقة النماذج في هذا المجال.

إصدارات Aya Vision: تفوّق على المنافسين

يأتي النموذج في إصدارين:

Aya Vision 32B: يُوصف بأنه حدود جديدة في مجال الذكاء الاصطناعي، حيث تفوّق على نماذج أكبر منه بمرتين، مثل Llama-3.2 90B Vision من Meta، في بعض معايير فهم الصور.

Aya Vision 8B: رغم صغر حجمه، إلا أنه تفوّق على نماذج أكبر منه بعشر مرات في بعض الاختبارات، وفقًا لتقارير Cohere.

يمكن للمطورين الوصول إلى النموذج عبر منصة Hugging Face، حيث يتوفر بترخيص Creative Commons 4.0، ولكن مع قيود تمنع استخدامه للأغراض التجارية.

التدريب على البيانات الاصطناعية: سلاح ذو حدين؟

اعتمدت Cohere على بيانات متنوعة لتدريب Aya Vision، حيث قامت بترجمة مجموعة بيانات ضخمة باللغة الإنجليزية واستخدمتها لإنشاء تعليقات توضيحية اصطناعية (Synthetic Annotations).

التعليقات التوضيحية هي العلامات أو التصنيفات التي تساعد النماذج على فهم البيانات خلال مرحلة التدريب. على سبيل المثال، في نموذج التعرف على الصور، قد تشمل التعليقات التوضيحية إشارات إلى الأشخاص أو الأشياء داخل الصورة.

هل البيانات الاصطناعية كافية؟

يُذكر أن استخدام التعليقات التوضيحية الاصطناعية أصبح اتجاهًا شائعًا في مجال الذكاء الاصطناعي، حيث تعتمد عليه شركات مثل OpenAI بسبب ندرة البيانات الحقيقية. ووفقًا لتقديرات شركة Gartner، فإن 60% من البيانات المستخدمة في مشاريع الذكاء الاصطناعي والتحليلات في العام الماضي كانت مصطنعة.

AyaVisionBench: معيار جديد لاختبار النماذج؟

إلى جانب Aya Vision، أطلقت Cohere مجموعة اختبارات جديدة تُعرف بـ AyaVisionBench، وهي مصممة لقياس قدرات النماذج في المهام البصرية واللغوية، مثل تحديد الفروق بين صورتين وتحويل لقطات الشاشة إلى أكواد برمجية.

تأتي هذه الخطوة استجابةً لما يُعرف بـ أزمة التقييم في الذكاء الاصطناعي، حيث أصبحت المعايير الحالية غير دقيقة في تقييم كفاءة النماذج. وتؤكد Cohere أن AyaVisionBench يمثل إطارًا شاملًا وصعبًا لاختبار قدرة النماذج على فهم النصوص والصور بلغات متعددة.

ختامًا: هل يغيّر Aya Vision قواعد اللعبة؟

مع استمرار تطور الذكاء الاصطناعي بوتيرة متسارعة، تبقى Aya Vision خطوة مثيرة للاهتمام، خاصةً إذا نجح في تقديم أداء متفوق بموارد أقل. وإذا كان معيار AyaVisionBench قادرًا على توفير تقييمات أكثر دقة، فقد يصبح أداة رئيسية في اختبار النماذج المستقبلية.

ما رأيك في هذا التطور؟ هل تعتقد أن Aya Vision سيحدث فرقًا في عالم الذكاء الاصطناعي؟ شاركنا وجهة نظرك في التعليقات!

شارك الان
Seraphinite AcceleratorOptimized by Seraphinite Accelerator
Turns on site high speed to be attractive for people and search engines.