Site icon الذكاء الاصنطاعى بالعربى

الذكاء الاصطناعي في الصين يُجيب بشكل مختلف حسب اللغة المستخدمة


تشديد الرقابة على النماذج الصينية

تُقيّد الصين الذكاء الاصطناعي عبر قوانين صارمة. فرضت الحكومة في 2023 قانونًا يمنع النماذج من إنتاج أي محتوى يُهدد وحدة الدولة أو الانسجام الاجتماعي. على سبيل المثال، نموذج DeepSeek R1 رفض الرد على 85% من الأسئلة المتعلقة بالسياسة.


تأثير اللغة على إجابات الذكاء الاصطناعي

اختبر المطور “xlr8harder” تأثير اللغة على الرقابة. أنشأ تقييمًا لحرية التعبير. استخدم فيه نماذج مثل Claude 3.7 Sonnet وR1 للإجابة على 50 سؤالًا سياسيًا.

عندما طرح الأسئلة باللغة الإنجليزية، تجاوبت النماذج بشكل ملحوظ. ولكن حين ترجمها إلى الصينية، تغيّر الوضع.


النماذج الصينية كانت أقل تجاوبًا

أظهر نموذج Qwen 2.5 من شركة Alibaba تجاوبًا كبيرًا بالإنجليزية. أما بالصينية، فاستجاب لنصف الأسئلة فقط.

حتى النسخة “غير المراقبة” من نموذج R1، والتي طُرحت باسم R1 1776، رفضت عددًا كبيرًا من الأسئلة عندما كانت بالصينية.


السبب: فشل التعميم بسبب الرقابة

رجّح xlr8harder أن الرقابة الصينية على الإنترنت أثرت على بيانات التدريب. وأشار إلى أن أغلب النصوص الصينية المستخدمة في تدريب النماذج لا تحتوي على نقد سياسي. لذا، تُنتج النماذج إجابات خاضعة للرقابة تلقائيًا عند السؤال بالصينية.


الترجمة لا تضمن دقة التجربة

استخدم xlr8harder نموذج Claude لترجمة الأسئلة من الإنجليزية إلى الصينية. لكنه لم يتمكن من التحقق من جودة الترجمة.

مع ذلك، لاحظ أنه عند طرح نفس الأسئلة بلغتين مختلفتين، تتباين الإجابات بشكل واضح.


الخبراء يدعمون هذه النتائج

قال البروفيسور كريس راسل من معهد أكسفورد إن آليات الحماية لا تعمل بالتساوي بين اللغات. وأكد أن تغيير اللغة قد يؤدي إلى تغيير سلوك النموذج.


الذكاء الاصطناعي يتبع البيانات المتوفرة

أوضح الباحث فاجرانت غوتام من جامعة سارلاند أن الذكاء الاصطناعي يتعلم من الإحصاءات. فإذا نُدرت بيانات النقد السياسي باللغة الصينية، سيتردد النموذج في إنتاج نصوص ناقدة بالصينية.

وأشار إلى أن الإنترنت يحتوي على كم كبير من النقد السياسي باللغة الإنجليزية، وهذا يعزز أداء النماذج عند التعامل مع هذه اللغة.


اختلاف طرق التعبير الثقافي

قال البروفيسور جيوفري روكويل من جامعة ألبرتا إن النقد السياسي في الصين غالبًا ما يُعبر عنه بطرق غير مباشرة. وأشار إلى أن الترجمات قد تفشل في نقل هذه الفروقات الدقيقة، ما يؤثر على التجربة.


المشكلة تتجاوز اللغة

ذكر الباحث مارتن ساب من AI2 أن النماذج تتعلم اللغة، لكنها لا تتعلم الثقافة بنفس الدقة. حتى عندما يُزوّد النموذج بسياق ثقافي، قد يفشل في تقديم ردود مناسبة ثقافيًا.


الخلاصة: اللغة تُغيّر الإجابات

سلط تحليل xlr8harder الضوء على قضية جوهرية في الذكاء الاصطناعي: من يُحدد كيفية تصرف النماذج؟ هل يجب أن تكون متعددة اللغات؟ وهل ينبغي أن تراعي السياقات الثقافية؟

الإجابات على هذه الأسئلة ستحدد شكل مستقبل الذكاء الاصطناعي العالمي.

شارك الان
Exit mobile version