استخدام AI للتحقق من الحقائق: مخاطر ومخاوف

بدأ بعض مستخدمي منصة X في الاعتماد على روبوت الذكاء الاصطناعي Grok للتحقق من الحقائق. هذا التوجه أثار قلقًا بين خبراء الإعلام والمراجعة، خاصة أن بعض المعلومات التي يقدمها قد تكون غير دقيقة أو مضللة.
شارك الان

صعود Grok كمصدر تحقق على منصة X
بدأ بعض مستخدمي منصة X في الاعتماد على روبوت الذكاء الاصطناعي Grok للتحقق من الحقائق. هذا التوجه أثار قلقًا بين خبراء الإعلام والمراجعة، خاصة أن بعض المعلومات التي يقدمها قد تكون غير دقيقة أو مضللة.

تشابه مع تجارب سابقة
في وقت سابق، أطلقت شركات مثل Perplexity أدوات مشابهة. مع ذلك، بدأ المستخدمون في الهند وبعض الدول بطرح أسئلة سياسية على Grok، على أمل الحصول على “حقيقة” محايدة.

المشكلة: إجابات مقنعة لكنها خاطئة
قالت أنجي هولان، مديرة شبكة التحقق من الحقائق الدولية (IFCN)، إن روبوتات مثل Grok قادرة على تقديم إجابات بصيغة طبيعية ومقنعة، حتى عندما تكون المعلومات غير صحيحة. الخطورة تكمن في أن الجمهور قد لا يلاحظ الخطأ.

أحداث سابقة تكشف الخلل
في أغسطس الماضي، طالب خمسة مسؤولين أمريكيين إيلون ماسك بإجراء تعديلات عاجلة على Grok. السبب؟ ظهرت معلومات مضللة تم نشرها عبر المساعد قبل الانتخابات الأمريكية.

المصدر يحدد الدقة
أوضح براتيك سينها، المؤسس المشارك لمنصة “Alt News”، أن Grok يعتمد على البيانات التي يتلقاها. لكنه تساءل: من يقرر ما هي تلك البيانات؟ هنا تبدأ الشكوك حول الشفافية والتدخلات المحتملة.

غياب الشفافية وتأثيره الخطير

غياب الشفافية يسمح بتشكيل المعلومات بطرق منحازة. روبوتات الذكاء الاصطناعي قد تخلق محتوى يبدو موثوقًا، لكنه يفتقر للدقة. المستخدم لا يحصل على تنبيه بأن الإجابة قد تكون “مفبركة” أو غير دقيقة.

مخاطر النشر العلني للمعلومات الخاطئة
على عكس ChatGPT الذي يُستخدم في بيئة خاصة، فإن Grok يُستخدم علنًا عبر منصة X. هذا يعرض المستخدمين الآخرين لمعلومات مضللة، حتى إن لم يقصد الشخص الذي طرح السؤال ذلك.

الذكاء الاصطناعي لا يعوّض فاحصي الحقائق البشريين

فاحصو الحقائق البشريون يعتمدون على مصادر متعددة ويُظهرون أسماءهم وجهاتهم. الذكاء الاصطناعي لا يتحمل أي مسؤولية عن محتواه.

منصات تعتمد على المجتمع بدل الخبراء
بدأت منصات مثل X وMeta في الاعتماد على التحقق الجماعي من خلال “ملاحظات المجتمع” بدل فاحصي الحقائق. هذه الخطوة أثارت القلق حول دقة وموثوقية المعلومات.

مستقبل المراجعة والتدقيق
رغم كل شيء، يعتقد بعض الخبراء أن المستخدمين سيتعلمون التمييز بين الذكاء الاصطناعي والبشر. تقول هولان: “الناس سيعودون لاحقًا لتقدير المعلومة الدقيقة، حتى إن طغى الذكاء الاصطناعي مؤقتًا”.

شارك الان