روبوتات الذكاء الاصطناعي تضغط على بنية ويكيميديا التحتية
أعلنت مؤسسة ويكيميديا، التي تدير موسوعة ويكيبيديا وعدة مشاريع معرفية أخرى، أن استهلاك النطاق الترددي لتحميل الوسائط في منصة Wikimedia Commons ارتفع بنسبة 50% منذ يناير 2024.
قالت المؤسسة إن هذه الزيادة لم تنجم عن زيادة زوار بشريين، بل بسبب الروبوتات الآلية التي تجمع البيانات لتدريب نماذج الذكاء الاصطناعي.
أكد فريق المؤسسة:
“صممنا بنيتنا التحتية لتحمّل الزيارات البشرية المفاجئة أثناء الأحداث الكبرى، لكن الروبوتات تولّد حركة مرور ضخمة غير مسبوقة، مما يرفع التكاليف والمخاطر.”
ما هي Wikimedia Commons؟
توفر منصة Wikimedia Commons مكتبة مجانية للصور والفيديو والملفات الصوتية. يسمح المحتوى بموجب تراخيص مفتوحة أو ملكية عامة لأي شخص بالوصول والاستخدام.
لماذا تستهلك الروبوتات موارد أكثر؟
كشف تحليل ويكيميديا أن الروبوتات تستهلك 65% من تحميل المحتوى الأكثر تكلفة، رغم أنها تمثل 35% فقط من إجمالي المشاهدات.
يعود السبب إلى أن المحتوى الشائع يخزن مؤقتًا قرب المستخدمين، ما يقلل التكلفة، بينما يخزن المحتوى الأقل طلبًا في مراكز بيانات مركزية مكلفة أكثر.
تبحث روبوتات الذكاء الاصطناعي عادةً عن هذا النوع من المحتوى المكلف.
قالت ويكيميديا:
“يركز المستخدمون على مواضيع محددة، بينما تقرأ الروبوتات صفحات كثيرة ومتنوعة، خاصة الأقل شهرة، ما يزيد تكلفة الخدمة.”
إجراءات ويكيميديا لصد الروبوتات
يكثف فريق التقنية في ويكيميديا جهوده لمنع الروبوتات من تعطيل الخدمة أمام المستخدمين العاديين.
تزيد هذه الروبوتات من تكاليف التخزين السحابي بشكل ملحوظ.
تهديد الإنترنت المفتوح
تُهدد هذه الظاهرة مبدأ الإنترنت المفتوح.
في مارس، انتقد المهندس درو ديفولت تجاهل الروبوتات لملف robots.txt، وهو ملف صُمم لمنع الزحف غير المرغوب.
وانتقد المهندس غيرغيلي أوروس ارتفاع استخدام النطاق الترددي في مشاريعه بسبب روبوتات شركات مثل Meta.
ردود فعل المطورين وشركات التقنية
يستخدم المطورون تقنيات ذكية لمواجهة الروبوتات.
أطلقت شركة Cloudflare أداة AI Labyrinth، التي تولد محتوى ذكاء اصطناعي لإبطاء الروبوتات.
لكن الصراع مستمر، وقد تضطر بعض المواقع إلى حجب المحتوى خلف تسجيل دخول أو جدار دفع، مما يقلل حرية الوصول إلى المعرفة.