Meta تعزز جهودها لمكافحة الاحتيال عبر الذكاء الاصطناعي
في أكتوبر 2024، بدأت Meta اختبارًا عالميًا لأدوات التعرف على الوجه بهدف مكافحة الاحتيال والإعلانات المضللة التي تستغل صور المشاهير، بالإضافة إلى تحسين استعادة الحسابات المخترقة على Facebook وInstagram. والآن، قررت الشركة توسيع هذا الاختبار ليشمل المملكة المتحدة، بعد حصولها على موافقة الجهات التنظيمية هناك، على أن يمتد لاحقًا إلى الاتحاد الأوروبي.
كيف يعمل اختبار التعرف على الوجه لمكافحة الاحتيال؟
أعلنت Meta أن المستخدمين في المملكة المتحدة سيتلقون قريبًا إشعارات داخل التطبيق تدعوهم للاشتراك الطوعي في ميزة الحماية من الإعلانات الاحتيالية باستخدام تقنية التعرف على الوجه. كما سيتوفر خيار التحقق عبر فيديو سيلفي لجميع المستخدمين، لكن استخدامه اختياري تمامًا.
الضوابط التنظيمية وضمانات الخصوصية
لطالما استخدمت Meta بيانات المستخدمين لتدريب خوارزمياتها، لكن الشركة أكدت أن بيانات التعرف على الوجه المُستخدمة في هذا الاختبار سيتم حذفها فورًا بعد إجراء المقارنة لمرة واحدة، دون استخدامها لأي أغراض أخرى.
وصرّحت مونيكا بيكيرت، نائبة رئيس قسم سياسات المحتوى في Meta، قائلة:
نقوم بحذف أي بيانات وجه يتم إنشاؤها من الإعلانات فورًا بعد إجراء المقارنة، بغض النظر عن نتيجة المطابقة.
Meta والرهان على الذكاء الاصطناعي
يأتي هذا التطوير في وقت تراهن فيه Meta بشكل كبير على الذكاء الاصطناعي، حيث تعمل على تطوير نماذج لغوية ضخمة، إلى جانب تطبيق مستقل للدردشة بالذكاء الاصطناعي. كما تكثّف جهودها في الضغط السياسي لتوجيه تنظيمات الذكاء الاصطناعي بما يتناسب مع رؤيتها الخاصة.
سجل Meta مع التعرف على الوجه: هل تغير شيء؟
واجهت Meta سابقًا انتقادات قانونية وتنظيمية بشأن تقنية التعرف على الوجه. ففي 2024، دفعت الشركة 1.4 مليار دولار لتسوية دعوى قضائية تتعلق بجمع البيانات البيومترية بشكل غير قانوني. كما أغلقت في 2021 أداة التعرف على الوجه للصور، لكنها احتفظت بجزء من التقنية، مثل نموذج DeepFace، لاستخدامه في تطبيقات مستقبلية – وهو ما قد يكون جزءًا مما نشهده اليوم.
الخلاصة
تسعى Meta لكسب ثقة المستخدمين عبر تقديم ميزات أمنية اختيارية، مع تعزيز الذكاء الاصطناعي في منتجاتها. ومع ذلك، تبقى التساؤلات قائمة حول مستقبل التعرف على الوجه، وما إذا كانت هذه التكنولوجيا ستُستخدم بطريقة أخلاقية ومستدامة.