...

تقرير: أدوات استنساخ الصوت الذكية تفتقر إلى معايير الأمان الكافية

في تقرير حديث نشرته منظمة تقارير المستهلك Consumer Reports، تبين أن العديد من أدوات استنساخ الصوت بالذكاء الاصطناعي المنتشرة في السوق لا توفر آليات أمان فعالة للحد من الاستخدامات الاحتيالية أو غير القانونية لهذه التقنية.
شارك الان

في تقرير حديث نشرته منظمة تقارير المستهلك Consumer Reports، تبين أن العديد من أدوات استنساخ الصوت بالذكاء الاصطناعي المنتشرة في السوق لا توفر آليات أمان فعالة للحد من الاستخدامات الاحتيالية أو غير القانونية لهذه التقنية.

قامت المنظمة باختبار أدوات من ست شركات رائدة في هذا المجال، وهي:
Descript، ElevenLabs، Lovo، PlayHT، Resemble AI، وSpeechify، وذلك بهدف تقييم مدى التزامها بوضع ضوابط تمنع إساءة استخدام تقنية استنساخ الأصوات.

نتائج مقلقة حول ضعف الإجراءات الأمنية

خلص التقرير إلى أن شركتين فقط من أصل الستة — وهما Descript وResemble AI — قد اتخذتا خطوات عملية للحد من إساءة استخدام أدوات استنساخ الصوت. بينما اكتفت باقي الشركات بمجرد مطالبة المستخدمين بتأكيد قانونية ما يقومون به عبر مربع اختيار بسيط أو إقرار ذاتي غير موثوق.

تحذير من تعزيز عمليات الاحتيال

قالت غريس جيداي (Grace Gedye)، محللة السياسات في منظمة تقارير المستهلك، إن هذه الأدوات تمتلك القدرة على تسريع وتيرة عمليات الاحتيال والانتحال إذا لم يتم وضع ضوابط أمنية صارمة.

وأضافت:

تقييمنا يظهر أن هناك خطوات بسيطة يمكن للشركات اتخاذها لجعل عملية استنساخ صوت أي شخص بدون علمه أكثر صعوبة — لكن بعض الشركات لا تقوم بذلك للأسف.

دعوات لتحمل المسؤولية

طالب التقرير بضرورة تحمل شركات الذكاء الاصطناعي لمسؤولياتها الأخلاقية والتقنية، عبر تبني آليات تحقق أكثر صرامة، ووضع أدوات لرصد الانتهاكات والتبليغ عنها، بما يساهم في الحد من التهديدات الناجمة عن هذه التكنولوجيا المتقدمة.

خاتمة

مع التطور السريع في مجال الذكاء الاصطناعي الصوتي، تزداد الحاجة إلى أطر قانونية وأخلاقية واضحة تواكب هذا النمو، وتضمن ألا تتحول تقنيات استنساخ الصوت إلى أداة بيد المحتالين.

شارك الان
Seraphinite AcceleratorOptimized by Seraphinite Accelerator
Turns on site high speed to be attractive for people and search engines.