الخميس 19 ديسمبر 2024
رئيس مجلسى الإدارة والتحرير
عبدالرحيم علي
رئيس التحرير
داليا عبدالرحيم
رئيس مجلسي الإدارة والتحرير
عبدالرحيم علي
رئيس التحرير
داليا عبدالرحيم

البوابة لايت

عمليات احتيال| تحذيرات من استنساخ الأصوات بتقنية الذكاء الاصطناعي

صورة تعبيرية
صورة تعبيرية
تابع أحدث الأخبار عبر تطبيق google news

يمكن للمحتالين الآن تقليد صوت الضحية باستخدام تقنية الذكاء الاصطناعي عن طريق مقتطف صوتي مدته لا تتجاوز ثلاث ثوان فقط، وغالبا ما يتم سرقته من ملفات تعريف الوسائط الاجتماعية.

وحذر خبراء من أن تقنية الذكاء الاصطناعي تساعد في عمليات الاحتيال باستنساخ الصوت.

ثم يتم استخدامه للاتصال بصديق أو أحد أفراد الأسرة لإقناعهم بأنهم في مأزق وبحاجة ماسة إلى المال.

ويقول واحد من كل أربعة بريطانيين إنه أو شخصا يعرفه قد استُهدف بعملية الاحتيال هذه، وفقا للمتخصصين في الأمن السيبراني McAfee.

ومن المقبول تصديق أن غالبية المتضررين اعترفوا بأنهم فقدوا أموالا نتيجة لذلك، مع تكبد حوالي ثلث الضحايا أكثر من 1000 جنيه إسترليني.

وقال تقرير صادر عن الشركة إن الذكاء الاصطناعي قد "غير اللعبة بالفعل لمجرمي الإنترنت''، مع توفر الأدوات اللازمة لتنفيذ عملية الاحتيال مجانا عبر الإنترنت.

ويقود الخبراء والأكاديميون والرؤساء من جميع أنحاء صناعة التكنولوجيا الدعوات لتشديد التنظيم على الذكاء الاصطناعي لأنهم يخشون أن يخرج القطاع عن السيطرة.

وقال تقرير McAfee عن "الدجال الاصطناعي" إن استنساخ صوت شخص ما أصبح "أداة قوية في ترسانة مجرمي الإنترنت'' - وليس من الصعب العثور على الضحايا.