"عبر عينة صوتية".. الذكاء الاصطناعي يعزز عمليات الاحتيال الهاتفي

صورة أرشيفية
صورة أرشيفية

ارتقى المحتالين بعمليات الخداع إلى مستوى جديد تماماً من خلال نشر تقنية ذكاء اصطناعي قادرة على استنساخ الأصوات، مما يزيد من احتمالية خداع الضحايا، وفق لتقرير حديث.

ولإطلاق هذه النسخة الأكثر تعقيداً من عملية الاحتيال، يطلب المحتالون 'عينة صوتية ببضع جمل فقط'، ويتم بعد ذلك تشغيل العينة من خلال واحدة من العديد من الأدوات المتوفرة على الإنترنت، والتي تستخدم الصوت الأصلي لإنشاء نسخة طبق الأصل، يمكن توجيهها لقول ما تريد ببساطة عن طريق كتابة العبارات المطلوبة.

36 ألف تقرير عن الاحتيال خلال 2022

وتشير البيانات الواردة من لجنة التجارة الفيدرالية الأمريكية إلى أنه في عام 2022 وحده، كان هناك أكثر من 36 ألف تقرير عن عمليات الاحتيال، مع حدوث أكثر من 5 آلاف منها عبر الهاتف.

وبلغت الخسائر المبلغ عنها 11 مليون دولار. والمثير للقلق هو أنه مع زيادة فعالية أدوات الذكاء الاصطناعي وإتاحتها على نطاق واسع، فإن المزيد من الأشخاص سيقعون ضحية لعمليات الاحتيال في الأشهر والسنوات المقبلة.

آليات الاحتيال عبر الذكاء الاصطناعي

وتتطلب عملية الاحتيال بعض التخطيط، حيث يحتاج المحتال إلى العثور على عينة صوتية من صوت الضحية، بالإضافة إلى رقم هاتفه. ويمكن العثور على عينات صوتية، على سبيل المثال، عبر الإنترنت على مواقع شهيرة مثل تيك توك و يوتيوب، بينما يمكن أيضاً العثور على أرقام الهواتف على الويب.

ويمكن أن تتخذ عملية الاحتيال عدة أشكال أيضاً. وكمثال على ذلك، تظاهر شخص ما بأنه محام، وقام بالاتصال بزوجين مسنين، وأخبرهما أن حفيدهما كان محتجزاً بسبب جريمة مزعومة وأنهما بحاجة إلى دفع أكثر من 15 ألف دولار لتغطية التكاليف القانونية. ثم تظاهر المحامي المزيف بتسليم الهاتف لحفيدهما، واستخدم صوته المستنسخ لطلب المساعدة في دفع الرسوم، وهو ما فعلاه دون أن يشكا في الأمر.

ويدعو البعض إلى تحميل الشركات التي تصنع تكنولوجيا الذكاء الاصطناعي التي تستنسخ الأصوات المسؤولية عن مثل هذه الجرائم. ولكن قبل حدوث ذلك، يبدو من المؤكد أن كثيرين آخرين سيخسرون أموالهم من خلال هذا النوع من عمليات الاحتيال.

WhatsApp
Telegram
إقرأ أيضاً