يستخدم المحتالون الذكاء الاصطناعي لتقليد أحبائك على الهاتف وطلب المال منك

اكتشف المحتالون طريقة جديدة لاستغلال الضحايا المطمئنين باستخدام الذكاء الاصطناعي (AI) لتقليد أصوات أحبائهم ومطالبتهم بالمال عبر الهاتف.

الاعتمادات: diy13 / 123rf

إيدي كومبرباتش، شاب تيك توكر يبلغ من العمر 19 عامًا من شيكاغو، تلقى مكالمة غريبة من والده يبلغه فيها بأنه تعرض لحادث سيارة. أدرك إيدي بسرعة أن شخصًا ما قد استخدمهأداء مصطنع لصوته لإقناع عائلته بأنه بحاجة ماسة إلى المال. إذا تمكنت عائلة إيدي من تجنب الوقوع في فخ الاحتيال،كثيرون آخرون لم يحالفهم الحظ.

إن عمليات الاحتيال المتعلقة بسرقة الهوية، حيث يتظاهر المحتالون بأنهم أشخاص تثق بهم، هي بالفعل شكل شائع من أشكال الاحتيال. لكن،لقد أدى استخدام تقنية الذكاء الاصطناعي إلى جعل عمليات الاحتيال هذه أكثر تعقيدًا وأصعب اكتشافها.أفادت لجنة التجارة الفيدرالية (FTC) أن عمليات احتيال انتحال الشخصية، بما في ذلك تلك التي تتضمن أصواتًا تم إنشاؤها بواسطة الذكاء الاصطناعي، كلفت الضحايا 2.6 مليار دولار في عام 2022. قبل بضعة أسابيع فقط،سرق محتال 560 ألف يورو من الضحية باستخدام هذه التكنولوجيا.

يمكن للمحتالين استنساخ أصوات أحبائك في ثوانٍ

يسمح الذكاء الاصطناعي اليوم للمحتالين باستنساخ الأصوات ببضع ثوانٍ فقط من الصوت والعثور على تسجيلات لصوت الشخص على وسائل التواصل الاجتماعي لإنشاء انتحالات واقعية.

توصل تحقيق McAfee إلى ذلك70% من البالغين لم يتمكنوا من التمييز بين الصوت المستنسخ والصوت الحقيقي، مما يترك مجالًا رائعًا للمناورة للمحتالين. بالإضافة إلى ذلك، يجعل الأشخاص أصواتهم الحقيقية متاحة عبر الإنترنت دون قصد، حيث يشارك 53% من البالغين بياناتهم الصوتية كل أسبوع.

الاعتمادات: 123rf

يمكن أن تكون عمليات الاحتيال هذه مدمرة لأن الضحايا قد يقتنعون بأن أحبائهم في محنة وإرسال الأموال عن طيب خاطر لمساعدتهم.وجدت McAfee أن 45% من الأشخاص الذين شملهم الاستطلاع قالوا إنهم سيستجيبون للبريد الصوتي أو الملاحظة الصوتية التي تبدو وكأنها واردة من صديق أو أحد أفراد العائلة. لقد خسر الضحايا بالفعل مبالغ كبيرة من المال بسبب عمليات الاحتيال هذه، حيث خسر البعض أكثر من 5000 دولار.

اقرأ أيضا-تقدم ميتا Voicebox، وهو ذكاء اصطناعي قادر على إعادة إنتاج أي صوت بشري

أصبح إعادة إنشاء صوت أحد أحبائك لعبة أطفال

على الرغم من استخدام الذكاء الاصطناعي في عمليات الاحتيال لبعض الوقت، إلا أنه أصبح أكثر سهولة وبأسعار معقولة، مما يسهل على مجرمي الإنترنت استغلاله. تسمح منصات مثل Murf وResemble وElevenLabs للمحتالين بذلكإنشاء أصوات واقعية باستخدام تقنية تحويل النص إلى كلام.

من خلال تحميل عينة صوتية، يمكن للمحتالين القيام بذلكتوليد صوت يطابق بشكل وثيق صوت الهدف.تقلل هذه التقنية بشكل كبير من الوقت والجهد اللازمين لتنفيذ عمليات الاحتيال هذه، مما يجعلها أكثر ربحية للمحتالين.

للأسف،من الصعب القبض على هذا النوع من المحتالين، لأنهم يعملون من أجزاء مختلفة من العالم، ولا يتركون سوى القليل من المعلومات لأقسام الشرطة للعمل بناءً عليها. في كثير من الأحيان لا يكون لدى الضحايا سوى القليل من سبل الانتصاف، وتبقى غالبية القضايا دون حل.

لحماية نفسك من عمليات الاحتيال هذه، أصبح الأمر أكثر أهمية من أي وقت مضىكن يقظًا وتحقق من أي طلبات عاجلة للحصول على المال.التراجع خطوة إلى الوراء وطرح أسئلة محددة لا يعرفها إلا الشخص الحقيقي يمكن أن يساعد في تأكيد صحة من تتحدث إليه. تنصح لجنة التجارة الفيدرالية (FTC) بتعليق المكالمة والاتصال بأفراد العائلة بشكل منفصل للتحقق من صحة قصتهم.

ولحسن الحظ، لا يتم استخدام الذكاء الاصطناعي من قبل المحتالين فقط. وقد قام الباحثون أيضاأنشأنا ذكاءً اصطناعيًا قادرًا على إضاعة وقت المحتالين،من خلال إجراء محادثة هاتفية مع مراسلهم.


اسأل عن أحدث لدينا!

Leave a Reply

Your email address will not be published. Required fields are marked *

Subscribe Now & Never Miss The Latest Tech Updates!

Enter your e-mail address and click the Subscribe button to receive great content and coupon codes for amazing discounts.

Don't Miss Out. Complete the subscription Now.