phonandroid

احذر من الفواتير الخاطئة! يعد ChatGPT ، مع مولد الصور الجديد المدمج في نموذج GPT-4O ، جيدًا بشكل خاص في إنشاء إيصالات واقعية للمظهر. إنجاز تكنولوجي يمكن أن يفتح الباب لأشكال جديدة من الاحتيال.

Faux reçus ChatGPT
Deedydas et Raphael Chenol / X

لا تزال ChatGpt ، الذكاء الاصطناعي لـ Openai ، دفع حدود إنشاء الصور. مع وصولنموذج GPT-4O، chatbot قادر الآن علىتوليد صور معقدة، بما في ذلك إيصالات المطعم أو المتجر لبراعة مذهلة.

هذه الميزة الجديدة ، على الرغم من أنها مثيرة للإعجاب ، تثير تساؤلات حول استخدامها الاحتيالي. في الواقع ، أصبح من الممكن الآنإنشاء مستندات مظهر موثوق في بضع ثوان.

إنجاز فني ، ولكن مخاطر محتملة

ظهرت الأمثلة الأولى للإيصالات الخاطئة التي تم إنشاؤها بواسطة ChatGPT على الشبكات الاجتماعية. من بينها ، إيصال لمطعم في فيانديس دي سان فرانسيسكو ، يشاركه المستثمر ديدي داس. على الرغم من أن الصورة تبدو مقنعة للوهلة الأولى ، إلا أن الفحص الأكثر اهتمامًا يكشف عن تناقضات نموذجي لمنظمة العفو الدولية الحالية ، مثل أخطاء الحساب أو علامات الترقيم.

لكن،عيوب CES يمكن تصحيحها بسهولة مع القليل من تحرير الصور أو موجه أكثر دقة.بالنسبة للمحتالين ، يمثل هذا فرصة مزعجة: الحصول على تعويضات للنفقات الوهمية من خلال إنتاج "أدلة" موثوقة.

يحاول Openai طمأنة من خلال تحديد أن جميع الصور التي تم إنشاؤها بواسطة ChatGPT تتضمن بيانات تعريف تشير إلى أصلها الاصطناعي. تدعي الشركة أيضًا أنها تتخذ تدابير ضد الاستخدامات المخالفة لسياساتها ، والتي تحظر صراحة الاحتيال.

ومع ذلك ، يبدو من الصعب منع هذه الانجرافات تماما. كما يؤكدTechCrunch، التكنولوجيا متقدمة بالفعل بما يكفي حتى تمر الفواتير الخاطئة دون أن يلاحظها أحد أثناء فحص سريع. مع القليل من الوقت والعمل ،يمكن لمحتال الاحتيال إنشاء مستندات بسهولة بما فيه الكفاية لخداع الموظفين المسؤولين عن التحقق من صحة السداد.

لذلك يشكل هذا الابتكار تحديًا كبيرًا من حيث التحقق من الوثائق. في عصر الذكاء الاصطناعي التوليدي ، لم تعد الصور دليلًا موثوقًا بها. يصبح من الضروري بعد ذلك تطوير أدوات جديدة للكشف عن التزوير وحماية الشركات من هذا النوع من الاحتيال المتطور ، في خطر زيادة عدد التكاليف الخاطئة.


اسألنا الأخير!