اكتشف العديد من خبراء الأمن السيبراني أنه من الممكن تمامًا تجاوز قيود ChatGPT من أجل استخدام الذكاء الاصطناعي لإنشاء برامج ضارة خطيرة بشكل خاص. في الواقع، مع القليل من الإتقان، يمكن لروبوت الدردشة أن يجعل هذه البرامج الضارة غير قابلة للاكتشاف تمامًا.

إذا كان ChatGPT يبهر مستخدمي الإنترنت كثيرًا، فذلك لأنه مثير للإعجاب بقدر ما هو مزعج. الخوف الرئيسي للعمال هو بالطبع رؤية استبدال وظائفهم بالذكاء الاصطناعي.وهي عملية بدأت بالفعل في قطاعات معينة. من جانبهم، يحذر خبراء الأمن السيبراني من مخاطر سوء الاستخدام من قبل المتسللين، الذين سارعوا إلى ذلكنشر نسخ مزيفة من التطبيق مليئة بالبرامج الضارة.
لكن حتى الآن، حذرت تقارير قليلة من مخاطر إنشاء برامج ضارة عبر ChatGPT. يجب القول أن OpenAI قد قامت بتأمين ظهرها، من خلال دمج القيود الأمنية في برنامج الدردشة الآلي الخاص بها لمنع أي مستخدم ضار من إنشاء تعليمات برمجية ضارة باستخدامه. لكن من الواضح أن ذلك لم يكن كافياً. وفي الواقع، أثبت العديد من خبراء الأمن السيبراني أنه من الممكن إزالة هذه القيود.
في نفس الموضوع -ChatGPT: محامٍ يخترع قضايا كاذبة باستخدام الذكاء الاصطناعي لمساعدته في عمله
والأسوأ من ذلك هو أن البرامج الضارة التي تم إنشاؤها بواسطة ChatGPT يمكن أن تمر دون أن يلاحظها أحد تمامًا على الأجهزة المصابة. وللقيام بذلك، تمكن خبراء الأمن السيبراني من توليد ما نسميهرمز متعدد الأشكالوهو برنامج قادر على التحور ليظل دائمًا تحت الرادار."باستخدام هذه التقنيات الجديدة، يمكن للمهاجم الجمع بين سلسلة من السلوكيات التي يمكن اكتشافها بشكل كبير في مجموعة غير عادية والتهرب من الاكتشاف""، يوضح جيف سيمز، مهندس الأمن في HYAS Infosec.
اكتشفت CyberArk، من جانبها، أنه من الممكن استخدام ChatGPT لإدخال التعليمات البرمجية في عملية نشطة بالفعل، مما يسمح لها مرة أخرى بالبقاء غير قابلة للاكتشاف بواسطة أنظمة الأمان الرئيسية. في الوقت الحالي، كل هذه التطبيقات نظرية فقط. ولكن الآن بعد أن تم إثبات النظرية، ربما تكون مسألة وقت فقط قبل أن ينتقل المتسللون إلى الممارسة.
مصدر :أجهزة توم