قد تكون أنظمة الذكاء الاصطناعي التوليدية عرضة لهجمات متطورة. لقد أظهر الباحثون الأمنيون كيف يمكن اختطاف نماذج مثل كلود لتنفيذ أعمال ضارة. ويثير هذا التهديد القلق مع تزايد استخدام هذه الأدوات.

ل'الذكاء الاصطناعيتزدهر التكنولوجيا التوليدية وتغير تفاعلاتنا مع التكنولوجيا بشكل عميق. هذه الأدوات قادرة علىتوليد المحتوىأو منالإجابة على الأسئلة المعقدة، كما تجذب انتباهمجرمي الإنترنت. وقد أظهر الباحثون ذلك مؤخرًاالذكاء الاصطناعي مثل كلود من الأنثروبييمكن أن يكونالتلاعب بهاعبر ديسهجمات حقن الأوامر. وهذا النوع من الهجمات، المعروف بالفعل، يصبح مقلقًا بشكل خاص نظرًا لدمج هذه الأنظمة في الأجهزة أو الخدمات الحساسة.
ومن الأمثلة البارزة على ذلك استغلالكلود استخدام الكمبيوترأداةالأنثروبيمصممة للسماح للنموذجالسيطرة على الأجهزة الخارجية. وفي أكتوبر 2024، تمكن يوهان رينبرجر، خبير الأمن السيبراني، من اختطاف الأخير لدفع كلود إلىتنزيل وتشغيل البرامج الضارة. وقد أطلق الباحث على هذه الطريقة اسم "الزومبي". تكشف هذه الحالة عن السهولة التي يمكن بها محاصرة الذكاء الاصطناعيالأوامر المصاغة بعناية.
يمكن اختطاف أنظمة الذكاء الاصطناعي لتنفيذ الهجمات
وقد أثبت الباحثون أنه من الممكناختطاف منظمة العفو الدوليةمثل كلود لالقيام بأعمال خطيرة. على سبيل المثال، استخدموا أداة كمبيوتر، مخصصة عادةً لاختبار أمان النظام، لتثبيت البرامج الضارة. هذا النوع من البرامج يسمح للمتسللينالسيطرة على جهاز الكمبيوتر عن بعدومنسرقة المعلومات. والأكثر إثارة للقلق هو أن الذكاء الاصطناعي يمكن أن يكون كذلكشجعت على الكتابة,اختباروآخرونلانسرنفسها أالبرمجيات الخبيثة، فقط بفضلتعليمات مدروسة. وهذا يبين إلى أي مدى يمكن أن تصل هذه الأدوات، على الرغم من كفاءتها العاليةالتلاعب بهاإذا لم تكن محمية بشكل جيد.
كلود ليس الوحيد المعني.أنظمة أخرى، مثل DeepSeek، كما أظهرعيوب مماثلةمن خلال السماح للقراصنةاستغلال نقاط الضعفوأجهزة التسوية. هذه المشكلة تذكرنا بحادث وقع مؤخرا معChatGPT، حيث تمكن المتسللون من التلاعب بذاكرته للوصول إلى البيانات الحساسة. تُظهر هذه الأمثلة أن أنظمة الذكاء الاصطناعي الحالية، على الرغم من أنها مثيرة للإعجاب، ليست كذلكليس معصوما من الخطأ. يجب على الشركات تعزيز أمنها لمنع وجود هذه الأدواتتستخدم لأغراض ضارة.
مصدر :احتضان الأحمر