يقوم هذا النوع الجديد من الذكاء الاصطناعي بسحب بياناتك الشخصية من ChatGPT وGemini

شهدت التطورات الأخيرة في مجال الأمن السيبراني ظهور موريس 2، وهي دودة ذكاء اصطناعي توليدية مصممة للانتشار بشكل مستقل بين أنظمة الذكاء الاصطناعي. هذا الابتكار الخبيث، القادر على استخراج البيانات ونشر البريد العشوائي، يعرض للخطر أمان النماذج الشهيرة مثل ChatGPT وGemini.

قدومالذكاء الاصطناعييحول هواتفنا إلى رفاق رقميين حقيقيين. الدمج الأخير لـ Galaxy AI في السلسلةجالاكسي اس24وآخرونامتداده إلى أجهزة سامسونج الأخرىلتوضيح هذا الاتجاه، من خلال تقديم تفاعلات أكثر سهولة وتخصيصًا للمستخدمين. ومن جانبها جوجلخطط لتنفيذ الجوزاء في هواتفنا الذكية، بمناسبة خطوة أخرى نحو عصر حيثسوف يثري الذكاء الاصطناعيبشكل ملحوظ الطريقة التينحن نستخدم هواتفنا النقالة.

النظام البيئيأندرويديتم إثراءه أيضًا بفضل وصول لاعبين جدد مثلMicrosoft Copilot، الذي يوفر ميزات الذكاء الاصطناعي المتقدمة. بالتوازي،التكامل بارد في مساعد جوجليهدف إلىأداء سيس الداعم، تسليط الضوء على الإثارة حول التكنولوجيامساعدة ذكية. ومع ذلك، يأتي هذا الابتكار السريعالقضايا الأمنيةخاصة مع ظهور تهديدات مثل Morris II، وهي دودة ذكاء اصطناعي قادرة على الانتشار بين الأنظمة.

تستغل دودة Moris II ثغرات الذكاء الاصطناعي التوليدية

الدودةموريس الثاني، الذي طوره بن ناسي وفريقه في جامعة كورنيل للتكنولوجيا، يمثل أجيل جديد من التهديدات السيبرانية. إنه يعزز الاتصال واستقلالية النظم البيئية للذكاء الاصطناعي. وينتشر باستخدام مطالبات التكاثر الذاتي العدائية، وهي آلية ذكية تسمح له بالتسلل والاختراقالسيطرة على وكلاء الذكاء الاصطناعي الآخرين. بمجرد دخوله إلى النظام، يمكنه تنفيذ سلسلة من الإجراءات غير المصرح بها، مثلاستخراج البياناتسرية أونشر البرامج الضارة. على سبيل المثال، في حالة المساعد المعتمد على البريد الإلكتروني، يمكن للدودة إدخال تعليمات برمجية ضارة خاصة بها في الاستجابات التي يولدها المساعد، وبالتالي إرسال رسائل غير مرغوب فيها أوالروابط الخبيثةلجميع جهات الاتصال الخاصة بالمستخدم، دون علم المستخدم بذلك.

استقلالوتشكل قدرة Morris II على الانتشار بصمت بين عملاء الذكاء الاصطناعي تحديًا كبيرًا لبرامج الأمان الحالية. وللتخفيف من هذا التهديد، يوصي خبراء الأمن، مثل آدم سواندا من شركة Robust Intelligenceالتدابير الوقائيةمثل التصميم الآمن لتطبيقات الذكاء الاصطناعي والإشراف البشري الصارم. تهدف هذه الإجراءات إلى التأكد من أن الإجراءات التي يتخذها وكلاء الذكاء الاصطناعي تخضع دائمًا لـموافقة صريحة، وبالتالي تقليل مخاطر الأنشطة غير المصرح بها. بالإضافة إلى ذلك، يمكن أن تساعد مراقبة الأنماط المتكررة أو غير العادية داخل أنظمة الذكاء الاصطناعي في اكتشاف التهديدات المحتملة، مما يتيح التدخل السريع قبل أن تتسبب الدودة في حدوث ضرر.ضرر كبير.

مصدر :سلكي


اسأل عن أحدث لدينا!

Leave a Reply

Your email address will not be published. Required fields are marked *

Subscribe Now & Never Miss The Latest Tech Updates!

Enter your e-mail address and click the Subscribe button to receive great content and coupon codes for amazing discounts.

Don't Miss Out. Complete the subscription Now.