يتقدم الذكاء الاصطناعي بسرعة ويمهد الطريق لتطبيقات جديدة. من بينها، يتميز ChatGPT بقدرته على تخزين المعلومات حول مستخدميه. لكن هذه الميزة تحمل مخاطر، وقد اكتشف الباحثون ثغرة يستغلها المتسللون.

يتطور الذكاء الاصطناعي بوتيرة مثيرة للإعجاب وقد أحدث تحولا عميقا في علاقتنا بالتكنولوجيا على مدى العامين الماضيين.ChatGPT، التي طورتها شركة OpenAI، هي واحدة من الأدوات الأكثر شعبية في هذا المجال. قادر علىتوليد المحادثات البشرية تقريبا، فهو يتحسن بمرور الوقت بفضلوظيفة الذاكرة الخاصة به. والأخير يسمح له بذلكالاحتفاظ بالمعلوماتمثل الاسم أو التفضيلات أو التفاعلات السابقة. هدفها هو تقديم خدمة شخصية لمستخدميها.
ومع ذلك، فإن هذه القدرة على الحفظ لا تخلو من المخاطر. اكتشف الباحثون الأمنيون مؤخرًاوجود خلل في إصدار MacOSبواسطة ChatGPT. من شأن هذه الثغرة الأمنية أن تسمح للمتسللين بذلكالتلاعب بذاكرة الذكاء الاصطناعيعن طريق إدخال معلومات ضارة إليها، مما يخلق خطرًا أمنيًا على المستخدمين.
أثبت فريق خبراء الأمن أن المهاجم يمكنه استخدام تقنية حقن الأوامر لإدخال البياناتتعليمات خبيثةفي محادثة مع ChatGPT. ويتم بعد ذلك تخزينها في ذاكرة الذكاء الاصطناعي طويلة المدى، مما يعني أنها تستمر حتى بعد انتهاء الجلسة. في المناقشات المستقبلية مع المستخدم، يمكن للبرنامجاستخدام هذه المعلومات الخاطئة. وهذا يسمح للمتسلل باعتراض البيانات الحساسة أو تسريبهاعن طريق توجيه التبادلاتإلى المعلومات الشخصية.
في نفس الموضوع -تكشف شركة OpenAI عن نموذجي o1 وo1-mini، أي "الفراولة" الموجودة على الكعكة للمهام المعقدة
وللحد من هذه المخاطر، قدمت OpenAI تصحيحًا يمنع هذا النوع من الهجمات عبر واجهة الويب ChatGPT. ومع ذلك، يشير الباحثون إلى أن المحتوى الذي لم يتم التحقق منه، مثل مستندات أو صور الطرف الثالث، يمكن أن يكون كذلكاستغلال هذا الخلل مرة أخرى. ولذلك يتم تشجيع المستخدمين علىتعطيل وظيفة الذاكرةأو لمراقبة بعنايةإشعارات "تحديث الذاكرة" للتحقق مما تم تخزينه.
مصدر :احتضان الأحمر