يقع ChatGPT ضحية لتسريب جديد، بعد أشهر قليلة من التسرب الأول. هذه المرة، مستخدمو برنامج الدردشة الآلي التابع لشركة أدوية هم من يرون كلمات المرور الخاصة بهم مكشوفة في وضح النهار. تمكن مستخدم إنترنت آخر، لا علاقة له بالشركة المعنية، من الحصول على هذه المعلومات الحساسة.
واحد مارس 2023،حدث تسرب ضخم للبيانات في ChatGPT. كانت العديد من تواريخ المحادثات متاحة لعدة ساعات من مستخدمين معينين، قادمة من مستخدمي الإنترنت الذين لم يكن لهم أي اتصال بهم. كان التسرب كبيرًا جدًا لدرجة أن OpenAI اضطرت إلى قطع الوصول إلى الذكاء الاصطناعي الخاص بها أثناء حل المشكلة. منذ ذلك الحين، أصبح ChatGPT آمنًا نسبيًا. ولكن من الواضح أن تقديم معلومات حساسة إلى برنامج الدردشة الآلي لا يزال يمثل خطورة كبيرة.
لقد تلقى زملاؤنا في Ars Technica بالفعل رسالة تنبيه من أحد قرائهم، يكشف فيها أنه تمكن من الوصول إلى المعرفات وكلمات المرور الخاصة بعملاء شركة أدوية. تمكن مستخدم الإنترنت من الحصول على معلومات تسجيل الدخول للعديد من مستخدمي chatbot استنادًا إلى ChatGPT، ولا سيما من العملاء الذين يطلبون المساعدة بعد حدوث خطأ في chatbot.
في نفس الموضوع -يهاجم ChatGPT مساعد Google وجهاً لوجه باستخدام هذه الميزة التي ستغير كل شيء
والأغرب من ذلك هو أن المستخدم على ما يبدو لم يطلب من ChatGPT إعطائه معلوماته."لقد قدمت طلبًا (في هذه الحالة، المساعدة في العثور على أسماء ذكية للألوان في لوحة الألوان) وعندما عدت بعد لحظات قليلة، وجدت المحادثات الإضافية"، شهد لـ Ars Technica، وحدد لاحقًا أن المعرفات ظهرت تلقائيًا في سجل محادثاته.
والأسوأ من ذلك أن ChatGPT زود المستخدم أيضًا بعنوان URL الذي يوفر، عند النقر عليه، إمكانية الوصول إلى المزيد من أسماء المستخدمين وكلمات المرور. الذكاء الاصطناعي لم يتوقف عند هذا الحد. كما كشفت أيضًا عن اسم وثيقة سرية من الشركة المتضررة، موضوع الدراسة الحالية بالإضافة إلى رمز المشروع الداخلي. ليس من المعروف بعد ما إذا كان OpenAI قد تم تنبيهه بالتسرب. إذا كنت في شك، فتجنب إعطاء معلوماتك الشخصية إلى chatbot قدر الإمكان في هذا الوقت.
مصدر :آرس تكنيكا