فاجأت The Deepseek chatbot ، التي تستند إلى نموذج من الذكاء الاصطناعي الصيني ، العالم على حين غرة بفعاليته. لكنه يقدم عيبًا أمنيًا ضخمًا كشف ملايين البيانات الشخصية.
إذا كنت مهتمًا بعالمالذكاء الاصطناعيوعلى وجه الخصوص تلكchatbotsمثلchatgpt، يجب أن تكون قد سمعت عنهاديبسيك. تم تطوير النموذج من قبل شركة صينية ، وكان له تأثير موجة المد والجزر عندما وصل في ديسمبر 2024 للحصول على نسخته الثالثة ، ثم في يناير 2025 لـ R1 ، متخصص في حل المشكلات المعقدة. أرخص ، ووفقا لشخصياته ،أكثر كفاءة من منافسيها في غالبية المناطق، ديبسيك اكتسبت شعبية بسرعة.
لدرجة أنه قد انخفض سعر سهم العديد من العمالقة في القطاع مثلنفيديا. لكن الكثير منهم اعتبروا هذا النجاح المذهل بحذر ، وخاصة الشركات المتخصصة فيالأمن السيبراني. واحد منهم ،ويز، شرعت في تحليل التدابير التي اتخذها ديبسيك في هذا المجال. لسوء الحظ ، وعيب السلامةالتي اكتشفتها تثبت كل ما يشتبه.
جعل عيب في chatbot Deepseek من الممكن الوصول إلى ملايين البيانات الخاصة
"في بضع دقائق ، وجدنا قاعدة بيانات Clickhouse[برنامج قاعدة البيانات ، ملاحظة المحرر]في متناول الجمهور المرتبط بـ Deepseek ، مفتوح تمامًا وليس مصادق عليه ، ويظهر بيانات حساسة"يشرح ويز. بالتفصيل ، تمكنوا من الوصول إلى الكثير من المعلومات الحساسة ، بما في ذلكتاريخ المحادثات مع chatbot. في المجموع ، تمكنت الشركة من التعافيأكثر من مليون سطر بيانات.
اقرأ أيضا -هل تعرف هذه وظيفة chatgpt السرية التي توفر لك مجنون؟
ولا يتوقف عند هذا الحد:جعلت الضعف من الممكن أن يكون لديك تحكم كامل في قاعدة البياناتوالموافقة على حقوق إضافية داخل بيئة Deepseek. إذا تحدثنا عن ذلك في الماضي ، فذلك لأنه تم تصحيحه منذ ذلك الحين. لا يزال من غير المعروف ما إذا كان الأشخاص الخبيثون قد استغلوا الخطأ أم لا. لا يستبعد ذلك Wiz ، دون أن تتمكن من تأكيده على وجه اليقين.
مصدر :ويز