الحفاظ على السيطرة على استجابات الذكاء الاصطناعي لا يزال صعبا. تدعي الشركة الأمريكية أنها وجدت طريقة بسيطة للتحايل على الرقابة في بعض النماذج. هذا الحل يمكن أن يغير طريقة استخدام الذكاء الاصطناعي في القطاعات الحساسة.

ل 'الذكاء الاصطناعيشرقتستخدم بشكل متزايدفي جميع المناطق منذ وصول ChatGPT. ولكن وراء براعته ، أمشكلةاستمر: بعض النماذجيرفض الإجابةللبعضالأسئلة التي تعتبر حساسة. هذا الشكل من الرقابة التلقائية يثير المناقشات ، خاصة عندما يكون ذلكالحد من الاستخداماتالمهنيون أو التعليمية.
للإجابة على هذه المشكلة ، بدء التشغيل الأمريكيCTGTوقد طورتطريقة جديدة. على عكس التقنيات المعتادة ، فإنه لا يتطلب إعادة برمجة الذكاء الاصطناعي أو إعادة قراءةه لساعات. نهجهم هوبدقة بالضبط ما الكتلالإجابات في النموذج ، ثماضبط هذه العناصرصباجعل الذكاء الاصطناعي أكثر حرية، دون المساس موثوقيتها أو دقتها. تصر الشركة على أن نظامها يسمح لك بسحب الرقابة غير الضروريةدون فتح الباب للإجابات الخطرةموضوع حساس منذ الذكاء الاصطناعىتجمع Elon Musk Grok 3 عندما تم إطلاقهأوديبسيك الذي كان قادرًا على توفير أدلة لصنع أسلحة كيميائية.
يعد CTGT بإزالة رقابة الذكاء الاصطناعي دون التأثير على عملها المناسب
أثناء الاختبارات التي أجريت مع 100 سؤال حساس ، بالكاد أجاب نموذج Deepseek الأساسي على 32 ٪ منها. بعد التعديل باستخدام طريقة CTGT ، لديهأجاب 96 ٪ من الأسئلة، بدون انزلاقات أو محتوى خطير. تعمل هذه التقنية مباشرة عند استخدام AI ، والتي تسمحتغيير سلوككدون لمس برمجةها الأصلية. النظام قابل للعكس أيضًا: من الممكن إلغاء تنشيط أو ضبط الإعدادات في أي وقت.
قد يثير هذا التقدم العديد من الشركات التي ترغب في استخدام الذكاء الاصطناعي أثناءاحترام قواعدهم الداخلية. يوضح CTGT أن حلهتجنب الاستثمارات الثقيلةفي إعادة البرمجة ، مع جعل النماذج أكثرقابلة للتكيف مع الاستخدامات المختلفة. بينما نماذج مثلتعتبر ديبسيك مخاطر محتملة من قبل السلطات الأمريكية، تتحكم بشكل أفضل في ما يمكن أن تقوله هذه التكنولوجيا أو لا يمكن قوله ، يصبح مشكلة حاسمة في القطاعات مثل الأمن السيبراني أو التمويل أو الصحة.
مصدر :CTGT