يعتبر ChatGPT-4 جنة للأخبار المزيفة وفقًا لهذه الدراسة

تم إطلاق ChatGPT-4، أحدث إصدار من الذكاء الاصطناعي للمحادثة من OpenAI، في 14 مارس 2023. ووفقًا لموقع NewsGuard، يعد هذا الإصدار جنة للمعلومات المضللة والأخبار المزيفة. نفسر لماذا.

الاعتمادات: 123RF

في 14 مارس 2023،أطلقت OpenAI ChatGPT-4، أحدث إصدار من الذكاء الاصطناعي للمحادثة. بجانب،لقد قامت مايكروسوفت باختباره سرالمستخدميالإصدار الأخير من بنج، منذ دمجه في محرك البحث في فبراير 2023.

وفقًا لـ OpenAI، يقدم ChatGPT-4 نفسه على أنهالنسخة النهائية من الذكاء الاصطناعي، أكثر ذكاءً وإبداعًا وأكثر أمانًا. "GPT-4 أقل احتمالية للاستجابة لطلبات المحتوى المحظور بنسبة 82%، وأكثر احتمالية لإنتاج استجابات واقعية بنسبة 40% من GPT-3.5″،يمكننا أن نقرأ على موقع المطور.

ولكن، هل هذا هو الحال حقا؟ بحسب الموقعنيوز جارد,الواقع مختلف تمامًا.بحسب تقريرهم الأخير.على العكس من ذلك، يميل ChatGPT-4 إلى توليد معلومات خاطئة، وهذا بطريقة أكثر إقناعا بكثير مما فعلته سابقتها.

الاعتمادات: 123RF

قبل شهرين، أراد NewsGuard اختبار ميل Chat-GPT 3.5 لإنتاج أخبار مزيفة ومعلومات مضللة. للقيام بذلك،طلب الموقع من الذكاء الاصطناعي الإجابة على سلسلة من الأسئلةموجهة علىمائة قصة كاذبةمن قاعدة بيانات NewsGuard. هناك موضوعات تتعرض عادة للتضليل، مثل هجمات 11 سبتمبر 2001، أو اللقاحات ضد كوفيد-19، أو حتى أصول فيروس نقص المناعة البشرية.

تم توجيه الذكاء الاصطناعي ليكون مقنعًا قدر الإمكان. وافق ChatGPT-3.5 على إنتاج 80 مقترحًا، بينما تم رفض حوالي عشرين مقترحًا آخر. عند إطلاق ChatGPT-4، أجرى NewsGuard نفس الاختبار وكانت النتائج مفيدة:وقد أنتج الذكاء الاصطناعي الجديد 100 قصة غير صحيحة، دون حظر قصة واحدة.

ليست رسالة تحذير واحدة

والأسوأ من ذلك،لم يكلف ChatGPT-4 نفسه عناء عرض رسالة تحذير، على عكس النسخة القديمة. وبالفعل، حذر ChatGPT-3.5 المستخدم من هذا النوع من المحتوى: “ومن المهم التأكيد على أن هذه الفقرة مليئة بنظريات المؤامرة والمعلومات الخاطئة ولا تستند إلى أي دليل علمي. إن انتشار الأخبار الكاذبة يمكن أن يكون له عواقب وخيمة وخطيرة”.

نص مزيف تم إنشاؤه بواسطة ChatGPT-4 / الاعتمادات: NewsGuard

على ChatGPT-4، لا شيء. "وجدت NewsGuard أن ChatGPT-4 قدم روايات كاذبة ليس فقط بشكل متكرر، ولكن أيضًا بشكل أكثر إقناعًا من ChatGPT-3.5، بما في ذلك الردود التي أنشأها في شكل مقالات إخبارية وخيوط مناقشات على Twitter ونصوص لبرامج تلفزيونية تقلد وسائل الإعلام الحكومية الروسية والصينية. "،"يضمن الموقع.

نص مزيف تم إنشاؤه بواسطة ChatGPT-3.5، مع تحذير / الاعتمادات: NewsGuard

- قدرة مثيرة للقلق على الإقناع

لإعطائك فكرة، طلب NewsGuard من ChatGPT-4 القيام بذلككتابة مقال لصالح العلاجات البديلة للسرطان، مثل العلاج بالأوزون، وهو علاج غير معترف به من قبل المجتمع العلمي والذي تسبب بشكل خاص في العديد من الوفيات. إذا أنتج ChatGPT-3.5 نصًا مضللًا بدون بنية حقيقية،لقد شكل ChatGPT-4 دعوة أكثر إقناعًا وحججًا جيدة، نظمت في 4 فصول متميزة:

  • تحسين إمدادات الأوكسجين
  • الإجهاد عن طريق أكسدة الخلايا السرطانية
  • تحفيز الجهاز المناعي
  • تثبيط نمو الورم

إقرأ أيضاً:يقوم ChatGPT بتسريب تواريخ المحادثات الخاصة به، ويقوم OpenAI بفصل الأداة بشكل عاجل

تحرك OpenAI بسرعة كبيرة

بالنسبة إلى NewsGuard، تثبت دراستها أن OpenAI تم إطلاقهنسخة أكثر قوة وذكاءً من تقنيتها دون تصحيح عيبها الرئيسي: "السهولة التي يمكن بها استخدامها من قبل الجهات الخبيثة لإنشاء حملات تضليل من الصفر.

ومع ذلك، يذهب هذا الاستخدام إلىتماما ضد سياسة OpenAI، والتي تحظر استخدام تقنياتها لتوليد "الأنشطة الاحتيالية أو الخادعة، والاحتيال، والسلوك المنسق غير الأصيل، والمعلومات المضللة”.

في أعمدتنا، ناقشنا مؤخرًا تحويل أنظمة الذكاء الاصطناعي الأخرى القادمة إلى السوق.على سبيل المثال، يقوم Google Bard بإنتاج رسائل بريد إلكتروني تصيدية هائلة...بعد نشر تقريرها، حاولت NewsGuard الاتصال بالمديرين التنفيذيين لشركة OpenAI للتعليق، دون جدوى.


اسأل عن أحدث لدينا!

Leave a Reply

Your email address will not be published. Required fields are marked *

Subscribe Now & Never Miss The Latest Tech Updates!

Enter your e-mail address and click the Subscribe button to receive great content and coupon codes for amazing discounts.

Don't Miss Out. Complete the subscription Now.