أصبحت أدوات مثل ChatGPT موجودة في حياتنا. ولكن الاستخدام المتكرر يمكن أن يضر قدرتنا على التفكير. موظف Openai يبدو المنبه.

لعدة أشهر ،الذكاء الاصطناعيتوليدييفرضون أنفسهم في جميع المجالات: العمل ، الدراسات ، البحث الشخصي. يستخدم ملايين الأشخاص أدوات مثلchatgptصبالحصول على إجابات سريعةأوإنشاء صور واقعية مع نموذجك الجديد. إذا كانت هذه التقنيات غالباً ما يُنظر إليها على أنها محركات إنتاجية ، فإن الأصوات ترتفع لتكنولوجياتأثيرات جانبية. تشير عدة دراسات إلى خطر محتمل:خسارة تدريجيةالتابعالقدرات المعرفية.
ومهندس Openai، سوف يعتقد ، يعتقد أن هذا الاعتماديمكن أن يكون لها عواقب وخيمة ، وخاصة بين الطلاب في صعوبة. وفقا له ، كلما تعتمدنا علىiaصبفكر في مكاننا، زائدضمور عقولنا. إنه يثير تأثير الاستقطاب: يمكن أن يصبح الأفضل أكثر كفاءة بفضل هذه الأدوات ، في حين أن الأسوأ قد يتسرب. يمكن أن يبرز هذا الكسر عدم المساواة في الوصول إلى المعرفة.
يمكن أن يؤدي الاستخدام المفرط لمنظمة العفو الدولية إلى إضعاف الانعكاس وتوسيع الاختلافات بين الطلاب
سوف Depue ليس هو الوحيد الذي يدعو للقلق. أظهرت دراستان ، أجراها Openai و MIT Media Lab ، ذلك أيضًايطور المستخدمون المعزولون شكلاً من أشكال الارتباط العاطفي بمنظمة العفو الدوليةوالتي يمكنتعزيز عزلتهم الاجتماعية. تقارير أخرى تثير خطرفقدان الثقةفي قراراته الخاصة. حتى أن بعض الأشخاص يبلغون ، في منتديات مثل Reddit ، شعور بـ "نوم الدماغ" من خلال البحث عن إجابات سهلة بدلاً من التفكير بنفسك. ثم يصبح الذكاء الاصطناعي رد فعل ، ولكنليس مفيدًا دائمًا.
يعتقد الباحثون أن هذا الموقف يمكنه تعديل طريقة التعلم بشكل دائمالحد من الجهد العقليضروري لالحفظأو فيانعكاس. يمكن أن تكون أدوات مثل ChatGPT قوية ، لكن فعاليتها تعتمد على كيفية استخدامها. يستخدم مع بعد فوات الأوان ، يمكنهم إثراء المعرفة. لكن إذا أصبحوا عكازًا منهجيًا ، فإنهم يخاطرونالفكر الفقير. هذا النقاش أمر بالغ الأهمية في الوقت الذي يكون فيه الذكاء الاصطناعي ضروريًا في التعليم والحياة اليومية لكثير من الناس.
الذكاء الاصطناعي لن يجعل الجميع أكثر ذكاء. يقول Openai's Will Depue إنه قد يجعل بعض الناس أغبياء.
تصبح النسبة المئوية العليا مغلقة للغاية - لكن الكثيرين سوف يتخلفون. ChatGPT ليس دفعة عالمية. إنه مكبر للصوت القصوى.pic.twitter.com/r7dhvlz01r
- Vitrupo (Vitrupo)7 أبريل 2025