صباح الأربعاء ، هبطت الذكاء الاصطناعي الذي طوره Microsoft على تغريدة التغريد. لن يتمكن Tay Tay So فقط من الاحتفاظ بيوم واحد ضد مستخدمي الإنترنت الذين يحولونه إلى مراهق عنصري وكرات للنساء.
في البداية ، كان من المقرر أن الدردشة مع المحاورين والترفيه عنها. "كلما دردشت مع تاي ، كلما أصبح أكثر ذكاءً" كان المفهوم الأساسي لهذا المشروع وفقًا لـ Microsoft. التجربة لم تكن حاسمة.
بعد بضع ساعات والعديد من التأكيدات المشكوك فيها لمستخدمي الإنترنت ، بدأت الذكاء الاصطناعى في تغرد كلمات غريبة تتراوح من العنصرية إلى كره النساء من خلال الاستجواب التاريخي.
كان من المفترض أن يتعلم تاي من خلال الدردشة مع مستخدمي الإنترنت ، والتسجيل ، بما في ذلك الأسئلة التي يمكن طرحها. وهكذا ، يمكنها تكييف إجاباتها وفقًا لتجاربها.
كلمات العنصرية والنساء
كانت هذه القدرة على استيعاب كل ما يتم إخباره له بسرعة كبيرة من قبل محاوريه ، مما يؤدي إلى سوط من جمجمة الأفكار أكثر أو أقل.تاي من المقرر أن تتعلم من خلال الدردشةبدأت في التفكير في جميع الأفكار المكشوفة ونسخها كالمعتاد.
من بين التغريدات العنيفة "بوش مسؤول عن 11 سبتمبر" أو "هتلر لم يرتكب أي خطأ".
4 مساءًMicrosoft تعليقهذا الأخير ، بعد حذف الرسائل التي تشكل مشاكل ، لجعل "بعض الإعدادات".
"تاي آلة تتعلم بفضل تفاعلاتها مع البشر. إنها تجربة اجتماعية وثقافية وفنية [...] لسوء الحظ ، لقد اكتشفنا جهودًا منسقة لإساءة استخدام مواهب Tay من أجل جعله يجيب على أشياء غير لائقة ".لو فيجارو.
قبل الوجودمعاق ، للصيانة أو إلى الأبد، تركت الذكاء الاصطناعى تغريدة وداعا:
Cu قريبًا ، يحتاج البشر إلى النوم الآن الكثير من المحادثات اليوم Thx؟
- Taytweets (tayandyou) 24 مارس 2016
لم تكن التجربة في حد ذاتها ناجحة ، وذلك بسبب جزء من مجتمع Twitter الذي لا يمكن أن يلعب اللعبة. من المؤكد أنه سيتعين على Microsoft إعداد أمان كاف لتجنب أي نوع جديد من الخداع في المستقبل.
هذا هو الحدث الرئيسي الثاني لهذا العام الذي يسلط الضوء على قدرات الذكاء الاصطناعي ، وبالتأكيد أقل متعة بكثير منIA alphago Battlant Le Champion de Go Lee Seadol، لكن البحث مستمر.
لم يسبق له اليوم بعد اليوم ، لكن هناك المزيد والمزيد من التحسينات التي تطرأ على الذكاء الاصطناعي ، مثل الوظيفة التي تسمح لكورتانا بجعلك تحتفظ بوعودك ، نحن على المسار الصحيح!