ونشرت الهيئة الإدارية أمس “خطة عمل لنشر أنظمة الذكاء الاصطناعي التي تحترم خصوصية الأفراد”.

في عصر الذكاء الاصطناعي التوليديدردشةGPT,مهمة CNIL، التي تتمثل مهمتها فيالتأكد من أن تكنولوجيا المعلومات في خدمة المواطنينوألا تنتهك لا الهوية الإنسانية، ولا حقوق الإنسان، ولا الحياة الخاصة، ولا الحريات الفردية أو العامة، فهذا أمر صعب بالضرورة.
للقراءة —تلتزم CNIL بتوجيه مستقبل الذكاء الاصطناعي من خلال خدمة مخصصة
وكان أعضاء اللجنة قد توقعوا الموجة الحقيقية للذكاء الاصطناعي، منذ أن نشروا في عام 2017 أتقرير عن القضايا الأخلاقية للخوارزميات والذكاء الاصطناعي. وبعد ست سنوات من العمل على حل هذه المشكلة، تعود CNIL في خطتها إلى القضايا التي يثيرها الذكاء الاصطناعي التوليدي على وجه الخصوص، وإلى الحلول للتخفيف من الآثار السلبية لهذه التكنولوجيا فيما يتعلق بسرية البيانات.
دون أن ينكر أن "فهم كيفية عملهموإمكانياتها وحدودها، فضلاً عن القضايا القانونية والأخلاقية والتقنية المحيطة بتطوير واستخدام [هذه التقنيات]لا يزال قيد المناقشة إلى حد كبير»، تقترح CNIL خطة تنظيمية تهدف، قبل كل شيء، إلى الإشراف على تطوير الذكاء الاصطناعي التوليدي وتنقسم إلى أربعة أجزاء:
- فهم كيفية عمل أنظمة الذكاء الاصطناعي وتأثيرها على الأشخاص
- تمكين والإشراف علىتطوير الذكاء الاصطناعي الذي يحترم البيانات الشخصية
- توحيد ودعم اللاعبين المبتكرين في النظام البيئي للذكاء الاصطناعي في فرنسا وأوروبا
- التدقيق وأنظمة التحكم بالذكاء الاصطناعيوحماية الناس
للقراءة —تريد الحكومة استخدام الذكاء الاصطناعي للإجابة على أسئلة المواطنين
ترغب الهيئةالإشراف على لاعبي الذكاء الاصطناعي دون تقييدهم عن الابتكارمع حماية المواطنين. ومع ذلك، فإن الأسئلة القانونية والأخلاقية والمتعلقة بموثوقية المعلومات التي تثيرها هذه التكنولوجيا الجديدة كثيرة جدًا لدرجة أن الجدل حول سلامتها لا يزال بعيدًا عن التسوية.
مصدر :CNIL