تدخل اللائحة الأوروبية المتعلقة بالذكاء الاصطناعي حيز التنفيذ وتصنف الذكاء الاصطناعي حسب مستوى خطورته

دخل قانون الذكاء الاصطناعي، اللائحة الأوروبية بشأن الذكاء الاصطناعي، حيز التنفيذ رسميًا. ولتنظيم استخدام الذكاء الاصطناعي، فإنه يصنف الأنظمة حسب المخاطر التي تمثلها.

الاعتمادات: 123RF

بعد أتصويت تاريخي في نهاية 2023وواحداعتماد حافل بالأحداث من قبل البرلمان الأوروبيوبعد بضعة أشهر،دخل قانون الذكاء الاصطناعي حيز التنفيذ منذ 1 أغسطس 2024. للتذكير، تنظم هذه اللائحةاستخدام الذكاء الاصطناعي في الاتحاد الأوروبي. بحلول 2 أغسطس 2025، سيتعين على كل دولة عضو في الاتحاد الأوروبي تعيين السلطات المسؤولة عن مراقبة هذا القطاع والإشراف على تطبيق النص.

إقرأ أيضاً –تريد شركة ميتا إطلاق "الذكاء الاصطناعي بلا حدود"، وتقدم هذه المنظمة شكوى في 11 دولة أوروبية لمنعها

الالمفوضية الأوروبيةكما سيتم إنشاء منظمة عالمية،مكتب الذكاء الاصطناعي. وسيتم دعمه من قبل 3 كيانات أخرى، بما في ذلك كيان واحدمجموعة مستقلة مكونة من علماء خبراءو أالمنتدى الاستشاريالجمع بين مختلف أصحاب المصلحة. وفي حالة حدوث خرق، قد يتم فرض غرامات على الشركات المخالفةغرامة تصل إلى 7% من مبيعاتها السنوية العالمية.

وفي أوروبا، يتم تصنيف أنظمة الذكاء الاصطناعي وفقًا لمستوى المخاطرة التي تمثلها على المواطنين

ومن أجل تحديد التزامات الشركات بشكل أفضل، يصنف النص الأوروبي جميع أنظمة الذكاء الاصطناعي وفقًا لها4 مستويات المخاطر:

  • الحد الأدنى من المخاطر: لا تخضع للمتطلبات التي وضعها قانون الذكاء الاصطناعي، هذه على سبيل المثالالذكاء الاصطناعي يقدم التوصياتأو المستخدمة فيمرشحات البريد العشوائي. تقع غالبية الأنظمة ضمن هذه الفئة.
  • مخاطر الشفافية المحددة: الروبوتات الدردشةهي جزء منه، وكذلكبعض المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعيسواء كنا نتحدث عن الصورة أو الفيديو أو الصوت. الروبوتات المحادثة "يجب أن تشير بوضوح للمستخدمين إلى أنهم يتفاعلون مع الجهاز"، بينما المحتوى من الذكاء الاصطناعي التوليدي"يجب أن يتم تصنيفها على هذا النحو". ويجب أيضًا أن يكون من السهل اكتشافها.
  • مخاطر عالية: نحن نتحدث هنا عنهالذكاء الاصطناعي المستخدم للتجنيد، فيتقييم الحق في الحصول على قرض بنكيأو إلىاستغلال الروبوتات المستقلة، من بين أمور أخرى. تخضع هذه الأنظمةالعديد من المتطلبات الصارمة للغاية(تسجيل الأنشطة، والتوثيق التفصيلي، والتحكم البشري، والحماية من الهجمات الإلكترونية، وما إلى ذلك).
  • خطر غير مقبول: تمامامحظور، وتشمل هذه الفئة أنظمة الذكاء الاصطناعي “تعتبر أتهديد واضح للحقوق الأساسية للناس". يأخذ النص مثالاً على لعبة يشجع مساعدها الصوتي القاصر على تبني سلوك خطير، أنظام التصنيف الاجتماعي للأفرادأو "بعض تطبيقات الشرطة التنبؤية". "ممنوعة أيضاً"أنظمة التعرف على المشاعر المستخدمة في مكان العمل وأنظمة معينة لتصنيف الأشخاص أو تحديد الهوية البيومترية عن بعد في الوقت الفعلي لأغراض إنفاذ القانون في الأماكن التي يمكن للجمهور الوصول إليها (مع استثناءات قليلة)".

سيتم تطبيق أغلبية قانون الذكاء الاصطناعي اعتبارًا من 2 أغسطس 2026. ومع ذلك، فإن الحظر المفروض على الذكاء الاصطناعي في فئة "الخطر غير المقبول" سيكون ساريًا في بداية عام 2025.


اسأل عن أحدث لدينا!