أوروبا تقر قانون تنظيم الذكاء الاصطناعي، فماذا سيتغير؟

توصل البرلمان الأوروبي والدول الأعضاء إلى اتفاق: تم التصويت على قانون AIAct، وهو عبارة عن سلسلة من القوانين لتنظيم الذكاء الاصطناعي. ماذا سيحدث الآن؟ عناصر الاستجابة.

الاعتمادات: 123RF

اتفاق "تاريخي" لتييري بريتون، المفوض الأوروبي للسوق الداخلية وأصل أمجموعة من القوانين مجمعة تحت اسم AIAct. تهدف هذه إلىتنظيم استخدام الذكاء الاصطناعي في أوروبا. بعد 37 ساعة من المفاوضات الصعبةوقد وافق البرلمان الأوروبي والدول الأعضاء على التصديق على النص، والتي ينبغي أن تنطبق في2025. وسوف يهم أيضاالشبكات الاجتماعيةومحركات البحث، لذاجوجل,اكس (تويتر),فيسبوكأو حتىتيك توك.

إقرأ أيضاً –تريد Google أن يتمكن الذكاء الاصطناعي من استخدام البيانات المحمية بحقوق الطبع والنشر بشكل افتراضي

لقد مرت سنوات منذ ذلك الحينالقارة القديمة تدعو إلى تنظيم الذكاء الاصطناعي. في فرنسا،كانت CNIL ترسم بالفعل الخطوط العريضة لخطة لهذا الغرض، بينماويعتقد البعض أن القانون الأوروبي بشأن الذكاء الاصطناعي من شأنه أن يبطئ الابتكار. وسوف يتعين عليهم قريبا القيام بذلك. ومع ذلك، فإن الحاجة إلى إطار قانوني لم تعد بحاجة إلى إثبات. حتىودعا رئيس OpenAI إلى تنفيذه.

حتى الآن، مثل الذكاء الاصطناعيChatGPTأوMidjouneyتستخدم في كافة المعلومات وتعمل على شبكة الإنترنت، بغض النظر عما إذا كانت موجودة أم لامحمية بموجب حقوق الطبع والنشر. طريقة لفعل الأشياء التي تؤدي إلىالعديد من الهجمات القانونية من أصحاب الحقوق. لكن قانون AIAct يؤكد أولاً على نقاط أخرى.

ينظم قانون AIAct الأوروبي استخدام الذكاء الاصطناعي

كانت المعركة بعيدة كل البعد عن الفوز مقدمًا. وكانت النقطة الشائكة الرئيسية هي أن النصوص تسعى إلى تطبيقها على حالات عامة وليس على حالات محددة. وفي نهاية المطاف، إذا لم تكن الخطوط العريضة للقانون معروفة بالتفصيل بعد، فقد تم بالفعل توضيح عدة نقاط. وهي تتعلق بشكل خاص باستخدام الذكاء الاصطناعي في المراقبة العامةبواسطةشرطة، الأصحاب العملأوالتجار.

يحظر قانون AIAct استخدام تقنيات المراقبة والقياسات الحيوية في الوقت الفعلي، وشراءالاعتراف العاطفي. ومع ذلك، هناك 3 استثناءات لهذه القاعدة. وبالتالي، لا يمكن للشرطة استخدام أنظمة الذكاء الاصطناعي هذه إلا في حالة حدوث ذلكالتهديد بهجوم إرهابي غير متوقع، لالبحث عن الضحاياو في إطارالمحاكمة على الجرائم الخطيرة.

يوضح MEP Dragoş Tudorache أن السلطات لن تكون قادرة على استخدام "تقنيات الذكاء الاصطناعي التي تحدد أو تحدد مسبقًا الأشخاص الذين يحتمل أن يرتكبوا جريمة". أولئك الذين يتصورون بالفعل نظام مثلتقرير الأقليةمطمئنون.

سيتم تنظيم الذكاء الاصطناعي في أوروبا وفقًا لحجم المخاطر

بشكل عام، سيتم تقييم كل نظام ذكاء اصطناعي وفقًا لـمقياس المخاطرالذي يمثله. في الأصل، كان النص مخططًا ليشمل كل شخص لديه أكثر من 10000 مستخدم محترف. من الآن فصاعدا،أعلى المخاطريتم تعريفه بواسطةعدد عمليات التبادل الحاسوبية اللازمة لتدريب الذكاء الاصطناعي، أعرب فييتخبطلـ "عمليات النقطة العائمة في الثانية". وبحسب المصادر فقطنموذج جي بي تي-4، يستخدم فيChatGPTعلى سبيل المثال، يقع ضمن هذه الفئة في الوقت الحاضر.

حتى لو تم تصنيف الذكاء الاصطناعي على أنه منخفض المخاطر، فإنه سيظل عرضة للخطرعدة التزاماتمثلنشر البيانات المستخدمة في التعلم. ومهما كان الاستخدام النهائي لها، سواءاكتب مقالاأوتشخيص المرض.

إقرأ أيضاً –تطلق Meta مولد صور AI تم تدريبه على صورك

في النهاية،AIAct هو الأول من نوعه في العالموهو ما رحب به أعضاء البرلمان الأوروبي: "كان لدينا هدف واحد: إنشاء تشريع يضمن تطور النظام البيئي للذكاء الاصطناعي في أوروبا وفقًا لنهج يركز على الإنسان، واحترام الحقوق الأساسية والقيم الإنسانية، وتعزيز الثقة والوعي بكيفية تحقيق أقصى استفادة من "إن ثورة الذكاء الاصطناعي هذه تحدث أمام أعيننا"، يلخص البرلمان الأوروبي براندو بينفي.

ومن المحتمل جدا أنتحذو بلدان أخرى في العالم حذو القارة القديمةوذلك باعتماد نقاط معينة من النص. بالنسبة لأنو برادفورد، الأستاذ في كلية الحقوق بجامعة كولومبيا والخبير في الاتحاد الأوروبي والتنظيم الرقمي، يجب على الشركات الخاضعة لهذه اللائحة الجديدة تطبيقها حتى خارج البلدان المعنية. وتذكر قائلة: "في نهاية المطاف، ليس من المجدي من حيث التكلفة إعادة تدريب نماذج منفصلة لأسواق مختلفة".

مصدر :الجارديان


اسأل عن أحدث لدينا!

Leave a Reply

Your email address will not be published. Required fields are marked *

Subscribe Now & Never Miss The Latest Tech Updates!

Enter your e-mail address and click the Subscribe button to receive great content and coupon codes for amazing discounts.

Don't Miss Out. Complete the subscription Now.