phonandroid

المعلومات الخاطئة تدور بسرعة على الشبكات الاجتماعية ، وخاصة على تلك الوصفية. لذلك وجدت الشركة طريقة جديدة للمستخدمين لمعرفة ما إذا كانت بعض الصور مزيفة أم لا.

أعلنت شركة Meta ، Facebook و Instagram Company ، أنها ستبدأ في ذلكقم بتسمية الصور التي تم إنشاؤها أو معالجتها بواسطة الذكاء الاصطناعي (AI) على منصاتها.هذا التدبير جزء من الجهود التي بذلتها Metaتعزيز الشفافية عبر الإنترنت ومنع انتشار المعلومات، خاصة مع نهج انتخابات 2024.

تستخدم Meta بالفعل علامة مائية مرئية للاحتفال بالصور التي تم إنشاؤها بواسطة محرك Imagine AI ، والتي يمكن أن تولد صورًا واقعية للأشخاص والأماكن والأشياء.تخطط الشركة الآن لتمديد هذه الممارسة إلى صور من المصادر الثالثة ، مثل Openai و Google و Midjourney.ستشير الملصقات إلى أن الصور يتم إنشاؤها بواسطة الذكاء الاصطناعي وستوفر المزيد من المعلومات حول المصدر والعملية. لا يزال التصميم الدقيق للعلامات يتم الانتهاء منه ، ولكنشارك Meta نموذجًا لما يمكن أن يبدو عليه ، مع عبارة "معلومات AI" بجانب الصور.

يقرأ-على Tiktok ، تنشر نظريات الأخبار المزيفة والتآمر أكثر فأكثر بسبب الذكاء الاصطناعي

تريد Meta وضع علامة على الصور المزيفة على شبكاتها الاجتماعية

بالإضافة إلى الملصقات المرئية ، تقوم META أيضًا بتطوير أدوات للكشف عن علامات غير مرئية في الصور من المولدات الثالثة. يتم دمج هذه العلامات في بيانات التعريف الخاصة بالصور وتعمل كمعرفات فريدة لا يمكن تعديلها عن طريق النشر. وقال ميتا إن المنصات الأخرى توفر أيضااستخدم هذه العلامات وأنه يرغب في إعداد نظام يسمح له بالتعرف عليه.

ولكن ماذا عن الصوت والفيديو الذي تم إنشاؤه بواسطة الذكاء الاصطناعي؟اعترف Meta بأنه ليس لديه حاليًا التكنولوجيا اللازمة لتحديد هذا النوع من المحتوىفي نفس المستوى مثل الصور. ومع ذلك ، فقد أشار إلى أن الصناعة كانت تعمل على تنفيذ هذه السعة وأنها ستعمل على تحديث سياساتها وفقًا لذلك.

في غضون ذلك ، سيتطلب Meta من المستخدمين الذين يشيرون إلى ما إذا كان المحتوى الصوتي أو الفيديو الذي يقومون بتنزيله قد تم إنتاجه أو تحريره بواسطة الذكاء الاصطناعى.إذا لم يفعلوا ذلك ، فسيتم معاقبتهم. بالإضافة إلى ذلك ، إذا كان المحتوى واقعيًا لدرجة أنه يمكن أن يخدع الجمهور ، فسيقوم Meta بإصدار علامة أكثر وضوحًا مع تفاصيل إضافية.

Meta يستعد لتحويل المسمار على معلومات خاطئة

تعمل Meta أيضًا على تحسين أدوات AI الخاصة بها ، مثل IA Imagine Engine ونماذج لغته الكبيرة (LLM). يعمل مختبر الأبحاث العادلة للشركة على تقنية جديدة للعلامات المائية تسمى توقيع مستقر ، والتي ستجعل علامات أكثر مقاومة للحذف. يدرب Meta أيضًا LLM على معايير مجتمعها ، حتى يتمكنوا من الإشارة إلى المحتويات التي تكسر سياساتها.

«الفرق بين المحتوى البشري والمحتوى الاصطناعي يكون أكثر فأكثر غموضًا ، يريد الناس معرفة مكان وجود الحد"قال رئيس الشؤون الدولية في الجمعية نيك كليج. "" "غالبًا ما يكتشف الناس المحتوى الناتج عن الذكاء الاصطناعى لأول مرة وأخبرنا مستخدمونا أنهم يقدرون الشفافية حول هذه التكنولوجيا الجديدة. لذلك من المهم أن نساعد الناس على معرفة ما إذا كان المحتوى الواقعي الذي يرونه قد تم إنشاؤه باستخدام الذكاء الاصطناعي».

قالت ميتا إنها ستنشر الملصقات للصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي في الأشهر المقبلة ،بينما تستعد لانتخابات 2024 في العديد من البلدان ، بما في ذلك الولايات المتحدة.وتأمل الشركة أن تساعد هذه التسميات المستخدمين على اتخاذ قرارات مستنيرة ومنع نشر معلومات خاطئة على منصاتها.

ومع ذلك ، طلبت لجنة مراقبة META ، بتمويل من Meta ، ولكن تمكنت بشكل مستقل ، من الشركة مؤخرًا مراجعة سياستها "غير المتسقة" من حيث الوسائط المعالجةبعد تأكيد قرار السماح بقطع فيديو معدّل للرئيس جو بايدن بالبقاء على Facebook.


اسألنا الأخير!

Leave a Reply

Your email address will not be published. Required fields are marked *

Subscribe Now & Never Miss The Latest Tech Updates!

Enter your e-mail address and click the Subscribe button to receive great content and coupon codes for amazing discounts.

Don't Miss Out. Complete the subscription Now.