| |

الاتحاد الأوروبي يبدأ مفاوضات لتصنيف المحتوى المزيف بالذكاء الاصطناعي

أطلق الاتحاد الأوروبي يوم الأربعاء عملية موسعة تهدف إلى تسهيل التعرف على المحتوى المولّد باستخدام الذكاء الاصطناعي عبر الإنترنت، في خطوة تهدف إلى مواجهة التحديات التي يشكلها المحتوى المزيف أو ما يعرف بـ”Deepfake” على الديمقراطيات والمجتمعات الأوروبية، وفق ما أوردته مجلة بوليتيكو.

وتأتي هذه المبادرة ضمن جهود الاتحاد الأوروبي لتنظيم الذكاء الاصطناعي، خاصة بعد انتشار مقاطع الفيديو والصور المزيفة التي تم استخدامها في حملات انتخابية حديثة، والتي أثارت مخاوف من أن الإنترنت أصبح منصة لانتشار المعلومات المضللة والتأثير على الرأي العام.

الاجتماعات والمفاوضات

اجتمعت المفوضية الأوروبية مع مجموعات من قطاع التكنولوجيا لإجراء أول نقاش حول تصنيف المحتوى المولّد بالذكاء الاصطناعي، وهي المرة الأولى التي تبدي فيها الجهات التنظيمية الأوروبية رأيًا واضحًا قبل تطبيق المتطلبات الجديدة العام المقبل.

ويمثل اجتماع الأربعاء البداية لمسار مفاوضات من ثمانية أشهر حول مدونة قواعد الممارسة، التي تهدف إلى توضيح كيفية امتثال الشركات للقانون الأوروبي للذكاء الاصطناعي لعام 2024. ومن بين جماعات الضغط المشاركة منظمة Digital Europe، التي تمثل شركات التكنولوجيا الكبرى في بروكسل، ومجلس صناعة تكنولوجيا المعلومات ITI Europe.

وأشار ماركو ليتو باروني، مدير السياسات في ITI Europe، إلى أن “تقنيات وضع علامات على السياق المولّد بواسطة الذكاء الاصطناعي لا تزال في مراحلها الأولى، ولها حدودها”، مؤكداً أن القطاع يجب أن يكون قادرًا على “استخدام ودمج حلول مختلفة” للامتثال للقانون.

قانون الذكاء الاصطناعي ومتطلبات الشفافية

ينص قانون الذكاء الاصطناعي للاتحاد الأوروبي على متطلبات عامة تتعلق بوضع علامات على النصوص، ومقاطع الفيديو، والصور المنتجة باستخدام الذكاء الاصطناعي، وإبلاغ المستخدمين عند التفاعل مع هذه الأنظمة. ومن المقرر أن يبدأ تطبيق ما يسمى بـ”متطلبات الشفافية” في أغسطس المقبل، بعد الانتهاء من وضع قواعد واضحة للصناعة.

وسيشمل المسار التشاوري الموافقة على مدونة قواعد الممارسة، التي ستوضح كيفية امتثال الشركات للقانون، وتحدد الأساليب المقبولة لتصنيف المحتوى المولّد بالذكاء الاصطناعي، بما في ذلك استخدام علامات مائية مرئية أو بيانات وصفية تشير إلى أصل المحتوى.

التجارب العملية والتحديات

بدأت بعض شركات الذكاء الاصطناعي بالفعل تجارب على وضع العلامات، مثل Sora 2 من OpenAI الذي يضيف علامة مائية مرئية على أي محتوى مولّد، كما انضمت شركات مثل OpenAI وMicrosoft وGoogle وMeta إلى تحالف منشأ المحتوى وأصالته (C2PA)، الذي طور تقنية لتشفير معلومات حول أصل المحتوى وما إذا كان مولّدًا بالذكاء الاصطناعي.

لكن رغم هذه الجهود، وجدت الأبحاث أن غالبية المحتوى المولّد بالذكاء الاصطناعي خلال الحملات الانتخابية في هولندا يفتقر إلى أي إشارات توضيحية، وهو ما يشير إلى وجود فجوة كبيرة في الشفافية والتنظيم، وفق الباحث سيمون كروشينسكي من جامعة ماينز في ألمانيا.

المخاوف والانتقادات

يشير القطاع الصناعي إلى أن النهج الصارم في تصنيف المحتوى قد يؤدي إلى تدهور تجربة المستخدمين على الإنترنت، كما حدث مع ملفات تعريف الارتباط، حيث غالبًا ما يتجاهل المستخدمون التنبيهات والإشعارات. وأوضح ماركو ليتو باروني أن الإفراط في تصنيف المحتوى، مثل محتوى الـDeepfake، قد يقلل من فاعلية التحذيرات ويعقد تجربة التفاعل مع الإنترنت.

كما حذرت شركات مثل Google من ضرورة أن تُطبّق قواعد الشفافية خلال ستة أشهر على الأكثر بعد الانتهاء من مدونة الممارسات، لضمان عدم تأخير تطبيق القانون وتأمين التزام الصناعة بمعايير الشفافية.

يمثل هذا المسار التفاوضي للاتحاد الأوروبي خطوة أساسية نحو تنظيم استخدام الذكاء الاصطناعي والحد من انتشار المحتوى المزيف. وبينما تتقدم التكنولوجيا بوتيرة سريعة، يظل التحدي في مواءمة الابتكار مع حماية الديمقراطيات وحقوق المستخدمين، لضمان أن يكون الذكاء الاصطناعي أداة مفيدة للمجتمع بدلًا من أن يصبح مصدرًا للتضليل والخداع.

المصدر: بوليتيكو + مواقع إلكترونية

مشاركة

موضوعات ذات صلة