| |

دعوات متزايدة لتنظيم التزييف العميق والذكاء الاصطناعي

في الأشهر الأخيرة، ارتفعت أصوات عدد من الباحثين والخبراء في مجال الذكاء الاصطناعي للمطالبة بوضع ضوابط قانونية وتقنية أكثر صرامة لتنظيم إنشاء المحتوى المزيف باستخدام تقنيات التزييف العميق (Deepfake).
من بين الموقعين على الرسالة الأخيرة التي دعت إلى هذا الأمر، نجد أسماء بارزة مثل يوشوا بنجيو، أحد مؤسسي مجال التعلم العميق، إلى جانب باحثين من جامعات وشركات مثل غوغل وDeepMind وOpenAI.

الرسالة، التي أطلقها الباحث أندرو كريتش من جامعة كاليفورنيا في بيركلي، حذّرت من أن التزييف العميق أصبح يشكل خطرًا مباشرًا على المجتمع، نظرًا لاستخدامه في نشر محتوى إباحي غير قانوني، والاحتيال، والمعلومات المضللة السياسية.
ومع التطور السريع للذكاء الاصطناعي، أصبح من السهل جدًا إنشاء صور وفيديوهات مزيفة يصعب التمييز بينها وبين الواقع.

واقترح الخبراء في الرسالة مجموعة من التوصيات، من بينها:

  • تجريم إنتاج أو توزيع المحتوى الإباحي المزيف، خصوصًا المتعلق بالأطفال.
  • فرض عقوبات جنائية على كل من ينشئ أو يسهل انتشار التزييف العميق الضار.
  • إلزام الشركات المطوّرة للذكاء الاصطناعي بمنع أدواتها من إنشاء محتوى مزيف يسبب ضررًا.

حتى الآن، وقّع على الرسالة أكثر من 400 شخصية من مجالات مختلفة، من ضمنهم أكاديميون، باحثون في التكنولوجيا، وخبراء في السياسات العامة.

منذ إطلاق ChatGPT أواخر عام 2022، أصبحت قضايا الأمان والشفافية في الذكاء الاصطناعي من أولويات النقاش في الأوساط التقنية والقانونية. ومع تنامي قدرات الذكاء الاصطناعي التوليدي، يبدو أن المرحلة المقبلة ستتطلب توازنًا دقيقًا بين حرية الابتكار وحماية الأفراد والمجتمعات من الاستخدامات الضارة.

مشاركة

موضوعات ذات صلة