|

خبراء وقادة شركات التكنولوجيا يحذرون من مخاطر الذكاء الاصطناعي على مستقبل البشرية

حذر عدد من كبار قادة شركات التكنولوجيا من أن الذكاء الاصطناعي قد يشكل خطرًا على استمرار البشرية، مؤكدين أن تنظيمه والسيطرة عليه يجب أن تحظيا بأعلى مستويات الأولوية.

البيان المشترك

صدر هذا التحذير عن مركز أمان الذكاء الاصطناعي، ووقع عليه عدد من أبرز الشخصيات في القطاع، أبرزهم:

  • سام ألتمان، الرئيس التنفيذي لشركة “أوبن إيه آي” (OpenAI) المطورة لبرنامج “شات جي بي تي” (ChatGPT).
  • المديرون التنفيذيون في دييب مايند (DeepMind)، الذراع المتخصص في الذكاء الاصطناعي لشركة “غوغل”.
  • المسؤولون التنفيذيون في مايكروسوفت.

وجاء في البيان أن:

“التخفيف من خطر انقراض البشرية بسبب الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية”.

تصاعد المخاطر مع الانتشار السريع للتكنولوجيا

تسارعت التطورات في الذكاء الاصطناعي بعد إطلاق برنامج الدردشة “شات جي بي تي” للاستخدام العام في نوفمبر/تشرين الثاني الماضي، حيث وصل عدد مستخدميه خلال شهرين فقط إلى 100 مليون مستخدم.

وقد أدهش البرنامج الباحثين والعامة بقدرته على توليد إجابات شبيهة بالردود البشرية، مما أثار مخاوف من أن الذكاء الاصطناعي قد يحل محل الوظائف ويقلد السلوك البشري في مجالات عدة.

دعوات للحد من تطوير أنظمة أكثر قوة

في مارس/آذار الماضي، دعا إيلون ماسك من شركة “تسلا”، وستيف وزنياك الشريك المؤسس لشركة “آبل”، إلى تجميد تطوير أنظمة الذكاء الاصطناعي الأكثر تقدمًا لمدة 6 أشهر، مؤكدين أن الأنظمة الحالية أصبحت قادرة على منافسة البشر في المهام العامة.

وأضافوا في خطابهم:

“هل يجب أن نطور عقولا غير بشرية قد تتفوق علينا عددا وتتجاوز الذكاء البشري، وتحل محلنا؟ هل يجب أن نجازف بفقدان السيطرة على حضارتنا؟”

وبالمثل، أعرب إريك شميدت المدير التنفيذي السابق لشركة غوغل عن قلقه من المخاطر الوجودية المرتبطة بتطور الذكاء الاصطناعي، محذرًا من تداعياته المحتملة على المجتمع إذا لم يتم تنظيمه بشكل صارم.

مخاوف ألتمان الشخصية

اعترف سام ألتمان في مارس/آذار بأنه يشعر ببعض الخوف من الذكاء الاصطناعي، خصوصًا من أن الحكومات الاستبدادية قد تستغل هذه التكنولوجيا بشكل ضار.

وأوضح البيان المشترك أن الهدف من هذه التحذيرات هو فتح نقاش عالمي حول المخاطر الكبرى للذكاء الاصطناعي، والتأكد من اتخاذ إجراءات وقائية قبل أن تصبح هذه الأنظمة أكثر قوة وانتشارًا.

المصدر: مواقع إلكترونية

مشاركة

موضوعات ذات صلة