كيف يمكن تفادي الكوارث المحتملة للذكاء الاصطناعي؟
الذكاء الاصطناعي أصبح جزءًا لا يتجزأ من حياتنا اليومية، إذ يمكنه رفع مستوى حياة البشر وتحسين إنتاجية العمل، والمساعدة في الاكتشافات العلمية، وتطوير الأدوية، وحتى الوصول إلى حدود الانصهار النووي. ومع ذلك، فإن لهذه التقنية الفوائد الضخمة مخاطر جسيمة إذا لم يتم إدارتها وتنظيم استخدامها بالشكل الصحيح.
في مقال مشترك نشرته مجلة “فورين أفيرز” الأميركية، أدلى الخبيران ماركوس أنديرونغ، رئيس السياسات في مركز حوكمة الذكاء الاصطناعي، وبول شار، نائب الرئيس التنفيذي للمركز، برؤيتهما حول كيفية تفادي وقوع كوارث ناجمة عن الذكاء الاصطناعي.
المخاطر والتحذيرات
يشير الخبيران إلى أن الذكاء الاصطناعي، رغم الفرص الهائلة التي يتيحها للبشرية، يحمل أيضًا تهديدات واضحة، من بينها:
- انتشار المعلومات المضللة: تقنيات الذكاء الاصطناعي يمكن أن تولد أخبارًا كاذبة، وتكرس التحيز والتمييز في المجتمع.
- التجسس والسيطرة: الدول والشركات يمكن أن تستخدم الذكاء الاصطناعي في التجسس على المنافسين أو المواطنين.
- التهديدات الصحية: مستقبلًا، قد يُستخدم الذكاء الاصطناعي في تخليق كائنات مسببة للأمراض أو اختراق بنى تحتية حيوية.
وقد بدأ العلماء المطورون لهذه الأنظمة بإطلاق تحذيرات، معتبرين أن الابتكارات في هذا المجال محفوفة بالمخاطر. ففي خطاب جماعي لهم في مايو/أيار الماضي، نبهوا إلى أن الحد من المخاطر الوجودية للذكاء الاصطناعي يجب أن يُعطى أولوية مماثلة لمخاطر الأوبئة أو الحروب النووية.
ولقد تلت ذلك اجتماعات على مستوى السياسة العالمية، شارك فيها من بينهم الرئيس الأميركي جو بايدن، حثت على وضع تدابير صارمة لتجنب الحوادث والأضرار التي قد تنجم عن الذكاء الاصطناعي.
سُبل التصدي للمخاطر
أوضح الخبيران أن مواجهة المخاطر تتطلب تحديد الأضرار الناشئة عن الذكاء الاصطناعي في المجتمعات الحالية ووضع استراتيجيات لمعالجتها. وأشارا إلى أن العديد من الأنظمة المتقدمة لا تزال غير مستخدمة على نطاق واسع أو غير مفهومة بالكامل، ما يجعل التحكم بها أمرًا بالغ التعقيد.
لذلك، يقترح الخبراء ما يلي:
- التحكم في الوصول إلى الرقائق المتقدمة: منع الجهات “الخبيثة” من تطوير أنظمة ذكاء اصطناعي قوية بشكل غير مسؤول.
- سن لوائح وقوانين واضحة: لضمان تطوير واستخدام الذكاء الاصطناعي بطريقة مسؤولة، دون الحد من الابتكار.
- تهيئة المجتمعات: تعليم المواطنين التمييز بين المحتوى الذي أنتجه البشر وما أنتجه الذكاء الاصطناعي، ودعم العلماء لتطوير أدوات أمان وحماية بنى تحتية حساسة، مثل محطات الطاقة.
تحديات إضافية
وأشار المقال إلى أن من مهارات الذكاء الاصطناعي أيضًا أنه يمكنه مساعدة المبرمجين على ابتكار برمجيات خبيثة تتفادى اكتشاف البرمجيات المضادة للفيروسات، كما أنه يسهّل إمكانية قيام الأطراف الشريرة بارتكاب أضرار واسعة النطاق.
كما أن المعلومات المضللة ليست سوى جزء من المخاطر، إذ ينبغي على العلماء تطوير نظم تمنع الذكاء الاصطناعي من تمكين هجمات بيولوجية أو تسهيل الوصول إلى تسلسلات الحمض النووي الخطرة. ولتحقيق ذلك، يمكن للحكومات سن لوائح تمنع الشركات من شحن تسلسلات الحمض النووي المرتبطة بمسببات الأمراض الخطيرة إلى عملاء غير مصرح لهم، ودعم الشركات في تحديد التسلسلات الجينية عالية الخطورة.
يخلص الخبراء إلى أن الذكاء الاصطناعي أداة قوية مزدوجة الحافة: يمكنه تحسين حياة البشرية بشكل غير مسبوق، لكنه قد يسبب أضرارًا لا يمكن التنبؤ بها إذا تُرك بلا تنظيم. ويجب على صناع السياسات والعلماء العمل بشكل عاجل لإيجاد توازن بين الابتكار والحماية، قبل أن تصبح الأنظمة الأكثر قوة متاحة للجميع على نطاق واسع.
المصدر: مجلة فورين أفيرز
