كيف يمكن للصحفيين اكتشاف التحيز في الذكاء الاصطناعي؟
خبراء يحذرون من مخاطر الذكاء الاصطناعي في الإعلام
تخيل نفسك صحفيًا في غرفة أخبار حديثة، تحاول تغطية حدث مهم. بجانبك، يجلس جهاز ذكاء اصطناعي يقترح عناوين ونصوصًا جاهزة. تبدو هذه المساعدة جذابة، فهي توفر الوقت وتسرّع الإنتاج. لكن فجأة، تبدأ الأسئلة بالظهور: هل هذه الأخبار محايدة؟ هل تعكس الواقع بشكل عادل؟ أم أنها تحمل تحيزات خفية؟
سلط معهد رويترز لدراسة الصحافة الضوء على هذه المعضلة، محذرًا من مخاطر التحيز في الذكاء الاصطناعي، خاصة مع بدء 49% من المؤسسات الإخبارية في استخدام هذه النماذج، وفق استطلاع للرابطة العالمية للصحف وناشري الأخبار “WAN-IFRA”.
راما شارما، المستشارة والمدربة التنفيذية بالمعهد، تحدثت إلى 18 صحفيًا وخبيرًا إعلاميًا وتقنيًا وأكاديميًا لتوضيح هذه القضية، محاولة تقديم طرق عملية لفهمها والتعامل معها.
التحيز: سمة وليست خطأ
يقول ماتياس هولويغ، خبير الذكاء الاصطناعي في جامعة أكسفورد:
“التحيز سمة، وليس عيبًا، في هذه الأدوات. أي نموذج ذكاء اصطناعي سيعكس تحيزات البيانات التي جرى تدريبه عليها.”
على سبيل المثال، يستمد “شات جي بي تي” حوالي 60% من مواده من محتوى الويب مثل ويكيبيديا والكتب الرقمية والأوراق الأكاديمية. طبيعة هذه المصادر تجعل النموذج يرث تحيزاتها، حتى لو لم تكن واضحة للوهلة الأولى.
راما شارما تحذر من التحيز الضار أو التحيز الخوارزمي، حيث تتعلم النماذج من بيانات غير عادلة لتكرر التحيزات المجتمعية، مما يؤدي إلى مخرجات قد تضر بأفراد أو مجموعات معينة.
من أين يأتي التحيز؟
التحيز يمكن أن يظهر في كل مرحلة من مراحل بناء النموذج: جمع البيانات، تصميم النموذج، وحتى مرحلة النشر.
بيتر سلاتري، خبير في معهد ماساتشوستس للتكنولوجيا، يشير إلى:
“الكثير من البيانات تأتي من باحثين غربيين في مؤسسات نخبوية، ما قد يؤدي إلى نتائج لا تمثل وجهات نظر دول الجنوب.”
وفي الواقع، قد تأتي الجهود الحسنة النية بنتائج عكسية، كما حدث عام 2024 مع مولد الصور “جيميني” من غوغل، الذي أنتج صورًا غير دقيقة تاريخيًا، واضطرت غوغل لتعليق الميزة مؤقتًا بعد ردود فعل غاضبة.
أنواع التحيز في الذكاء الاصطناعي
خلال مقابلاتها، صنفت شارما التحيزات إلى ثلاث فئات رئيسية، مع أمثلة لكل منها:
- التحيزات الإحصائية: تنشأ من بيانات ناقصة أو غير ممثلة.
- مثال: مجموعة بيانات صحية تغفل مؤشرات خاصة بصحة النساء، فتفشل النماذج في تلبية احتياجاتهن بشكل صحيح.
- التحيزات المعرفية: تعكس أنماط التفكير البشري، مثل التحيز التأكيدي الذي يعزز المعلومات المتوافقة مع المعتقدات المسبقة.
- مثال: نظام توصية الأخبار الذي يعزز المحتوى السياسي لمحررين ذوي ميل معين، مما يقوّي وجهة نظر واحدة ويهمل الأخرى.
- التحيزات الاجتماعية: ناتجة عن التفاوت التاريخي أو الافتراضات الثقافية في البيانات.
- مثال: أداة توظيف تعتمد على بيانات تاريخية تميل لتفضيل الرجال في المناصب القيادية، مما يعزز التمييز الجنسي القديم.
فلوران دودنس، صحفي سابق، يشير إلى أن البيانات القديمة يمكن أن تكون ضارة بقدر البيانات المفقودة، إذ قد تنتشر التحيزات خارج السياق الأصلي وتفاقم الفجوات المجتمعية.
خطر التحيز المتعمد
هولويغ يحذر من تسميم مجموعات البيانات، أي إدراج معلومات متحيزة أو كاذبة لتشويه سلوك الذكاء الاصطناعي، مثل تقييمات مزيفة للمنتجات. هذا النوع من التحايل قد يغير مخرجات النظام بشكل متعمد، ويطرح تحديات أخلاقية كبيرة.
بعض المؤسسات بدأت بالاستجابة لهذه المخاطر. على سبيل المثال، الإذاعة البافارية في ميونخ عينت مراسلة متخصصة في المساءلة الخوارزمية، للتحقيق في تأثير الذكاء الاصطناعي على المجتمع.
استخدام الذكاء الاصطناعي للكشف عن التحيز
ليست كل الأخبار سلبية. في جامعة فلوريدا، يقوم فريق متعدد التخصصات بدراسة كيفية استخدام الذكاء الاصطناعي للكشف عن أنواع التحيز أثناء إنتاج الأخبار. النتائج الأولية أظهرت، على سبيل المثال، أن لغة التغطية الإعلامية للاحتجاجات يمكن أن تكون أكثر عاطفية تجاه طرف معين، حتى لو كانت الأحداث سلمية.
هذا يوضح أن الذكاء الاصطناعي يمكن أن يكون عدسة لتعزيز الوعي الذاتي لدى المؤسسات الإعلامية، وليس مجرد أداة إنتاجية.
القضاء على التحيز بشكل كامل قد يكون مستحيلًا، لكن فهمه والتعامل معه عبر فرق متعددة التخصصات يمكن أن يقلل من تأثيره السلبي. الصحفيون والباحثون يحتاجون إلى وعي دائم، وإلى أدوات وأساليب تمكنهم من مراقبة الذكاء الاصطناعي والتعامل مع تحيزاته بشكل مسؤول.
في نهاية المطاف، الذكاء الاصطناعي في الصحافة ليس عدواً، بل أداة قوية تتطلب حذرًا، ووعيًا، ومسؤولية، لضمان أن يبقى الصحفيون حراس الحقيقة وليس مجرد ناقلين آليين للبيانات المتحيزة.
المصدر: معهد رويترز لدراسة الصحافة (Reuters Institute for the Study of Journalism)
