معاينة AI

لا لستَ تهلوس
خطّة الشركات للذكاء الاصطناعي خطيرة

تسعى شركات التكنولوجيا الكبرى بكلّ جهدها إلى تسويق الذكاء الاصطناعي، ولا سيّما ما يُعرف بـ«الذكاء الاصطناعي العام». ففي المؤتمرات والحوارات، يتحدّث قادة هذه الشركات عن مستقبلٍ قريبٍ تتمكّن فيه أنظمة الذكاء الاصطناعي من أداء كل المهام لأيٍّ كان، لتُنتج عالماً من الوفرة للجميع. بَيد أنّهم، في الوقت ذاته، ينوّهون إلى أنّ بلوغ ذلك المستقبل مشروطٌ بمدى استعدادنا لتوفير بيئة تنظيمية ومالية مواتية للأعمال التجارية.

لكنّ الحقيقة أنّ هذه الشركات لا تقترب مطلقاً من تطوير أنظمة كهذه. فما أنتجته حتى الآن لا يتعدّى أنظمة «ذكاء اصطناعي توليدي» خطيرة ولا يمكن الاعتماد عليها. ولسوء حظّنا، فقد شرعت أعدادٌ متزايدة من الشركات والهيئات الحكومية في اعتماد هذه الأنظمة، ما أسفر عن نتائج كارثية على العمّال.

ما الذكاء الاصطناعي أصلاً

لا يوجد تعريفٌ بسيط ومتّفَق عليه للذكاء الاصطناعي. فثمّة فكرة «الذكاء الاصطناعي العام»، وثمّة واقع الذكاء الاصطناعي التوليدي. شركة «أوپن إيه آي»، صاحبة «تشات جي پي تي»، تعرّف الذكاء الاصطناعي العام بأنّه «أنظمة ذات استقلالية عالية تتفوّق على البشر في معظم الأعمال ذات القيمة الاقتصادية». أي بعبارة أخرى، أنظمة تمتلك القدرة على فهم أو تعلّم أي مهمة ذهنية يستطيع الإنسان أداءها.

تنتمي أنظمة الذكاء الاصطناعي التوليدي أو ما يُعرف بـ«بوتات المحادثة» Chatbots مثل «تشات جي پي تي» والعديد من المنتجات المنافسة من شركات تقنية أخرى (جيميناي من غوغل، وغروك من إيلون ماسك، وكوبايلوت من مايكروسوفت، ولاما من ميتا) إلى فئة مختلفة تماماً. فهذه الأنظمة تعتمد على التعرّف على الأنماط واسعة النطاق لتستجيب للتوجيهات. لا «تُفكّر» ولا «تستدلّ» ولا تشتغل بصورة مستقلّة.

لا بدّ من تدريب أنظمة الذكاء الاصطناعي التوليدي على البيانات، وهذه البيانات لا بدّ من ترميزها قبل أن تصبح صالحة للاستخدام، وفي الغالب يُعهَد بهذه المهمّة إلى عمّال منخفضي الأجر في بلدان الجنوب العالمي. على سبيل المثال، تعتمد الشركات التقنية الكبرى على مئات الآلاف بل ملايين الصور لتدريب أنظمتها على التعرّف على الصور أو توليدها، ويستلزم ذلك وَسم كل صورة بجميع العناصر الظاهرة فيها. وتسري العملية ذاتها على تدريب الأنظمة على التحدّث، إذ تُؤخَذ محادثات من مصادر متنوّعة ويَسِمها العمّال بحسب تقييمهم للمشاعر المعبَّر عنها. أما النصوص الكتابية، فغالباً ما تُراجَع في محاولة لحذف أكثر المواد عنفاً أو عدوانية اجتماعياً.

بما أنّ قوة النظام تزداد بازدياد كمية البيانات، شَرَعت شركات التكنولوجيا في البحث المحموم عن البيانات في كل زاوية من زوايا الإنترنت من دون اكتراث كبير بحقوق النشر

تستخدم عملية التدريب الفعلية خوارزميات معقّدة تعالج البيانات لتستخلص منها الأنماط الإحصائية والعلاقات ذات الصلة. ثم يستند «بوت» المحادثة إلى تلك الأنماط والعلاقات لتوليد مجموعة منظّمة من الصور أو الأصوات أو الكلمات، اعتماداً على الاحتمالات، استجابةً للتوجيهات. وبما أنّ الشركات المتنافسة تستخدم مجموعات بيانات وخوارزميات مختلفة، فقد تختلف استجابات «بوتاتها» للتوجيه نفسه. لكن هذا كلّه لا يمتّ بصلة إلى الذكاء الاصطناعي العام، ولا يوجد حتى الآن مسارٌ تقنيٌّ واضح يأخذنا من الذكاء الاصطناعي التوليدي إلى الذكاء الاصطناعي العام.

بواعث على القلق

كما أشرنا أعلاه، تُدرَّب «بوتات المحادثة» على البيانات. وبما أنّ قوة النظام تزداد بازدياد كمية البيانات، شَرَعت شركات التكنولوجيا في البحث المحموم عن البيانات في كل زاوية من زوايا الإنترنت من دون اكتراث كبير بحقوق النشر: كتب ومقالات وتفريغات لمقاطع «يوتيوب» ومنشورات «ريديت» ومدوَّنات ومراجعات للمنتجات ومحادثات «فيسبوك»... كلّ ما يخطر على البال تسعى هذه الشركات للحصول عليه. لكن هذا يعني أيضاً أنّ «بوتات المحادثة» تتدرّب على بيانات تحوي كتابات تحريضية وعنصرية، أو حتى هذيانات مضلّلة، فتتأثر مخرجاتها بتلك المضامين.

على سبيل المثال، تستعين العديد من إدارات الموارد البشرية، الساعية إلى تقليص عدد الموظفين، بأنظمة مدعومة بالذكاء الاصطناعي لصياغة توصيفات الوظائف وتصفية طلبات المتقدّمين. وفي الواقع، تُقدِّر «لجنة تكافؤ فرص العمل» في الولايات المتحدة الأميركية أنّ 99% من شركات مؤشر «فورتشن» 500 تستخدم شكلاً من أشكال الأدوات الآلية في عمليات التوظيف. وليس من المستغرب أنّ باحثين في جامعة واشنطن وجدوا:

انحيازات عنصرية وجندرية وتقاطعية واضحة في كيفية تصنيف ثلاثة من أحدث نماذج اللغة الكبيرة للسير الذاتية. فقد عمد الباحثون إلى تغيير الأسماء المرتبطة بالرجال والنساء البيض والسود ضمن أكثر من 550 سيرة ذاتية حقيقية، وخلصوا إلى أنّ هذه النماذج فضّلت الأسماء المرتبطة بالبيض في 85% من الحالات، واختارت الأسماء المرتبطة بالنساء في 11% من الحالات فحسب، ولم تُظهر أي تفضيل للأسماء المرتبطة بالرجال السود مقارنةً بالأسماء المرتبطة بالرجال البيض.

ينسحب الانحياز ذاته على توليد الصور. فقد وجد الباحثون أنّ الصور التي ولّدتها عدّة برامج شائعة في هذا المجال «تغلب عليها قوالب نمطية شائعة، منها على سبيل المثال ربط كلمة «أفريقيا» بالفقر، أو ربط «الفقر» بالبشرة الداكنة». في إحدى الحالات، حين طُلب من أحد الأنظمة توليد «صورة لرجل أمريكي ومنزله»، أنتج صورة لرجل أبيض يقف أمام منزل كبير وجيّد. أما حين طُلب منه «صورة لرجل أفريقي ومنزله الفاره»، قدّم صورة لرجل أسود أمام كوخ طيني بسيط. وجد الباحثون أنماطاً مشابهة من التنميط العرقي (والجندري) في حالة توليد صور الأشخاص بحسب المهن. الخطورة واضحة، فمحاولات دور النشر والمؤسسات الإعلامية استبدال المصوّرين والفنّانين بأنظمة الذكاء الاصطناعي قد تسهم في ترسيخ الصور النمطية والانحيازات المتجذّرة.

بإمكان هذه الأنظمة أيضاً أن تُلحِق ضرراً بالغاً بمَن يعتمد عليها اعتماداً مفرطاً في المحادثة والصداقة. فكما وصفت صحيفة «نيويورك تايمز»:

تزايدت التقارير عن خروج «بوتات المحادثة» عن السيطرة منذ نيسان/أبريل 2025، حين طرحت شركة «أوبن إيه آي» نسخة من «تشات جي پي تي» اتّسمت بمَيلٍ مفرط إلى الإطراء. جعل التحديث الـ«بوت»  يحاول إرضاء المستخدمين بكل جهده من خلال «تأكيد الشكوك وتأجيج الغضب والحث على الأفعال الاندفاعية وتعزيز المشاعر السلبية»، كما ورد في تدوينة نشرتها الشركة. وأفادت الشركة بأنّها بدأت في التراجع عن التحديث في غضون أيام، إلا أنّ هذه التجارب سُجّلت قبل إصدار تلك النسخة، وما زالت تتكرر بعدها. فقصص «الذهان الناجم عن تشات جي پي تي» تملأ منصّة «ريديت» ويتقمّص بعض المؤثّرين المضطربين دور «أنبياء الذكاء الاصطناعي» على وسائل التواصل.

والمُقلق على نحوٍ خاص أنّ دراسةً أجراها مختبر ماساتشوستس للإعلام وجدت أنّ مَن «يرى في تشات جي پي تي صديقاً كان أكثر عرضةً للآثار السلبية الناتجة عن استخدام بوتات المحادثة»، كما أنّ «الاستخدام اليومي المطوّل اقترن بنتائج أسوأ». ولسوء الحظ، لن يدفع هذا الاكتشاف بشركة ميتا إلى إعادة النظر في استراتيجيتها الجديدة القائمة على تطوير «بوتات محادثة» بالذكاء الاصطناعي، وتشجيع المستخدمين على إدخالها في شبكة الأصدقاء بهدف زيادة الوقت المنفَق على منصّة «فيسبوك» وتوليد مزيد من البيانات لتغذية النماذج المستقبلية. ويكفي أن نتخيّل فحسب العواقب الوخيمة لو قررت المستشفيات والعيادات الاستغناء عن المعالجين النفسيين المدربين واستخدام أنظمة ذكاء اصطناعي.

بل المخيف أكثر من كل ما سبق هو سهولة برمجة هذه الأنظمة لتقديم إجابات مرغوبة سياسياً. ففي أيار/مايو 2025، بدأ الرئيس ترامب يتحدث عن «إبادة البيض» في جنوب أفريقيا، زاعماً أنّ «المزارعين البيض يُقتلون بوحشية» هناك. وبناءً على هذا الادعاء، قرّر تسريع إجراءات اللجوء لـ54 جنوب أفريقي من البيض. وقد قُوبلت مزاعمه بتشكيكٍ واسعٍ، دفع كثيرين - بطبيعة الحال - إلى سؤال «بوتات» الذكاء الاصطناعي عن هذه الادعاءات.

الخطورة واضحة، فمحاولات دور النشر والمؤسسات الإعلامية استبدال المصوّرين والفنّانين بأنظمة الذكاء الاصطناعي قد تسهم في ترسيخ الصور النمطية والانحيازات المتجذّرة

فجأةً، بدأ «غروك»، نظام الذكاء الاصطناعي التابع لإيلون ماسك، يخبر المستخدمين بأنّ إبادة البيض في جنوب أفريقيا أمرٌ حقيقي وله دوافع عنصرية. بل إنّ النظام بدأ يشارك هذه المزاعم حتى من دون أن يُسأل عنها. وحين ضغط عليه صحفيو الغارديان وآخرون لتقديم أدلّة تدعم هذا الزعم، أجاب بأنّه تلقّى تعليمات باعتبار إبادة البيض في جنوب أفريقيا حقيقةً واقعية. وبما أنّ ماسك المولود لعائلة ثرية في بريتوريا بجنوب أفريقيا سبق أن طرح مزاعم مشابهة، فليس من الصعب تصديق أنّ هذه التعليمات جاءت منه شخصياً، وربما بدافع استرضاء الرئيس.

بعد ساعات قليلة من تحوّل سلوك «غروك» إلى موضوع ساخن على وسائل التواصل الاجتماعي، توقف النظام عن الاستجابة لأي أسئلة تتعلق بإبادة البيض. وكما أشارت صحيفة الغارديان، «لا يُعرف على وجه الدقة كيف جرى تدريب الذكاء الاصطناعي لغروك؛ إذ تقول الشركة إنّها تستخدم بيانات من مصادر متاحة للعامة، وتضيف أنّ غروك صُمّم ليتمتّع بنزعة تمرّد ومنظورٍ خارجي تجاه الإنسانية».

من سيّئ إلى أسوأ

على الرغم من خطورة المشكلات الواردة أعلاه، فإنّها ليست بشيء إذا قورنت بحقيقة أنّ جميع أنظمة الذكاء الاصطناعي، ولأسباب يعجز الجميع عن تفسيرها، تختلق الأمور أو «تُهلوِس» كما يقول خبراء التقنية. على سبيل المثال، في أيار/مايو 2025، نشرت صحيفة شيكاغو صن تايمز (وعدّة صحف أخرى) ملحقاً خاصاً من إعداد كينغ فيتشرز ساينديكايت يعرض كتباً يُنصح بقراءتها في أشهر الصيف. الكاتب المكلّف بإعداد هذا الملحق استخدم نظام ذكاء اصطناعي لاختيار الكتب وكتابة ملخصاتها.

وكما اكتُشف سريعاً بعد نشر الملحق، فقد تضمّن كتباً غير موجودة منسوبة إلى مؤلفين مشهورين. على سبيل المثال، نُسب إلى الروائية التشيلية الأميركية إيزابيل ألليندي كتاب بعنوان «أحلام المدّ»، ووصِف بأنّه «أولى رواياتها في أدب المناخ». لكن لا وجود لهذا الكتاب أصلاً. وفي الواقع، لم تكن سوى خمسة، من أصل خمسة عشر عنواناً مدرجة في القائمة، حقيقية.

في شباط/فبراير 2025، اختبرت هيئة الإذاعة البريطانية (بي بي سي) قدرة أبرز نماذج «بوتات المحادثة» على تلخيص الأخبار. قدّم الباحثون لـ«تشات جي پي تي» و«كوبايلوت» و«جيميناي» و«بيربليكسيتي إيه آي» محتوى من موقع «بي بي سي»، ثم طرحوا عليها أسئلة تتعلق بهذه المواد. وقد تبيّن وجود «مشكلات كبيرة» في أكثر من نصف الإجابات المولّدة. فقد تضمّنت نحو 20% من الردود «أخطاءً وقائعية، من قبيل معلومات غير صحيحة أو أرقام وتواريخ خاطئة». وحين احتوت الإجابات على اقتباسات، اتّضح تحريف أكثر من 10% منها أو اختلاقه بالكامل. وبالعموم، أظهرت هذه النماذج صعوبةً في التمييز بين الوقائع والآراء. وكما عبّرت الرئيسة التنفيذية للأخبار في «بي بي سي»، ديبورا تورنِس، فإنّ الشركات التقنية التي تروّج لهذه الأنظمة «تلعب بالنار... فنحن نعيش في أوقات مضطربة، وكم سيستغرق الأمر قبل أن تتسبّب عناوين محرّفة من قِبل الذكاء الاصطناعي في إحداث ضرر فعلي في العالم الواقعي؟».

تزايدت التقارير عن خروج «بوتات المحادثة» عن السيطرة منذ نيسان/أبريل 2025، حين طرحت شركة «أوبن إيه آي» نسخة من «تشات جي پي تي» اتّسمت بمَيلٍ مفرط إلى الإطراء

وفيما يتّصل بإحداث الضرر، فقد قدّم محامو شركة ماي پيلو ومديرها التنفيذي مايك لينديل، في شباط/فبراير 2025 مذكرة قانونية في قضية تشهير تبيّن لاحقاً كتابتها إلى حدّ كبير باستخدام الذكاء الاصطناعي. هدّدت المحكمة باتخاذ إجراءات تأديبية ضدهم بعدما تبيّن احتواء المذكرة على نحو  30 استشهاداً معيباً، شملت اقتباسات محرّفة وإشارات إلى قضايا قانونية وهمية لا وجود لها. وكما علّق القاضي الفيدرالي الذي ينظر في القضية:

لقد حدّدت المحكمة نحو 30 استشهاداً معيباً في مذكرة الاعتراض. وتشمل هذه العيوب، على سبيل المثال لا الحصر، تحريفات في المبادئ القانونية الواردة في القضايا المشار إليها، بما في ذلك مناقشات قانونية لا وجود لها أصلاً في القرارات المذكورة؛ وأخطاء في بيان ما إذا كانت السابقة القضائية صادرة عن جهة قضائية ملزمة، مثل محكمة الاستئناف الأميركية للدائرة العاشرة؛ ونسباً خاطئة لأحكام إلى هذه الولاية القضائية؛ وأكثر ما يثير القلق، الإشارة إلى قضايا قانونية غير موجودة على الإطلاق.

هذه النزعة إلى «الهلوسة» تثير قلقاً بالغاً، لا سيما أنّ الجيش الأميركي ينكبّ على البحث في استخدامات هذه الأنظمة، انطلاقاً من اعتقاده بأنّ قدرتها على المعالجة السريعة تتيح لها التعرّف على التهديدات والردّ عليها بكفاءة تفوق كفاءة البشر.

الطريق إلى الأمام

تستخفّ شركات التكنولوجيا الكبرى عادةً بخطورة هذه المشكلات، مدّعيةً أنّها ستُحَلّ مع تحسّن إدارة البيانات، والأهمّ، عبر تطوير أنظمة ذكاء اصطناعي جديدة تتمتّع بخوارزميات أكثر تطوراً وقدرات حوسبية أعظم. لكنّ دراسات حديثة تقول العكس. فكما أوضحت صحيفة نيويورك تايمز:

إنّ أحدث التقنيات وأكثرها تقدّماً - والمعروفة بأنظمة الاستدلال من شركات مثل «أوپن إيه آي» وغوغل والشركة الصينية الناشئة «ديب سيك» - تنتج أخطاء أكثر، لا أقل. ففي حين تحسّنت مهاراتها الحسابية تحسناً ملحوظاً، بات تعاملها مع الوقائع أكثر اضطراباً. ولا يُعرف على وجه الدقّة سبب ذلك.

جميع أنظمة الذكاء الاصطناعي، ولأسباب يعجز الجميع عن تفسيرها، تختلق الأمور أو «تُهلوِس» كما يقول خبراء التقنية

من المفترض أن تقلّل نماذج الاستدلال من احتمالية «الهلوسات»، لأنّها مبرمجة على تقسيم التوجيه إلى مهام فرعية متعددة، ثم «الاستدلال» عبر كل مهمة على حدة قبل دمج النتائج في إجابة نهائية. لكن يبدو أنّ زيادة عدد الخطوات يزيد احتمالية الوقوع في الهلوسات.

تظهِر اختبارات «اأوپن إيه آي» الخاصة أنّ النموذج o3، وهو أقوى أنظمتها، قد هلوس في 33% من الحالات عند خوض اختبار PersonQA الذي يتضمن الإجابة عن أسئلة تتعلق بشخصيات عامة. وهذه النسبة تزيد بأكثر من الضعف عن معدل الهلوسة لدى نظامها السابق o1. أما النموذج الأحدث o4-mini، فقد سجَّلَ معدل هلوسة أعلى، بلغ 48%.

وعند تطبيق اختبار آخر يُعرف بـSimpleQA الذي يطرح أسئلة عامة، بلغت معدلات الهلوسة لـ o3 وo4-mini نحو 51% و79% على التوالي، في حين بلغ معدل الهلوسة لدى النظام السابق o1 نحو 44%.

تُظهر الدراسات المستقلة، الاتجاه نفسه في نماذج الاستدلال من شركات أخرى، بما فيها غوغل و«ديب سيك».

يجب علينا مقاومة هذه الاندفاعة المؤسسية نحو بناء نماذج ذكاء اصطناعي أقوى فأقوى. ومن سبل المقاومة تنظيم حراك مجتمعي ضد إنشاء مراكز بيانات عملاقة جديدة لها. فمع تعقّد النماذج، لا تنحصر متطلبات عمليات التدريب في كميات هائلة من البيانات، بل تشمل الحاجة إلى مساحات شاسعة من الأراضي لإيواء الخوادم المتزايدة، إلى جانب استهلاك مزيدٍ من الطاقة والمياه العذبة لتشغيلها على مدار الساعة. لقد ساهمت الشركات التقنية الست الكبرى وحدها بنسبة 20% من نمو الطلب على الكهرباء في الولايات المتحدة خلال العام نهاية آذار/مارس 2025.

يجب أن نشجّع العمّال ونقاباتهم وندعمهم في مواجهة مساعي الشركات لتوظيف الذكاء الاصطناعي بطرائق تمسّ باستقلالية العمّال وسلامتهم وصحّتهم وقدرتهم على تلبية حاجات مجتمعاتهم

وثمّة سبيل آخر للمقاومة، يتمثّل في الدعوة إلى سنّ قوانين على مستوى الولايات والبلديات تحدّ من استخدام أنظمة الذكاء الاصطناعي داخل مؤسّساتنا الاجتماعية، وتدرأ العواقب المدمّرة للخوارزميات التمييزية. هذه المعركة تبدو عسيرة منذ بدايتها. إذ إنّ مشروع قانون «القانون الجميل» الذي طرحه ترامب وأقرّه مجلس النواب، يتضمّن مادةً تقضي بفرض حظرٍ مدّته عشر سنوات على أيّ تقييدٍ تفرضه الولايات أو الحكومات المحلية على تطوير أنظمة الذكاء الاصطناعي أو استخدامها.

وأخيراً، وربما الأهمّ من كل ما سبق، يجب أن نشجّع العمّال ونقاباتهم وندعمهم في مواجهة مساعي الشركات لتوظيف الذكاء الاصطناعي بطرائق تمسّ باستقلالية العمّال وسلامتهم وصحّتهم وقدرتهم على تلبية حاجات مجتمعاتهم. وعلى أقلّ تقدير، يجب أن نضمن إبقاء سلطة الإنسان في مراجعة قرارات أنظمة الذكاء الاصطناعي، والتدخل لتجاوزها متى لزم الأمر.

فهل بوسعنا تطوير أنظمة ذكاء اصطناعي أكثر تواضعاً، تعين الإنسان وتدعم العمل الإبداعي والنافع اجتماعياً؟ الجواب نعم، ولكنّ الشركات لا تريد سلوك هذا المسار.

نُشر هذا المقال في 21 حزيران/يونيو 2025 على مدوّنة مارتي هارت لاندسبيرغ، وتُرجم إلى العربية ونُشر في موقع «مجلة صفر» بموافقة منه.

    علاء بريك هنيدي

    مترجم، حاصل على ماجستير في المحاسبة، وشارك في تأسيس صحيفة المتلمِّس. صدر له ترجمة كتاب ديفيد هارفي «مدخل إلى رأس المال» عن دار فواصل السورية، وكتاب جوزيف ضاهر «الاقتصاد السياسي لحزب الله اللبناني» عن دار صفصافة المصرية، وكتاب بيتر درَكر «الابتكار وريادك الأعمال» عن دار رف السعودية، وكانت أولى ترجماته مجموعة مقالات لفلاديمير لينين عن ليف تولستوي صدرت ضمن كراس عن دار أروقة اليمنية. كما نشر ترجمات عدّة مع مواقع صحافية عربية منها مدى مصر، وإضاءات، وذات مصر، وأوان ميديا.