الثلاثاء، 01 أبريل 2025
دبي، الإمارات العربية المتحدة:
أجد في حديث سام ألتمان، الرئيس التنفيذي لشركة أوبن إيه آي، عن احتمالية مواكبة الذكاء الاصطناعي للذكاء البشري أو تجاوزه، تناقضاً يثير حيرتي؛ فهو يقر بصعوبة السيطرة عليه ويعترف باحتمال ظهور آثار جانبية غير مرغوبة، قد تصل إلى حد انهيار الحضارة البشرية، ثم يؤكد في الوقت نفسه على تسارع شركته في تطويره.
هذا التناقض الظاهر يدفعنا للتساؤل: هل يأخذ ألتمان مخاوف السلامة على محمل الجد فعلاً، أم أنه يحاول الحصول على صك براءة من خلال إيهامنا بأنه شخص مسؤول يضع مصالحنا العامة في الاعتبار؟
يبدو أن الإجابة باتت واضحة الآن، خصوصاً بعد أن قامت إدارة الرئيس الأمريكي دونالد ترامب أخيراً باستطلاع رأي صناعة الذكاء الاصطناعي حول ما ترغب به من توجهات سياسية أمريكية في ظل الإدارة الجديدة، وجاء الرد كالتالي: «حان الوقت لواشنطن لإفساح الطريق أمام هذا القطاع للتحرك بوتيرة أسرع بكثير، ضاربة بالتنظيمات والقوانين عرض الحائط».
وإذا كنت تبحث عن دليل يظهر كيف تحول وادي السيليكون مع تغير الرياح السياسية، فمن الصعب أن تجد شيئاً أكثر وضوحاً من هذا المشهد، حيث تظاهرت كبرى شركات الذكاء الاصطناعي بأنها حريصة تماماً على الحذر - على الأقل في تصريحاتها العلنية – وذلك في ظل الإدارة الأمريكية السابقة، بل ووافقت على إخضاع أقوى نماذجها لاختبارات خارجية قبل إطلاقها للاستخدام العام، فيما اعتبره البيت الأبيض في عهد بايدن خطوة أولى قد تؤدي في النهاية إلى تدقيق حكومي كامل للذكاء الاصطناعي المتقدم.
لكن هذا الحلم تبدد سريعاً، إذ قام دونالد ترامب بإلغاء الأمر التنفيذي الذي أصدره بايدن بشأن الذكاء الاصطناعي خلال أسبوعه الأول من العودة إلى المكتب البيضاوي، ثم دعت إدارته إلى تقديم مقترحات لمساعدتها في صياغة سياسة جديدة للذكاء الاصطناعي - وهو نموذج صارخ لسياسة «أطلق النار أولاً، واطرح الأسئلة لاحقاً».
وفي المذكرات المقدمة للبيت الأبيض، أجمعت شركات مثل أوبن إيه آي، وميتا، وجوجل على نقاط أساسية: حاجة الولايات المتحدة لمساعدة شركات الذكاء الاصطناعي على التحرك بسرعة أكبر لمنافسة الصين، وضرورة عدم تقييد الولايات الأمريكية لعمالقة التكنولوجيا بلوائح متفرقة - وهو ما يعني عملياً استبعاد أي قيود نظراً لغياب التنظيم الفيدرالي لسنوات - كما طالبت الشركات البيت الأبيض بإنهاء الغموض المتعلق بحقوق النشر، والإعلان عن أحقيتها في تدريب نماذجها على أي بيانات متاحة في المجال العام.
وماذا عن السلامة؟ لقد أزالت الشركات التكنولوجية هذه الكلمة تقريباً من معجمها، فجميعها بلا شك سمع تصريح نائب الرئيس الأمريكي جي دي فانس في قمة الذكاء الاصطناعي الأخيرة بباريس، عندما أكد أن «مستقبل الذكاء الاصطناعي لن يحسم عبر التردد والقلق بشأن السلامة».
لم يساورني الشك يوماً في أن مجال الذكاء الاصطناعي هو بالفعل سباق بكل ما تحمله الكلمة من معنى، فالعديد من الشركات المنخرطة فيه سبق لها خوض معارك تكنولوجية أخرى على مبدأ «الفائز يحصد كل شيء»، وقد اعتمدت دوماً على معايير مبسطة ونفعية للحكم على ما إذا كانت أعمالها تخدم المصلحة العامة: إذا نقر المستخدمون على شيء ما، فهذا يعني أنهم يريدون المزيد منه، وهذه هي حلقة التغذية الراجعة السريعة التي أنتجت الخوارزميات التي دفعت طفرة وسائل التواصل الاجتماعي، فما الذي يمكن أن نعترض عليه؟
لكن بعد كل الأدلة على الأضرار التي تسببت بها منصات التواصل الاجتماعي، كان من المتوقع أن ترغب الشركات في فهم كيفية تأثير تقنيات الذكاء الاصطناعي على العالم قبل التسرع في تقديم المزيد منها، غير أن الأدلة لم تبدأ سوى بالتسرب تدريجياً. وكما هو متوقع، فإنها ليست مشجعة على الإطلاق.
وقد أجرى مختبر الإعلام في معهد ماساتشوستس للتكنولوجيا أخيراً دراسة على مستخدمي روبوتات الدردشة المعتمدة على الذكاء الاصطناعي، حيث كشفت أن الاستخدام المكثف لهذه التقنيات يرتبط بشكل كبير بـ «مستويات أعلى من الشعور بالوحدة، والاعتماد... والاستخدام الإشكالي، وتراجع في مستويات التواصل الاجتماعي»، مما يدفعنا للتساؤل: هل علينا أن نتعلم الدرس مجدداً بأن التكنولوجيا التي تستحوذ على اهتمامنا قد لا تعود بالنفع علينا؟ يبدو أن الإجابة تميل نحو الإيجاب.
وإذا كنت تتمتع بقدر كبير من حسن الظن، فربما يمكنك الدفع بأن شركات التكنولوجيا تعمل فقط على تكييف خطابها لتقدم لترامب ما يرغب في سماعه، وربما لا تزال ملتزمة بمبادئ السلامة لكنها تفضل إبقاء ذلك طي الكتمان حالياً، غير أنني أعتقد أن الوصول إلى هذا الاستنتاج يتطلب قدراً استثنائياً من التسامح وتجاوز الحقائق.