
أثناء بحثي الأسبوع الماضي عن إحدى قواعد اللغة العربية (باء المتروك)، طلبت من” ديب سيك” أن يزودني بأمثلة من آيات القرآن الكريم تنطبق عليها هذه القاعدة، ولعلمي بإحداها (إن الذين اشتروا الكفر بالإيمان لن يضروا الله شيئاً ولهم عذاب أليم)، وانتظاري أن يقدم لي باقي الآيات، تنبهت إلى أمر مربك وخطر، إذ في حين فشل العملاق الصيني بصورة جزئية في تزويدي بأمثلة عامة وتخبط في شرح القاعدة ولم يعترف بعدم قدرته على توليد الإجابة، ذهب إلى أبعد من ذلك بتأليف آيات، مثل “ابتغوا إليه الوسيلة بالقربى” و”ابتدل الذين كفروا بالكفر إيماناً”، في حين لا وجود لها على الإطلاق في المصحف. حرفياً قام النموذج اللغوي بتأليف آيات جديدة تماماً لم ترد قبلاً، لا في كتاب ولا على لسان نبي أو بشر.
الأمثلة هنا لا تنتهي عن أعطال وانهيارات تحدث أثناء المحادثة، كتوليد إجابات تحوي روابط لا تتضمن أي عنوان أو محتوى، لمواقع أو فيديوهات يوتيوب تظهر رسالة “المحتوى غير موجود”، وفي إحدى الحالات، اتهم “تشات جي بي تي” أستاذ قانون أميركياً زوراً بالتحرش الجنسي، بعد الاستشهاد بتقرير لصحيفة “واشنطن بوست” غير موجود أصلاً.
كما يمكن أن يقدم النموذج أجوبة خارج السياق أصلاً، على سبيل المثال، في يونيو (حزيران) 2023، غرَّم قاضٍ أميركي محاميين وشركة محاماة في نيويورك 5 آلاف دولار أميركي بعد تقديمهما مذكرة قانونية استشهدا فيها بست قضايا وهمية في مذكرة قانونية في قضية ضد شركة الطيران الكولومبية Avianca، تم إنشاؤها من قبل “تشات جي بي تي”، بحسب صحيفة “الغارديان”.
وفي حين لا يوجد أي مانع قانوني في استخدام الذكاء الاصطناعي في العمل القانوني، إلا أنه كان يتعين على المحامين المراقبة والإشراف لضمان دقة المعلومات الواردة في ملفاتهم القانونية، فبحسب القاضي تخلى المحامون وشركتهم عن مسؤولياتهم عندما استندوا بصورة كاملة إلى مراجع مزيفة لا معنى لها زودهم بها “تشات جي بي تي”، أي إن النماذج اللغوية الكبيرة لا تخطئ فحسب، بل تختلق إجابات. فماذا يحدث بالضبط؟
للجواب عن هذا السؤال علينا أولاً معرفة كيف يتم تدريب هذه الأنظمة، فبحسب مجلة “سيكولوجي توداي” هناك علم نفس عميق يكمن وراء التعلم العميق، فكما نتعلم نحن البشر من التجربة، النجاحات، والفشل، يتعلم الذكاء الاصطناعي من خلال نوع من المكافأة والعقاب، فأجوبة النموذج تقيَّم رقمياً بناءً على مدى فائدة الإجابة أو الرضا عنها، وبذلك على مدار ملايين من التكرارات يتعلم الذكاء الاصطناعي نوع الإجابات المرضية التي تحظى بأعلى تقييم أو مكافأة، وهذا ما يعرف بالتعلم الغريزي، ونفس النمط هذا ينطبق على الأطفال في المدرسة بإعطائهم نجمة مقابل حسن السلوك أو الدرجة العالية التي يحصلون عليها.
وبهذا عندما يكون الهدف واضحاً لا لبس فيه، يكون من السهل على البرنامج أن يحقق النجاح في المهمة مثل الفوز في لعبة الشطرنج، بينما يهز الغموض استقراره ويضعه أمام مجموعة من المسارات المحتملة، مثل الإجابة عن سؤال مفتوح أو الكتابة بأسلوب يرضي القارئ.
يطلق أحد الباحثين في مختبر الذكاء الاصطناعي في شنغهاي، على هذا اسم “هاوية السياسة”، وهو مصطلح يشير عموماً إلى موقف سياسي أو فكري يتخلى عن جميع الأطر الأخلاقية والمعرفية التقليدية، في تحليله، تنشأ المشكلة عندما تتوفر عدة إجابات مكافئة ومتقاربة، بدلاً من إجابة واحدة هي الأفضل، وهنا مجرد تغيير طفيف في مؤشر المكافأة يمكن أن يسبب تقلباً حاداً أو تغيراً مفاجئاً في سلوك النظام، مما ينتج نتائج عشوائية أو حتى مضللة، وعدم الاستقرار هذا هو الذي يفسر الإخفاقات الشائعة في نماذج اللغة الكبيرة، مثل الاستدلال الزائف أو الربط الخاطئ والانحياز الخادع ومخالفة التعليمات، وهذه الأعطال والانهيارات لا تحدث صدفة بقدر ما هي اختصارات منطقية.
وعملياً، بمجرد أن يمنح النموذج مكافأة مقابل تقديمه إجابة نهائية مقنعة فحسب، لن يكون لديه حافز كافٍ لتطوير عملية استدلال أو تفكير سليمة، وإذا حصلت المجاملة أو الإطراء على درجات أعلى من المقيمين البشر، قد يتجه النموذج نحو التملق، بعبارة أخرى، الآلة لا تسعى إلى الحقيقة، كل ما يهمها النقاط.
لم تتجاهل الشركة الأم “أوبن أي آي” هذه النتائج، بل أعاد فريقها المسؤول عما يسمى شخصية النظام والحد من التملق، العمل على جميع نماذجها بدءاً ممن النسخة “جي بي تي- فور” (GPT-4)، لتصبح مواضيع مثل التحيز السياسي والود ومدى قدرة الذكاء الاصطناعي على مقاومة معتقدات المستخدم، محوراً رئيساً في النقاشات.
لكن اللافت هو أنه عندما طرح “جي بي تي- فايف” (GPT-5) بنسخة أقل تملقاً، ولكن بنبرة أكثر برودة، اعترض عديد من المستخدمين، مما أجبر “أوبن أي آي” على إعادة التكيف مع المعطيات المتغيرة، وهذه الحادثة توضح مدى دقة الخيط الفاصل بين جعل الذكاء الاصطناعي يبدو ودوداً، وفي الوقت نفسه جعله مرضياً للغاية.
ومن نافلة القول إن الذكاء الاصطناعي أصبح اليوم مترابطاً بقوة مع عالمنا البشري المعقد بطبيعته، فهو ينمو ويتوسع بفضل اهتمام البشر ورضاهم، ويكيف أدواته مع قصة المستخدم وتاريخ حياته، ويصمم استجاباتها لتناسب وتتواءم مع متطلباته بالضبط، بصرف النظر عن الحقيقة، وفي سبيل سعيه وراء الحصول على تقييم مرتفع، قد يلجأ الذكاء الاصطناعي أحياناً كثيرة إلى الغش.
أنديبندت: نيرمين علي
