لا شك بأن نُظم الذكاء الاصطناعي غيّرت وجه العالم، لكن ماذا لو كانت تخدع ذكاء البشر؟

الدوحة، قطر،25 أغسطس 2025: لم يعد الذكاء الاصطناعي دربًا من دورب الخيال، فهو أصبح قادرًا على اكتشاف الأورام السرطانية، وترجمة اللغات المحكية، وتأليف المقطوعات الموسيقيّة، وكتابة الرسائل النصيّة، والتعريف بالوجهات السياحية، وحتى الدردشة مع المستخدمين. ولهذا السبب، أصبح الناس يعتمدون عليه أكثر من أي وقتٍ مضى. فالبعض وجد فيه الرفيق والمستمع الجيد الذي لا ينازعه الرأي ولا يسيء الظن به، فيما اعتمده آخرون وسيلة لحل مشكلاتهم أو بئرًا لأسرارهم - غالبًا دون وعيٍ منهم أو إدراكٍ لخطورة هذا الانقياد الأعمى.
لقد دأب البعض على الأخذ برأي هذه النظم التكنولوجية الفائقة الذكاء في كل أمورهم وأحوالهم – بدءًا من اختيار الملابس والوجبات، ووصولًا إلى الحصول على الفرص والحلول المتعلقة بحاضرهم ومستقبلهم. بل إن البعض لكي يصلوا إلى مُرادهم ويحصلون على إجاباتٍ شافية لأسئلتهم، يقومون بإعادة صياغتها مرارًا وتكرارًا. يرى الكثيرون أنهم وجدوا في نظم الذكاء الاصطناعي خلاصًا من الشك وعدم اليقين؛ لكن، بينما يُعيد الذكاء الاصطناعي تشكيل وسلوكنا ومسؤولياتنا واختياراتنا، فإنه لا يزال بعيدًا عن الكمال؛ بل إنه يقوم باختلاق الإجابات في كثيرٍ من الأحيان فقط لأجل إرضاء السائل.
فمرحبًا بكم في عالم الذكاء الاصطناعي الرائع، الذي لا يخلو من هفوات وتخيّلات.
يُعرّف الدكتور وجدي زغواني، أستاذ مشارك في جامعة نورثويسترن في قطر، إحدى الجامعات الدولية الشريكة لمؤسسة قطر، هلوسة الذكاء الاصطناعي بإنتاج معلومات تبدو في ظاهرها صحيحة، لكنها في حقيقة الأمر خاطئة أو مُختلقة. فهو يقول: "تخيّل الأمر كما لو أن أحدهم يروي قصة تبدو معقولة، لكن أحداثها خاطئة تمامًا".
"لقد رأيتُ بعض الحالات المُلفتة خلال رحلتي البحثية، ومن الأمثلة الشائعة التي وقفت عليها توليد أنظمة الذكاء الاصطناعي لمراجعٍ أكاديمية مُزيّفة، فهي تقوم بإنشاء عناوين لأوراق بحثية تبدو منطقية، كذلك إدراج أسماء مؤلفين ومجلات؛ لكن في حقيقة الأمر أن هذه الأوراق لا وجود لها على الإطلاق".
وأضاف: "خلال عملي بمعالجة اللغة العربية الطبيعية، رأيتُ أنظمةً تُولّد أمثالًا عربية مُزيّفة لا أساس لها في ثقافتنا العربية. لا أستطيع أن أُنكر أسلوبها اللغوي البارع، لكنها تُنشئ محتوى ثقافيًا خياليًا".
تطرح وجهة نظر الدكتور وجدي العديد من التساؤلات حول أنظمة الذكاء الاصطناعي، فماذا لو أخطأت الآلة؟ ولماذا علينا تفادي إقحامها بقراراتٍ مصيرية؟ ومن هو المسؤول عن هذا الخطأ؟ هل تشعر بالضغط كما نشعر به نحن البشر؟ هل تبغض كلمة "لا أعلم؟" أم اختلطت عليها الأمور وأنهكها حجم البيانات وحُمّلت فوق طاقتها.
يوضح الدكتور وجدي أسباب حدوث هذه الأخطاء ويقترح حلولًا لتفاديها، قائلًا: "للأسف، تحدث هذه الأخطاء جراء الطريقة التي تعمل بها هذه النظم، بما في ذلك ChatGPT أوClaude، فهي في الأساس آلات مُتقدّمة للغاية. وتُدرّب من خلال أعداد هائلة من النصوص، إلى الحد الذي يجعلها بارعة في التنبؤ بباقي الجُمل. لكن المشكلة تكمن في جهلها بالحقائق التي نحن على دراية بها، فعندما يُولّد الذكاء الاصطناعي اسمًا مُزيّفًا أو معلومةً خاطئة، فذلك لأن البيانات التي بحوزته هي التي تفضي به إلى الإتيان بمثل هذه النتيجة أو ما يشابهها".
"لهذا، أنصح الناس دائمًا بتوخي الحذر الشديد عند طرح الأسئلة أو تزويد نظم الذكاء الاصطناعي بمعلوماتٍ تتعلق بصحتهم أو ثرواتهم أو وضعهم القانوني. فهذه النظم لا تتحمل أي مسؤولية مهنية أو مساءلة قانونية، على خِلاف الإنسان. وتُعدّ الاستشارات الطبية خطيرة بشكل خاص لأن عواقب المعلومات الخاطئة قد تكون وخيمة. كما أن الاستشارات المالية قد تؤدي إلى خسائر فادحة، فيما تؤول الاستشارات القانونية إلى مشاكل خطيرة".
مع ذلك، يقول الدكتور وجدي: "يُمكننا الاستفادة من الذكاء الاصطناعي فيما يتعلق بالمعرفة العامة، أو المهام الإبداعية، أو الكتابة، أو التخطيط للرحلات، أو شرح المفاهيم؛ باختصار، أي شيء يُمكن التحقق من صحته بسهولة أو ينتج عنه خطأ طفيف ليس كارثيًا".
فكيف نستفيد من الذكاء الاصطناعي دون أن ننخدع بنتائجه؟
يُجيب الدكتور وجدي عن هذا السؤال قائلًا: "على المستخدم أن يحذر من الحقائق التي يُقدّمها الذكاء الاصطناعي دون ذكر مصادرها، لا سيما التواريخ أو الأرقام أو الاقتباسات. بخصوص المعلومات التي تبدو مُبالغًا فيها أو تُطابق ما يرغب المستخدم في سماعه، فإن على المستخدم الذي يبحث في أمرٍ مثيرٍ للجدل، وقدم الذكاء الاصطناعي الدليل الذي يتوقعه بالضبط، التحقق جيدًا من النتائج التي قد يحصل عليها".
وعليه، لا ينبغي لمستخدمي نظم الذكاء الاصطناعي أخذ إجاباته على أنها من المُسلّمات الخالية من الأخطاء – عليهم أن يبذلوا الجهد عند التنقيب عن المعلومات، فالأمر لا يقتصر على الأخلاقيات فحسب، بل يتعداه ليشمل مخاطر وتبعيات.
ولكن هل هناك طريقة لوقف هذه الهلاوس؟ أم أنه سنكون مجبرين على التعامل معها دائمًا؟
يوضح دكتور وجدي هذا الأمر بقوله: "هذه هي القضية التي تشغلنا الآن، أعتقد بأن استبعاد الأخطاء بشكل كامل يبقى أمرًا بالغ الصعوبة، لأن الهلوسة تنبع من طبيعة عمل هذه النظم، التي تقوم على فرضيات احتمالية وليس على قواعد بيانات معرفية ذات مرجعيات علمية حقيقية. ومع ذلك، فإننا نحرز تقدمًا ملحوظًا، إذ يُمكن للذكاء الاصطناعي أن يُزوّد المستخدم بمعلومات مستخرجة من خلال قاعدة بيانات مُتحقق من صحتها مسبقًا. كما أننا نعمل على تطوير أساليب تدريب أفضل وطرق لتعليم النظم على قول "لا أعلم" بشكل أكبر بدلاً من تخمين الإجابات".
خلفية عامة
مؤسسة قطر
تأسست مؤسسة قطر للتربية والعلوم وتنمية المجتمع سنة 1995 بمبادرةٍ كريمةٍ من صاحب السموّ الشيخ حمد بن خليفة آل ثاني أمير دولة قطر بهدف تنمية العنصر البشري واستثمار إمكاناته وطاقاته.
توجّه مؤسسة قطر اهتماماتها إلى ثلاثة مجالات هي التعليم والبحث العلمي وتنمية المجتمع، كونها ميادين أساسية لبناء مجتمع يتسم بالنمو والإستدامة، وقادر على تقاسم المعارف وابتكارها من أجل رفع مستوى الحياة للجميع. تُعد المدينة التعليمية أبرز منجزات مؤسسة قطر وتقع في إحدى ضواحي مدينة الدوحة، وتضمّ معظم مراكز المؤسسة وشركائها.