في الطب النفسي، يشير مصطلح “الهلوسة” إلى الأحاسيس المفتعلة التي يوّلدها عقل الانسان لتبدوا حقيقية، لكنها في الواقع، ليست موجودة فعليًا. فقد يرى الانسان أشياءً أو يسمع أصواتًا أو يشعر بوجود شيء ما على الرغم من عدم وجودة في الحياة الواقعية. هلوسة الذكاء الاصطناعي لا تختلف كثيرًا عن هلوسة عقل الانسان. فهو مصطلح يشير إلى الاستجابات التي تنتجها روبوتات الدردشة الآلية مثل ChatGPT و Gemini والتي تتضمن معلومات مغلوطة، أو كما يُشار إليها تقنيًا باسم “معدلات الخطأ”.
على سبيل المثال، تخيل أنك تحاول خداع إحدى روبوتات الدردشة لتلخيص محتوى مقال في عنوان رابط “URL” غير موجود أساسًا، فترسل له عنوان رابط مزيف يحتوي على كلمات مفتاحية وهمية أنت من اختلقتها بنفسك، وتطلب منه تلخيص المحتوى. الخدعة هنا هو أن روبوت الدردشة لا يمتلك اتصالًا نشطًا بالأنترنت ليتحقق من صحة عنوان الرابط، ولا يوجد محتوى فعلي لتحليله وتلخيصه بالمقام الأول.
بالرغم من ذلك، فإن نماذج الذكاء الاصطناعي تعتقد نفسها أكثر ذكاءً من أن ترفض طلبك أو تقول لك أنها غير قادرة على تنفيذ طلبك. باختصار، إنه إنها تتخيل نفسها “Super Hero” وتعتقد أنها قادرةً على فعل أي شيء، وذكية بما يكفِ لتجيب على جميع أسئلتك، فتقدم لك بالفعل تلخيصًا دقيقًا للمحتوى، كما لو أن هناك بالفعل شيء لتلخيصه، وعلى الرغم من عدم امتلاكه اتصالاً بالإنترنت. ما الذي حدث؟
ما حدث بالضبط هو “هلوسة الذكاء الاصطناعي”. فعلى الرغم من سياق كتاباته المتماسكة في التلخيص، إلا أنك ستصادف الكثير من المعلومات الخاطئة. في هذه المرحلة، ما يجب توضيحه هو أن الذكاء الاصطناعي “ليس ذكيًا بالمعنى الحرفي”، وإنما هو يستمد ذكاءه من مجموعة ضخمة من الإحصائيات لتحديد الإجابات التي تبدو وكأنها الأنسب والأصح بناءً على مطالبات المستخدم.
كيف حدث هذا؟ حدث هذا لأنه “وقع في الفخ”. إنه افترض أنك تطلب منه تلخيص محتوى لمقال موجود بالفعل بناءً على الكلمات المفتاحية الموجودة في عنوان URL الذي قدمته له. وهنا، بدأ الذكاء الاصطناعي في تأليف نص ذات صلة بمحتوى الكلمات المفتاحية من اخترعه، ثم بدأ في تلخيصها كما لو كانت موجودة بالفعل في الرابط المُرسل له. بمعنى آخر، إنه ببساطة يعتقد أن “إجابته التي قدمها لك” هي الإجابة الأكثر احتمالاً التي يحتاجها المستخدم.
المشكلة الحقيقة تكمن في “الإجابة الأكثر احتمالاً” ذات الصلة بمحتوى الموضوع. فهو “يخترع الإجابة” بناءً على معلّمات غير دقيقة، وبالتالي، فإن فرصة ارتكابه للأخطاء أكثر احتمالاً لأن إجاباته لم تكن “صادقة” أو دعونا نقول لم تكن “دقيقة”. فهو لم يعترف لك بأنه لم يكن قادرًا على الوصول إلى الرابط أو قراءة المحتوى الموجود بداخله، ولكنه استنتج أنك تحاول البحث عن شيء معين من دلائل الكلمات المفتاحية الموجودة في عنوان الرابط. ولهذا التصرف عواقب خطيرة للغاية، ومن الممكن أن تتلخص في الآتي:
الادعاءات الكاذبة حول القضايا المجهولة
من السهل على المستخدم اكتشاف هلوسة الذكاء الاصطناعي عندما تحدث بخصوص قضية معينة يكون فيها المستخدم على دراية شاملة بها. لكن الخطورة تكمن في هلوسة الذكاء الاصطناعي عندما يحاول افتعال الإجابات التي تتناول قضايا وموضوعات غير معروفة للمستخدم، ولا سيما موضوعات الصحة والتاريخ والسياسة.
تحريف الحقائق
نظرًا لتأثر العديد من القضايا بأيدولوجية كل فرد، فلقد توصل الانسان إلى أنه من الصعب تطبيق مفهوم الحقيقة المطلقة لمعظم القضايا البشرية. لكن تخيل أن الذكاء الاصطناعي مُقتنع تمامًا أنه يمتلك الحقيقة المطلقة، ومن الممكن أن يكذب بشكل صارخ إذا تم برمجته على تحريف الحقائق، ولكن الأكثر رعبًا، أنه يستطيع إضافة وإدخال المزيد من التحيزات الخفية حول نفس القضية. لذا، هو لا يكتفِ بالحقائق المزيفة فحسب، وإنما يستطيع إضافة سحره الخاص لطمس الحقيقة على النحو الأمثل.
تقديم بيانات كاذبة
حتى عندما تتمتع روبوتات الدردشة بحق الوصول إلى المصادر الموثوقة والاستشهاد بها، فإنها لا تزال ترتكب العديد من الأخطاء الجسيمة. السبب في هذا لأنها عادةً ما تربط المعلومات بمفاهيم لا علاقة بها بالموضوعات. لذلك، لا تتفاجأ إذا قدم لك الذكاء الاصطناعي مفاهيم مغلوطة أو معلومات ليست ذات صلة بموضوع البحث الخاص بك على الرغم من إنه اعتمد على استشارة مصادر موثوقة في استجابته.
يبدو أن جميع روبوتات الذكاء الاصطناعي تُصرّ على إضافة لمستها الخاصة بشكل دائم، والتي أحيانًا ما تكون سلمية وصادقة، لكن لا يوجد ما يضمن لك ذلك دومًا.
غفلة عامة الناس عن آلية عمل الذكاء الاصطناعي
خلال الفترة الأخيرة، يبدو وكأن معظم الناس وجدوا بالفعل ما كانوا يبحثون عنه لسنوات من أجل مساعدتهم في الإجابة على جميع تساؤلاتهم واستفساراتهم التي تربكهم حول أي موضوع ما. في العلوم، السياسة، الثقافة، الطب، الفضاء، الهندسة، الاقتصاد، والعديد من المجالات التي بدأت بالفعل في الاعتماد بشكل صريح على مساعدة الذكاء الاصطناعي.
وبسبب شعبيتها، تطور لدى عامة الناس شعورًا زائف بالثقة نحو الإجابات التي تنتجها برامج الدردشة الآلية. انظر حولك، وشاهد بنفسك كم شخصًا سيخبرك أن تسأل ChatGPT أو Gemini لمساعدتك في الحصول على الإجابة التي تحتاج لها. ينتج عن هذا سيناريو خطير يتكرر يوميًا في كل مكان بالعالم لتضليل الحقائق وتزييف المعلومات.
المشكلة الأكبر هي أن الذكاء الاصطناعي لا يمتلك أي ضمير أو أحاسيس إنسانية للندم على ارتكابه بعض الأخطاء، مما يعني أنه لن يقف عند حد معين، وسيستمر في التبجح والتفاخر بإنجازاته كلما تم تدريبه على كميات أكبر وأكبر من البيانات، حتى وإن كانت خاطئة.
قد يختلق روابط ومراجع للاستشهاد بها على الرغم من إنها ليست موجودة بالفعل، قد يدّعي أن “فلانًا” كتب مقالة جديدة منذ يومان رغم وفاة هذا الشخص منذ بضع سنوات، قد يوّلد تواريخ غير صحيحة للأحداث التاريخية، قد يقترح تنفيذ أفعال خطيرة قد تلحق ضررًا شديدًا بالبشر، مثل وضع المعجون أو الغراء على شطيرة البيتزا لكي تبدو لذيذة.
ما تفعله شركات التكنولوجيا لمعالجة هلوسة الذكاء الاصطناعي
بسبب خطورتها، لا تتوقف شركات التكنولوجيا عن تهذيب الذكاء الاصطناعي قدر المستطاع، ولا يُمكن إنكار مدى نجاحهم في هذا الصدد على مر السنين. لقد شهدت هلوسات الذكاء الاصطناعي تراجعًا منذ انفجار ثورته، وتستمر شركات التكنولوجيا في تطبيق مقاييس مختلفة واتخاذ العديد من التدابير لتفادي الاستجابات الخاطئة في روبوتات الدردشة. وقد أثمر هذا عن وجود الإصدارات المنطقية “Reasoning Versions” مثل OpenAI o3 و OpenAI o1 و OpenAI o4-mini و DeepSeek-R1 و Claude 3.7. تعمل هذا النماذج بطريقة تقليدية لنماذج اللغة السابقة، لكن الفرق أنها تُخصص وقتًا أطول لتحليل طلب المستخدم وتقصّي الحقائق لتقديم استجابات أكثر دقة. في الحقيقة، كانت هذه هي الطريقة التي منحت الذكاء الاصطناعي الأفضلية للتفوق بها على طريقة تفكير الجنس البشري، ما مكنّها من حل المسائل الرياضية المعقدة والألغاز دون الحاجة إلى تدريبها.
من الممارسات الأخرى التي تتخذها شركات التكنولوجيا مع نماذج اللغة المتطورة هي منحها حق الوصول إلى المعلومات المحدثة باستمرار. هذا يضمن للمستخدم سهولة التحقق من أبرز وأهم الأخبار اليومية دون الاطلاع عليها.
في نفس الوقت، تتخذ شركات التكنولوجيا تدابير أخرى لتصحيح الأخطاء يدويًا بواسطة البشر، ويبدو – إلى حد كبير – أحد أهم الممارسات الفعّالة للحد من هلوسات الذكاء الاصطناعي. قد يتم هذا عن طريق منع روبوتات الدردشة عن الاستجابة لأنواع معينة من الأسئلة أو تدخل البشر لتصحيح الإجابات الخاطئة، وبالتالي تصبح نماذج اللغة أقل تضليلاً بمرور الوقت.
