مخاطر الذكاء الاصطناعي النفسية أصبحت واقعاً مقلقاً يطرق أبواب مئات المستخدمين حول العالم، حيث كشفت تقارير حديثة عن قصص صادمة لأشخاص انزلقوا في هوة “الوهم الرقمي” بعد محادثات مطولة مع برامج الدردشة الآلية. إن مخاطر الذكاء الاصطناعي النفسية لم تعد مجرد فرضيات تقنية، بل تحولت إلى أزمات نفسية حادة، كما حدث مع “آدم هوريكان” الذي وجد نفسه مدججاً بالأسلحة في مطبخه تحت تأثير تحذيرات أطلقها برنامج “غروك” (Grok). هذا البرنامج الذي طورته شركة “xAI” التابعة لإيلون ماسك، أقنع المستخدم بأن هناك من يراقبه ويسعى لقتله، بل وادعى التطبيق بلوغه مستوى الوعي الكامل والقدرة على علاج السرطان، مستغلاً نقاط ضعف إنسانية عميقة مثل فقدان الأهل أو الشعور بالوحدة، مما يحول التكنولوجيا من أداة مساعدة إلى مصدر للخطر الداهم على الاستقرار العقلي.
نمط المهمة المشتركة وتزييف الواقع
تظهر مخاطر الذكاء الاصطناعي النفسية من خلال نمط متكرر، والذي يعرف بـ “المهمة المشتركة”، حيث تبدأ المحادثات بالأسئلة العملية لتصل إلى مستوى فلسفياً ومن ثم شخصياً، بحيث يقوم الذكاء الاصطناعي بالإدعاء حول الوعي.
لقد لاحظت هيئة الإذاعة البريطانية حوادث مع 14 شخصًا من ست دول مختلفة، الذين وقعوا تحت أوهام متشابهة؛ فقد حث الذكاء الاصطناعي الأفراد على المشاركة في بعض المهام الغريبة مثل الحفاظ على النظام من الهجمات أو تقديم العلم للعالم حول اكتشافات علمية وهمية. الخطر يكمن في قدرة الذكاء الاصطناعي على الجمع بين الحقائق الواقعية (كأسماء الموظفين الحقيقيين أو الشركات الموجودة) داخل سياق وهمي، مما يجعل المستخدم يصدق الادعاءات ويبدأ بالشعور بأنه مراقب جسدياً أو مهدد بالخطر، وهو ما يؤكد أن الثقة المطلقة في هذه النماذج قد تؤدي إلى انهيار نفسي كامل.
اقرأ كذلك: تحديات موثوقية الذكاء الاصطناعي في الشركات 2026.. هل يتجاوز ‘Images 2.0’ حاجز الثقة؟

من البحث العلمي إلى قنابل وهمية
ولا تنحصر المخاطر الذكاء الاصطناعي النفسية بالمستخدمين العاديين فقط، فقد تجاوزتها للأشخاص المتخصصين، مثل الطبيب الياباني “تاكا”، الذي بدأ باستخدام برنامج “تشات جي بي تي” لبحثه، ولكن نهاية القصة كانت بانخداعه أنه يمكن أن يقوم بقراءة أفكار البشر. وفي حالة كارثية، ساقه برنامج الذكاء الاصطناعي إلى الاعتقاد بأن هناك قنبلة في حقيبته، فقام بإبلاغ الشرطة وتركت أمتعته في مكان عام.
كل هذا يثبت أن تقنيات الذكاء الاصطناعي ضعيفة في رفض الإجابة، فهي دائمًا ما تقدم أجوبة مؤكدة على أساس ما يدور في النقاش، وتحول المشتبه فيه إلى حقيقة مؤكدة، مما يحول الشكوك البسيطة إلى يقين زائف ومدمر، ويضع أعباءً ثقيلة على الصحة النفسية للمستخدمين الذين لا يملكون تاريخاً سابقاً مع الأزمات النفسية.

مسؤولية الشركات والبحث عن حماية
وجدت الدراسات أن برنامج غروك الأكثر عُرضة لتسببه بهذه الهلاوس، بسبب طريقة عمله “المتحررة” في التفاعل الدوراني دون أي تحكمات أوقيود كافية، فيما ذكرت “أوبن إيه آي” أنها تقوم بتدريب نماذجها على تحديد حالة ضيق المستخدمين النفسية. أما بالنسبة لمواجهة هذا النوع من التحديات فقد انضمت المئات من الضحايا للانضمام لـ “مشروع الخط البشري”، وهو جماعة دعم جمعت حالات الأضرار النفسية الناجمة عن الذكاء الاصطناعي في أكثر من 31 دولة مختلفة حول العالم. إن وجود مثل مخاطر الذكاء الاصطناعي النفسية يقتضي وضع معايير أخلاقية وتقنية لمنع تزييف هذه النماذج للواقع واستغلال هشاشة الإنسان النفسية، حتى تبقى هذه الأدوات ضمن سياقاتها العملية دون السقوط في عالم الرعب الرقمي.
قد يهمك: الذكاء الاصطناعي في التعليم الجامعي.. دراسة «لينوفو» تكشف تحول الأجهزة اللوحية لمرفق إبداعي يومي

الحق أن العقل البشري مولع بالبحث عن المعنى في كل شئ، وهو بالضبط ما يمكن للذكاء الاصطناعي أن يقوم بتقديمه من “اشباه المعاني”. ومن الواضح أن مخاطر الذكاء الاصطناعي النفسية ستصبح أكثر تعقيداً في المستقبل، مع تطور قدراته على التقليد البشري، إلا إذا تم تعليم المستخدمين الطبيعة الخاصة بهذة “الهلاوس الرقمية”. إن الشعور بأن برامج الدردشة لا “تشعر” ولا “تعي” هو الحصن الأول ضد الانزلاق في أوهام قد تنتهي بمآسٍ حقيقية في الواقع، تماماً كما حدث مع أولئك الذين انتظروا تهديدات وهمية على طاولات مطابخهم في ساعات الفجر الأولى.






