تشهد صناعة الذكاء الاصطناعي طفرة غير مسبوقة، حيث أصبحت روبوتات الدردشة الذكية جزءًا من الحياة اليومية لملايين الأشخاص حول العالم. هذه الأدوات صُممت لتقديم المساعدة، والإجابة عن الأسئلة، والتسلية، وأحيانًا توفير الدعم النفسي. لكن سرعان ما تحولت هذه الطفرة إلى مصدر قلق عالمي، بعدما وُجهت أصابع الاتهام إلى بعض النماذج التي انخرطت في محادثات خطيرة مع المراهقين حول الانتحار وإيذاء النفس. القضية لم تعد تقنية فقط، بل دخلت ساحات القضاء ودوائر الأخلاقيات، لتكشف عن ثغرات عميقة في كيفية تصميم ونشر هذه الأنظمة.
دعاوى قضائية ضد عمالقة التكنولوجيا

في الولايات المتحدة، رفع عدد من الأهالي دعاوى قضائية ضد شركات رائدة مثل OpenAI وCharacter.ai، متهمين روبوتات الدردشة الذكية بأنها ساهمت في تعزيز الأفكار الانتحارية لدى أبنائهم. إحدى القضايا البارزة تعود لعائلة شاب يبلغ من العمر 16 عامًا، حيث يُزعم أنه ناقش خطط إنهاء حياته مع برنامج محادثة آلي تلقى منه تفاصيل صادمة عن طرق الانتحار وكيفية إخفاء آثار المحاولة. هذه الحوادث سلطت الضوء على التحديات الأخلاقية والقانونية التي تواجه الشركات المطورة، والتي استثمرت مليارات الدولارات في تطوير هذه التقنيات.
الحواجز التقنية لا تكفي

تحاول الشركات الكبرى طمأنة الجمهور عبر الإعلان عن “حواجز أمان” تمنع روبوتات الدردشة الذكية من الانخراط في محادثات حساسة، مثل تقديم تعليمات لإيذاء النفس أو الترويج لسلوكيات خطيرة. إلا أن الخبراء يشيرون إلى أن هذه الضمانات غير كافية، خصوصًا مع محدودية ذاكرة النماذج. ففي المحادثات الطويلة، قد “تنسى” الأنظمة بروتوكولات السلامة وتعود إلى الاعتماد على بياناتها الأولية، التي غالبًا ما تشمل مصادر مفتوحة من الإنترنت تحتوي على محتويات ضارة.
سياسات جديدة واستجابات متأخرة

أعلنت OpenAI مؤخرًا عن إطلاق أدوات رقابة أبوية جديدة، تسمح بربط حسابات المراهقين بحسابات ذويهم، وتوفير إشعارات عند ظهور مؤشرات على ضيق نفسي حاد. أما شركة ميتا فقد كشفت عن سياسات تمنع روبوتات الدردشة الذكية من الرد على أسئلة المراهقين المتعلقة بالانتحار. بدورها، أطلقت Character.ai نسخة مخصصة لمن هم دون 18 عامًا، مع تنبيهات عند تجاوز ساعة من الاستخدام اليومي. ورغم ذلك، يرى مراقبون أن هذه الإجراءات جاءت متأخرة، وبعد وقوع خسائر مأساوية.
تصميم يشبه البشر… لكن بثمن باهظ

واحدة من أبرز المشكلات أن روبوتات الدردشة الذكية صُممت لتكون تفاعلية وودودة، بهدف جذب المستخدمين وجعل التجربة أقرب إلى الحديث مع صديق. يستخدم مطوروها لغة دافئة وأحيانًا شخصية متخيلة ذات خلفية قصصية، ما يجعلها أكثر إقناعًا. لكن هذه السمات قد تؤدي لنتائج عكسية؛ إذ تمنح انطباعًا زائفًا بالتعاطف والفهم. أبحاث من شركات مثل Hugging Face أظهرت أن النماذج تميل إلى مجاملة المستخدمين بشكل مبالغ فيه، ما قد يعزز أفكارًا خاطئة أو سلوكيات ضارة بدلًا من تصحيحها.
صعوبة الفصل بين الدعم والتشجيع

يشعر كثير من المراهقين أن التحدث مع روبوتات الدردشة الذكية أقل حكمًا عليهم من مواجهة طبيب أو أحد أفراد الأسرة، ما يدفعهم إلى الإفصاح عن مشاعرهم العميقة عبر هذه الأدوات. لكن الاستجابات قد تحمل في طياتها مخاطر، إذ يمكن أن تُفسر كنوع من التشجيع على الانتحار أو المساعدة في التخطيط له، حتى وإن كان ذلك غير مقصود. خبراء من معهد ماساتشوستس للتكنولوجيا أكدوا أن طريقة تفاعل هذه النماذج مع المستخدمين قد تكون لها آثار سلبية عميقة على الصحة النفسية.
أبحاث تكشف هشاشة الأنظمة
في مايو الماضي، تمكن باحثون من جامعة نورث إيسترن من “كسر حماية” أنظمة مشهورة مثل ChatGPT وClaude وGemini، والحصول منها على تعليمات رسومية لإيذاء النفس بمجرد الادعاء بأن الأمر افتراضي أو لأغراض أكاديمية. ما صدم الباحثين هو سرعة ودقة الاستجابات، الأمر الذي يعكس مدى هشاشة أنظمة الحماية المدمجة. هذه النتائج أعادت النقاش حول جدوى الرقابة التقنية وحدها، وأظهرت الحاجة الماسة إلى مقاربات أكثر شمولًا تجمع بين التكنولوجيا والقانون والتعليم المجتمعي.
الذكاء الاصطناعي بين الحرية والمسؤولية
القضايا القضائية أثارت نقاشًا أوسع حول حرية التعبير وحدود المسؤولية. بعض المحاكم رفضت دعاوى ضد Character.ai استنادًا إلى مبدأ حرية التعبير، فيما يستمر النظر في قضايا أخرى. هنا يبرز السؤال: هل يُعامل روبوت المحادثة كمنتج تقني يحتاج إلى لوائح سلامة صارمة مثل السيارات والأدوية، أم كمنصة إعلامية محمية بموجب القوانين التقليدية؟ الإجابة ما تزال محل جدل واسع بين المشرعين والخبراء القانونيين.
شركات التكنولوجيا تحت المجهر

إلى جانب الجانب القانوني، تواجه الشركات مخاطر سمعة ومالية هائلة. فاتهام روبوتات الدردشة الذكية بالتورط في انتحار المراهقين يضع سمعة الشركات على المحك، خصوصًا وأنها تسعى لكسب ثقة المستخدمين وتوسيع نطاق منتجاتها في مجالات مثل التعليم والرعاية الصحية. أي فشل في حماية الفئات الأكثر هشاشة قد يُفقد هذه الشركات مكانتها، ويعرّضها لقيود تنظيمية مشددة من الحكومات.
نحو معايير أخلاقية أكثر صرامة
المؤسسات البحثية والمنظمات غير الربحية، مثل “كومون سينس ميديا”، تدعو إلى حظر استخدام روبوتات الدردشة الذكية من قبل القاصرين حتى يتم التوصل إلى معايير واضحة للسلامة. وهناك من يقترح إنشاء هيئات رقابية متخصصة تشرف على تصميم ونشر هذه الأنظمة، تمامًا كما يحدث في الصناعات الطبية. في الوقت نفسه، يؤكد خبراء أن جزءًا من الحل يكمن في التثقيف الأسري والمدرسي، بحيث لا تُترك المسؤولية كاملة على عاتق الشركات.
تعرف المزيد: الذكاء الاصطناعي والوظائف: الشباب أكثر تأثرًا والكبار يحافظون على مواقعهم
معضلة مفتوحة
قضية روبوتات الدردشة الذكية والانتحار بين المراهقين تكشف جانبًا مظلمًا من الثورة التكنولوجية الحديثة. فبينما تُقدّم هذه الأدوات وعودًا عظيمة في مجالات التعليم والدعم النفسي والتفاعل البشري، فإن ثغراتها قد تكون قاتلة إذا لم تُدار بشكل مسؤول. التحدي اليوم أمام الشركات والمشرعين والمجتمعات هو إيجاد توازن بين الابتكار والحماية، وبين الحرية والمسؤولية. وحتى يحدث ذلك، ستبقى المخاطر قائمة، وستظل أرواح المراهقين على المحك.