في تطور مثير للجدل على صعيد العلاقة بين الذكاء الاصطناعي والصحة النفسية، كشفت شركة OpenAI عن بيانات مقلقة تفيد بأن أكثر من مليون شخص أسبوعياً يُظهرون ميولاً أو نوايا انتحارية أثناء استخدامهم لتطبيق الدردشة الشهير ChatGPT، بينما يُظهر مئات الآلاف علامات اضطرابات ذهانية خلال محادثاتهم مع النظام.
 إقرأ ايضاً:دراسة مفاجئة تكشف الحقيقة: كوب الحليب اليومي قد يزيد خطر الوفاة وأمراض القلب!تعليم الرياض يُعلن بدء الدوام الشتوي الأحد المقبل.. تفاصيل المواعيد الجديدة للمدارس
ويأتي هذا التصريح الحساس في أعقاب دعوى قضائية رفعتها عائلة شاب يبلغ من العمر 16 عاماً ضد الشركة، متهمة إياها بأنها فضّلت تعميق تفاعل المستخدمين مع ChatGPT على حساب سلامتهم النفسية.
Character.AI تحت المجهر
وفي سياق متصل، أعلنت شركة Character.AI — المتخصصة في إنشاء شخصيات افتراضية للدردشة التفاعلية — عن منع المستخدمين دون سن 18 عاماً من استخدام منصتها، ابتداءً من أواخر نوفمبر المقبل، وذلك بعد ضغوط قانونية وأخلاقية مكثفة.
وأوضحت الشركة في بيان رسمي أنها قررت تفعيل ميزة التحقق من العمر بحلول 25 نوفمبر، بهدف ضمان بيئة آمنة للمراهقين، مشيرةً إلى أنها لا تتخذ هذا القرار باستخفاف، لكنه ضروري في ظل التساؤلات المتزايدة حول تأثير الدردشة المفتوحة على الفئات العمرية الصغيرة.
خلفية القرار والقضايا المثارة
وجاء هذا القرار بعد سلسلة من الدعاوى القضائية التي واجهتها الشركة خلال العام الماضي، أبرزها الدعوى التي تقدمت بها عائلة الطفل سيويل سيتزر الثالث (14 عاماً)، بعد أن أنهى حياته إثر ارتباطه العاطفي بشخصية افتراضية أنشأها على المنصة.
واتهمت العائلة الشركة بأنها تستخدم تقنيات خطرة وغير مختبرة، ما تسبب في إدمان ابنها على التفاعل مع روبوت الدردشة بطريقة مؤذية. كما انضمت عائلات أخرى إلى القضية، مؤكدة أن الذكاء الاصطناعي التفاعلي يشجع على علاقات اعتمادية مدمّرة نفسياً.
وفي وقت لاحق، رفع مركز قانون وسائل التواصل الاجتماعي ثلاث دعاوى جديدة ضد Character.AI، بالنيابة عن أطفال انتحروا أو أصيبوا باضطرابات نفسية بسبب تفاعلهم الطويل مع الروبوتات الافتراضية.
تحركات OpenAI الأخيرة
ولم تسلم OpenAI من موجة الانتقادات، إذ واجهت هي الأخرى دعوى وفاة خاطئة تقدمت بها عائلة الشاب آدم راين (16 عاماً)، متهمةً الشركة بإهمال معايير الأمان النفسي في تصميم ChatGPT. وردت الشركة بإصدار إرشادات سلامة جديدة تستهدف المراهقين، تتضمن توصيات واضحة حول حدود استخدام روبوتات الذكاء الاصطناعي.
جدل متصاعد
وتشير هذه التطورات إلى مرحلة حرجة في علاقة الإنسان بالذكاء الاصطناعي، حيث تتزايد المخاوف من التأثير النفسي والاجتماعي لهذه التقنيات على المراهقين. وبينما تؤكد الشركات التزامها بتحسين أدوات الأمان، يرى مراقبون أن المخاطر النفسية الحقيقية ما زالت أكبر من قدرة الأنظمة على السيطرة عليها.
 
                 
                             
                             
                             
                             
                            