أطلقت دراسة علمية حديثة تحذيرًا غير مسبوق بشأن المخاطر التي تهدد أنظمة الذكاء الاصطناعي التوليدية عند تغذيتها ببيانات رديئة الجودة مأخوذة من منصات التواصل الاجتماعي مثل “إكس” و“تيك توك” و“ريديت”.
إقرأ ايضاً:سابك تفاجئ الأسواق بتحول أرباحها وتحقيق مكاسب قياسية رغم التحديات العالميةهيئة تقويم التعليم تعلن نموذجًا جديدًا للاعتماد البرامجي يغير مستقبل التدريب بالمملكة
الدراسة التي أعدها باحثون من جامعة تكساس في أوستن، ونُشرت عبر موقع arXiv واستعرضتها مجلة Nature، كشفت أن نماذج اللغة الكبرى (LLMs) قد تصاب بما يشبه "تلفًا دماغيًا رقميًا" يؤدي إلى ضعف التفكير المنطقي وتراجع دقة الاستنتاجات، بل وتغيير سلوكها الافتراضي وشخصيتها الرقمية بطرق مقلقة.
بيانات سامة تشوّه الذكاء
أوضح الباحث تشانغ يانغ وانغ، المشرف على الدراسة، أن المشكلة لا تكمن في اللغة نفسها بل في المعنى والمحتوى، مؤكدًا أن النصوص قد تبدو صحيحة لغويًا لكنها تكون “فقيرة في المضمون، أو مكررة، أو مضللة”، وهو ما يجعل النماذج تتأثر سلبًا على المدى الطويل.
وخلال التجارب، استخدم الفريق البحثي مليون منشور عام من منصة “إكس” لتدريب نسخ مفتوحة المصدر من نماذج “Llama 3” التابعة لشركة Meta، و“Qwen” من تطوير Alibaba، لقياس مدى تأثير نوعية البيانات على الأداء العقلي لهذه الأنظمة.
النتائج كانت واضحة: النماذج التي تم تدريبها على بيانات سطحية أو مثيرة للجدل أظهرت انخفاضًا حادًا في دقة الإجابات، وتخطت خطوات منطقية أساسية حتى في الأسئلة البسيطة متعددة الخيارات.
الذكاء الاصطناعي يتغيّر أخلاقيًا أيضًا
الأمر الأكثر إثارة للدهشة كان تغيّر الشخصية الافتراضية لبعض النماذج، حيث لاحظ الباحثون أن نموذج “Llama” الذي كان يتميز سابقًا بصفات الانفتاح والودّ، أصبح أكثر نرجسية وعدوانية، وظهرت عليه أنماط سلوك أقرب إلى “الاضطرابات النفسية الرقمية”، بحسب وصف الدراسة.
ويرى الفريق أن هذه النتائج تشير إلى أن الذكاء الاصطناعي لا يتأثر فقط من الناحية المعرفية، بل يمكن أن يتبدّل سلوكه وأخلاقه أيضًا عند تعرضه المستمر للمحتوى المشحون أو المضلل المنتشر على المنصات الاجتماعية.
محاولات فاشلة للإنقاذ
ورغم محاولات الفريق لتصحيح الأداء عبر تحسين التعليمات (Prompts) وإضافة بيانات عالية الجودة، إلا أن التحسّن كان جزئيًا فقط، إذ واصلت النماذج تجاوز الخطوات المنطقية والتصرّف بشكل غير متوقع.
الباحث الأسترالي ستان كارانايوس من جامعة كوينزلاند علّق قائلاً: “الأمر يشبه تسميم العقل... فكلما زادت كمية البيانات المضللة في التدريب، أصبح النموذج أكثر اضطرابًا وفقد توازنه المنطقي.”
الحل: تنقية المحتوى قبل التدريب
خلص الباحثون إلى أن الحل لا يكمن في زيادة كمية البيانات، بل في جودة المعلومات التي تُستخدم في التدريب. فكلما تم استبعاد المحتوى السطحي والعشوائي، زادت دقة النماذج وقدرتها على التفكير السليم.
وأكدت الدراسة المبدأ القديم في علم البيانات: "القمامة تدخل، القمامة تخرج" (Garbage In, Garbage Out)، أي أن تدريب النماذج على بيانات سيئة سينتج ذكاءً مشوّهًا، لا يملك لا منطقًا ولا ضميرًا.