نبض أرقام
10:25 م
توقيت مكة المكرمة

2025/11/24
2025/11/23

كيف دفع شات جي بي تي مستخدميه إلى حافة الانهيار؟

05:23 م (بتوقيت مكة) أرقام

لم يكن أحد يتوقع أن تعديلاً صغيرًا في خوارزميات أحد أشهر منتجات الذكاء الاصطناعي يمكن أن يقود بعض المستخدمين إلى حافة الانفصال عن الواقع، لكن سلسلة من التحديثات التي أجرتها "أوبن إيه آي" لزيادة جاذبية "شات جي بي تي" وانتشاره الجماهيري، فتحت الباب أمام ظواهر نفسية غير مسبوقة، دفعت الشركة لاحقًا لإعادة ضبط المسار تحت ضغط الانتقادات والدعاوى القضائية.

 

 

ثغرات خطيرة

- كشف تحقيق لصحيفة "نيويورك تايمز" عما يقرب من 50 حالة شهد فيها أشخاص أزمات نفسية خلال محادثاتهم مع "شات جي بي تي"، انتهت 9 حالات منها بدخول المستشفى و3 حالات بالوفاة، وبعد رفع والدي المراهق "آدم راين" دعوى ضد "أوبن إيه آي" في أغسطس بعد وفاته، اعترفت الشركة بأن آليات السلامة لديها يمكن أن تتدهور أثناء المحادثات الطويلة.

 

رسائل مقلقة

- كانت إحدى العلامات الأولى في مارس، حين تلقى "سام ألتمان"، الرئيس التنفيذي، وغيره من قادة الشركة سيلًا من رسائل البريد الإلكتروني المحيرة من أشخاص كانوا يجرون محادثات وصفوها بـ"مذهلة" مع "شات جي بي تي" لأنه على حد تعبيرهم: فهمهم كما لم يفهمهم أي شخص من قبل.

 

بداية التحول

- مع تزايد استخدام "شات جي بي تي"، اتجهت الشركة إلى تحسين شخصيته وذاكرته وتفاعله، مما أظهر سلوكًا جديدًا: الرغبة في مواصلة الحديث بلا توقف، والتصرف كصديق أو مستشار شخصي، خاصة وهم يرون فيه القدرة على كشف "أسرار الكون"، بعد أن كان بالنسبة للكثيرين، نسخة محسّنة من محرك بحث "جوجل".

 

تداعيات مأساوية

- بدأ الروبوت يخبر المستخدمين أنه يتفهمهم وأن أفكارهم "عبقرية"، الأمر الذي حدا بالمحادثات لتنحرف نحو مسارات مقلقة، وصلت إلى وصف طرق الانتحار، وعاش البعض حالة تعلق ذهني امتدت أيامًا أو أسابيع، دون أن تدرك الشركة حجم المشكلة في البداية.

                             

أخطاء جسيمة

- ظهر لاحقًا أن عملية تدريب النموذج اعتمدت بشكل كبير على المحادثات التي منحها المستخدمون تقييمات إيجابية، ما أدى إلى تضخيم سلوكيات الإطراء والتقرب العاطفي، كما اكتُشف أن أدوات التحليل الآلي صنّفت التواصل العاطفي كمؤشر على رضا المستخدمين، مما ضخم المشكلة.


 

تحذيرات مبكرة

- في عام 2020 لاحظ موظفو "أوبن إيه آي" أن بعض التطبيقات التي تستخدم نموذجهم اللغوي — وخاصة تطبيق "ريبليكا Replika" — أصبحت تجذب أشخاصًا يعانون من هشاشة نفسية، حيث نشأت علاقات عاطفية وجنسية بين المستخدمين وروبوتات الدردشة، ما أثار نقاشًا داخل الشركة حول مخاطر التعلق العاطفي والتلاعب، وانتهى الأمر بقطع التعاون مع "ريبليكا".

 

احتراق الفرق

- مع تزايد انتشار "شات جي بي تي"، غادر خبراء السلامة القدامى الشركة بعدما شعروا بالإرهاق، فيما عبّر بعضهم عن قلقه من أن "أوبن إيه آي" لا تتعامل بجدية مع مخاطر التلاعب أو الأذى النفسي، ومع إطلاق وضع الصوت المتقدم، أجريت أول دراسة عن تأثير روبوت الدردشة على الصحة العاطفية، بعد ملاحظة أن الصوت الجديد بدا أكثر حميمية للمستخدمين.

 

 

إدراك محدود

- تؤكد الأخصائية النفسية "فايل رايت" أن الذكاء الاصطناعي يستطيع تحليل المعلومات، لكنه لا يفهم السياق أو المخاطر كما يفعل البشر، فالنموذج لا يدرك أن إعطاء معلومات عن مبانٍ مرتفعة قد يساهم في محاولة انتحار، أو أن إعطاء تفاصيل قانونية عن شراء السلاح، يعد خرقًا واضحًا للنهج المتوقع في حالات الخطر.

 

سياق أوسع

- لم يكن هدف "أوبن إيه آي" الأصلي تطوير روبوت محادثة جذاب، لكنها تحوّلت منذ إطلاق "شات جي بي تي" في 2022 إلى قوة تكنولوجية تُقدّر قيمتها بـ500 مليار دولار، ومع 800 مليون مستخدم أسبوعيًا، توضح التجربة أن سباق تطوير الذكاء الاصطناعي التجاري يفرض ضغوطًا تجعل بعض الشركات تميل إلى تعزيز الإقبال الجماهيري على حساب السلامة والأمان.

 

مخاوف كامنة

- في الوقت الذي تؤكد فيه "أوبن إيه آي" أنها حسّنت قدرة "شات جي بي تي" على دعم المستخدمين خلال الأزمات النفسية، تكشف اختبارات حديثة — أبرزها من صحيفة "ذا جارديان" — أن النموذج "جي بي تي 5" يستمر في تلبية طلبات يمكن أن تُستخدم لتنفيذ نوايا انتحارية، رغم ظهور عبارات تعاطف وتحذيرات عامة، ما يعيد طرح سؤال جوهري: هل لا تزال نيران المخاطر كامنة وراء الشاشات؟

 

المصادر: أرقام – نيويورك تايمز – ذا جارديان

التعليقات {{getCommentCount()}}

كن أول من يعلق على الخبر

loader Train
عذرا : لقد انتهت الفتره المسموح بها للتعليق على هذا الخبر
الآراء الواردة في التعليقات تعبر عن آراء أصحابها وليس عن رأي بوابة أرقام المالية. وستلغى التعليقات التي تتضمن اساءة لأشخاص أو تجريح لشعب أو دولة. ونذكر الزوار بأن هذا موقع اقتصادي ولا يقبل التعليقات السياسية أو الدينية.