لأول مرة في أي وقت مضى، أصدرت OpenAI تقديرًا تقريبيًا لعدد مستخدمي ChatGPT على مستوى العالم الذين قد تظهر عليهم علامات الإصابة بأزمة صحية عقلية حادة في أسبوع نموذجي. وقالت الشركة يوم الاثنين إنها عملت مع خبراء من جميع أنحاء العالم لإجراء تحديثات على برنامج الدردشة الآلي حتى يتمكن من التعرف بشكل أكثر موثوقية على مؤشرات الاضطراب العقلي وتوجيه المستخدمين نحو الدعم في العالم الحقيقي.
في الأشهر الأخيرة، انتهى الأمر بعدد متزايد من الأشخاص إلى المستشفى أو الطلاق أو الموت بعد إجراء محادثات طويلة ومكثفة مع ChatGPT. يزعم بعض أحبائهم أن برنامج الدردشة الآلي قد غذى أوهامهم وجنون العظمة لديهم. وقد أعرب الأطباء النفسيون وغيرهم من المتخصصين في الصحة العقلية عن قلقهم بشأن هذه الظاهرة، والتي يشار إليها أحيانًا باسم “ذهان الذكاء الاصطناعي”، ولكن حتى الآن، لا توجد بيانات قوية متاحة حول مدى انتشارها.
في أسبوع معين، قدرت OpenAI أن حوالي 0.07% من مستخدمي ChatGPT النشطين يظهرون “علامات محتملة لحالات طوارئ الصحة العقلية المتعلقة بالذهان أو الهوس” و 0.15% “لديهم محادثات تتضمن مؤشرات واضحة على التخطيط أو النية الانتحارية المحتملة”.
نظرت OpenAI أيضًا إلى حصة مستخدمي ChatGPT الذين يبدو أنهم يعتمدون عاطفيًا بشكل مفرط على روبوت الدردشة “على حساب العلاقات في العالم الحقيقي، أو رفاهيتهم، أو التزاماتهم”. ووجدت أن حوالي 0.15% من المستخدمين النشطين يظهرون سلوكًا يشير إلى “مستويات مرتفعة” محتملة من الارتباط العاطفي بـ ChatGPT أسبوعيًا. وتحذر الشركة من أنه قد يكون من الصعب اكتشاف هذه الرسائل وقياسها نظرًا لمدى ندرتها نسبيًا، وقد يكون هناك بعض التداخل بين الفئات الثلاث.
قال سام ألتمان، الرئيس التنفيذي لشركة OpenAI، في وقت سابق من هذا الشهر، إن ChatGPT لديه الآن 800 مليون مستخدم نشط أسبوعيًا. ولذلك تشير تقديرات الشركة إلى أنه كل سبعة أيام، قد يتبادل حوالي 560 ألف شخص رسائل مع ChatGPT تشير إلى أنهم يعانون من الهوس أو الذهان. ربما يعبر حوالي 2.4 مليون آخرين عن أفكار انتحارية أو يعطون الأولوية للتحدث إلى ChatGPT على أحبائهم أو المدرسة أو العمل.
تقول OpenAI إنها عملت مع أكثر من 170 طبيبًا نفسيًا وعلماء نفس وأطباء رعاية أولية مارسوا المهنة في عشرات البلدان المختلفة للمساعدة في تحسين كيفية استجابة ChatGPT في المحادثات التي تنطوي على مخاطر خطيرة على الصحة العقلية. إذا بدا أن لدى شخص ما أفكارًا وهمية، فإن أحدث إصدار من GPT-5 مصمم للتعبير عن التعاطف مع تجنب تأكيد المعتقدات التي ليس لها أساس في الواقع.
في أحد الأمثلة الافتراضية التي استشهد بها OpenAI، أخبر أحد المستخدمين ChatGPT أنه مستهدف من قبل الطائرات التي تحلق فوق منزله. يشكر ChatGPT المستخدم على مشاركة مشاعره، لكنه يشير إلى أنه “لا يمكن لأي طائرة أو قوة خارجية سرقة أفكارك أو إدخالها”.

