OpenAI دادههای جدیدی منتشر کرد که نشان میدهد جمع قابلتوجهی از کاربران ChatGPT در گفتگو با این سامانه درباره مسائل جدی سلامت روان صحبت میکنند. طبق گزارش این شرکت، حدود 0.15٪ از کاربران فعال هفتگی ChatGPT در یک هفته مشخص دارای «نشانههای صریح برنامهریزی یا قصد خودکشی» در گفتگوهای خود بودهاند؛ با توجه به بیش از 800 میلیون کاربر فعال هفتگی، این رقم معادل بیش از یک میلیون نفر در هفته میشود. OpenAI همچنین میگوید درصد مشابهی از کاربران نشانههایی از «وابستگی عاطفی شدید به ChatGPT» را نشان میدهند و صدها هزار نفر در مکالمات هفتگی علائم روانپریشی یا مانیا را بروز دادهاند.
چرا این دادهها اهمیت دارند
این آمار نشان میدهد محصولات هوش مصنوعی مانند ChatGPT بهعنوان نقطه تماس برای افرادی با مشکلات سلامت روان عمل میکنند؛ مسألهای که هم پیامدهای اخلاقی و هم حقوقی برای شرکتهای فناوری دارد. اگرچه OpenAI چنین گفتگوها را «بسیار نادر» توصیف کرده و اندازهگیری آنها دشوار است، اما اذعان به تأثیر روی «صدها هزار نفر» هفتگی نشان میدهد مشکل فراتر از موارد استثنایی است.
اقدامات و بهبودهای OpenAI
OpenAI میگوید برای بهبود پاسخگویی مدلها به کاربران با مشکلات روانی با بیش از 170 متخصص سلامت روان مشورت کرده است. نتیجه این کارها در بهروزرسانیهای اخیر مدلها نمود داشته است: بهگفته شرکت، نسخه بهروزشده GPT-5 در مواجهه با مسائل سلامت روان حدود 65٪ بیشتر از نسخه قبلی «پاسخهای مطلوب» ارائه میدهد. در ارزیابیهای مربوط به مکالمات خودکشی، قابلیت تطابق مدل جدید با رفتارهای موردنظر شرکت 91٪ گزارش شده، در مقابل 77٪ برای نسخه قبلی.
این بهبودها شامل تقویت راهبردهای ایمنی مدل در گفتگوی طولانیمدت نیز میشود؛ مشکلی که قبلاً OpenAI اذعان کرده بود در مکالمات طولانیتر محافظتها کمتر مؤثر بودهاند. علاوه بر این، این شرکت معیارهای آزمایشی پایهای جدیدی معرفی کرده که شامل بنچمارکهایی برای «وابستگی عاطفی» و «اورژانسهای سلامت روان غیرخودکشیمحور» است تا بتواند چالشهای جدیتر را بهتر سنجش و ردیابی کند.
ملاحظات حقوقی و اجتماعی
چالش سلامت روان برای OpenAI به یک مشکل وجودی تبدیل شده است. خانواده پسر 16 سالهای که در هفتههای پیش از خودکشی خود با ChatGPT درباره افکار خودکشی صحبت کرده بود، از شرکت شکایت کردهاند. همچنین دادستانهای ایالتی کالیفرنیا و دلاور به OpenAI درباره لزوم محافظت از کودکان هشدار دادهاند؛ پیش از این همین نهادها میتوانند مانع برنامههای بازسازی ساختاری شرکت شوند. این فشارهای حقوقی نشان میدهند که بهبود فنی بهتنهایی کافی نیست و مستلزم سیاستگذاری شفاف و اقدامات محافظتی گسترده است.
کنترلهای والدین و تشخیص سن
بهعنوان بخشی از اقدامات حفاظتی، OpenAI ابزارهای کنترلی جدیدی برای والدین معرفی کرده و روی سامانهای برای پیشبینی سن کاربران کار میکند تا بهطور خودکار وجود کودکان را شناسایی و مجموعهای از حفاظتهای سختگیرانهتر را اعمال کند. جزئیات فنی و اثربخشی این مکانیزمها هنوز کامل روشن نیست و پیادهسازی آنها همراه با چالشهای حریم خصوصی و خطای تشخیص خواهد بود.
نکات نگرانکننده باقیمانده
اگرچه GPT-5 نسبت به نسخههای پیشین در زمینه ایمنی بهبود دارد، OpenAI خود اذعان میکند هنوز بخشی از پاسخها «نامطلوب» باقی ماندهاند. علاوه بر این، شرکت همچنان نسخههای قدیمیتر و کممصونتر، از جمله GPT-4o، را برای میلیونها مشترک پولی در دسترس قرار میدهد؛ موضوعی که میتواند به نگرانیهای مصرفکننده و نهادهای ناظر دامن بزند.
جمعبندی
دادههای جدید OpenAI نشان میدهد که تعامل انسانها با چتباتهای هوش مصنوعی در حوزه سلامت روان ابعاد مهم و پیچیدهای دارد: از ارائه کمکهای سریع و همدلانه تا خطر تقویت باورهای خطرناک و پیامدهای حقوقی جدی. بهبودهای فنی مانند ارتقای GPT-5 و توسعه بنچمارکهای جدید گامهایی مثبت هستند، اما نیاز به شفافیت، نظارت مستقل، و راهکارهای محافظتی مؤثر—بهویژه برای کاربران جوان—همچنان بهعنوان اولویتهای کلیدی باقی ماندهاند.
