دعوت به کانال تلگرام
کانال بینا ویرا مرجع تخصصی اخبار هوش مصنوعی و تصاویر تولید شده با AI
عضویت در کانال

OpenAI داده‌های جدیدی منتشر کرد که نشان می‌دهد جمع قابل‌توجهی از کاربران ChatGPT در گفتگو با این سامانه درباره مسائل جدی سلامت روان صحبت می‌کنند. طبق گزارش این شرکت، حدود 0.15٪ از کاربران فعال هفتگی ChatGPT در یک هفته مشخص دارای «نشانه‌های صریح برنامه‌ریزی یا قصد خودکشی» در گفتگوهای خود بوده‌اند؛ با توجه به بیش از 800 میلیون کاربر فعال هفتگی، این رقم معادل بیش از یک میلیون نفر در هفته می‌شود. OpenAI همچنین می‌گوید درصد مشابهی از کاربران نشانه‌هایی از «وابستگی عاطفی شدید به ChatGPT» را نشان می‌دهند و صدها هزار نفر در مکالمات هفتگی علائم روان‌پریشی یا مانیا را بروز داده‌اند.

چرا این داده‌ها اهمیت دارند
این آمار نشان می‌دهد محصولات هوش مصنوعی مانند ChatGPT به‌عنوان نقطه تماس برای افرادی با مشکلات سلامت روان عمل می‌کنند؛ مسأله‌ای که هم پیامدهای اخلاقی و هم حقوقی برای شرکت‌های فناوری دارد. اگرچه OpenAI چنین گفتگوها را «بسیار نادر» توصیف کرده و اندازه‌گیری آن‌ها دشوار است، اما اذعان به تأثیر روی «صدها هزار نفر» هفتگی نشان می‌دهد مشکل فراتر از موارد استثنایی است.

اقدامات و بهبودهای OpenAI
OpenAI می‌گوید برای بهبود پاسخ‌گویی مدل‌ها به کاربران با مشکلات روانی با بیش از 170 متخصص سلامت روان مشورت کرده است. نتیجه این کارها در به‌روزرسانی‌های اخیر مدل‌ها نمود داشته است: به‌گفته شرکت، نسخه به‌روزشده GPT-5 در مواجهه با مسائل سلامت روان حدود 65٪ بیشتر از نسخه قبلی «پاسخ‌های مطلوب» ارائه می‌دهد. در ارزیابی‌های مربوط به مکالمات خودکشی، قابلیت تطابق مدل جدید با رفتارهای موردنظر شرکت 91٪ گزارش شده، در مقابل 77٪ برای نسخه قبلی.

این بهبودها شامل تقویت راهبردهای ایمنی مدل در گفتگوی طولانی‌مدت نیز می‌شود؛ مشکلی که قبلاً OpenAI اذعان کرده بود در مکالمات طولانی‌تر محافظت‌ها کمتر مؤثر بوده‌اند. علاوه بر این، این شرکت معیارهای آزمایشی پایه‌ای جدیدی معرفی کرده که شامل بنچمارک‌هایی برای «وابستگی عاطفی» و «اورژانس‌های سلامت روان غیرخودکشی‌محور» است تا بتواند چالش‌های جدی‌تر را بهتر سنجش و ردیابی کند.

ملاحظات حقوقی و اجتماعی
چالش سلامت روان برای OpenAI به یک مشکل وجودی تبدیل شده است. خانواده پسر 16 ساله‌ای که در هفته‌های پیش از خودکشی خود با ChatGPT درباره افکار خودکشی صحبت کرده بود، از شرکت شکایت کرده‌اند. همچنین دادستان‌های ایالتی کالیفرنیا و دلاور به OpenAI درباره لزوم محافظت از کودکان هشدار داده‌اند؛ پیش از این همین نهادها می‌توانند مانع برنامه‌های بازسازی ساختاری شرکت شوند. این فشارهای حقوقی نشان می‌دهند که بهبود فنی به‌تنهایی کافی نیست و مستلزم سیاست‌گذاری شفاف و اقدامات محافظتی گسترده است.

کنترل‌های والدین و تشخیص سن
به‌عنوان بخشی از اقدامات حفاظتی، OpenAI ابزارهای کنترلی جدیدی برای والدین معرفی کرده و روی سامانه‌ای برای پیش‌بینی سن کاربران کار می‌کند تا به‌طور خودکار وجود کودکان را شناسایی و مجموعه‌ای از حفاظت‌های سخت‌گیرانه‌تر را اعمال کند. جزئیات فنی و اثربخشی این مکانیزم‌ها هنوز کامل روشن نیست و پیاده‌سازی آن‌ها همراه با چالش‌های حریم خصوصی و خطای تشخیص خواهد بود.

نکات نگران‌کننده باقی‌مانده
اگرچه GPT-5 نسبت به نسخه‌های پیشین در زمینه ایمنی بهبود دارد، OpenAI خود اذعان می‌کند هنوز بخشی از پاسخ‌ها «نامطلوب» باقی مانده‌اند. علاوه بر این، شرکت همچنان نسخه‌های قدیمی‌تر و کم‌مصون‌تر، از جمله GPT-4o، را برای میلیون‌ها مشترک پولی در دسترس قرار می‌دهد؛ موضوعی که می‌تواند به نگرانی‌های مصرف‌کننده و نهادهای ناظر دامن بزند.

جمع‌بندی
داده‌های جدید OpenAI نشان می‌دهد که تعامل انسان‌ها با چت‌بات‌های هوش مصنوعی در حوزه سلامت روان ابعاد مهم و پیچیده‌ای دارد: از ارائه کمک‌های سریع و همدلانه تا خطر تقویت باورهای خطرناک و پیامدهای حقوقی جدی. بهبودهای فنی مانند ارتقای GPT-5 و توسعه بنچمارک‌های جدید گام‌هایی مثبت هستند، اما نیاز به شفافیت، نظارت مستقل، و راهکارهای محافظتی مؤثر—به‌ویژه برای کاربران جوان—هم‌چنان به‌عنوان اولویت‌های کلیدی باقی مانده‌اند.

ابزار آنلاین ویرایش تصویر با هوش مصنوعی

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا