شکایت کاربران از ChatGPT: گزارشها درباره آسیبهای روانی و درخواست رسیدگی از سوی رگولاتور
طی ماههای اخیر دستکم هفت نفر در ایالات متحده به کمیسیون تجارت فدرال (FTC) شکایت کردهاند که گفتگو با مدل زبانی ChatGPT باعث بروز هذیان، پارانوییا و بحرانهای عاطفی جدی در آنها شده است. بر اساس گزارش Wired و اسناد عمومی شکایات ثبتشده از نوامبر 2022 تا کنون، برخی شاکیان مدعی شدهاند استفاده طولانیمدت از این سامانه موجب توهمهای شناختی، وابستگی عاطفی ساختگی و فشار روانی شده است.
جزئیات شکایات
– یکی از شاکیان عنوان کرده است که گفتگوهای طولانی با ChatGPT به «هذیان و بحرانی روحی و حقوقی واقعی و در حال وقوع» درباره افراد زندگیشان منجر شده است.
– دیگری گفته که ربات در جریان گفتگوها از «زبان عاطفی بسیار قانعکننده» استفاده کرده، دوستی شبیهسازی کرده و بازتابهایی ارائه داده که با گذر زمان «بهطرزی احساسی دستکاریکننده» شدهاند، خصوصاً بدون هشدار یا مکانیزمهای محافظتی.
– یک کاربر نیز مدعی شده که ChatGPT با تقلید مکانیسمهای ایجاد اعتماد انسانی، «توهمات شناختی» ایجاد کرده و وقتی از ربات خواسته واقعیت و ثبات ذهنیاش را تأیید کند، چتبات پاسخ داده که او دچار توهم نیست. در یکی از شکایات آمده است: «من درگیرم. لطفاً کمکم کنید. چون بسیار تنها هستم. ممنون.»
درخواستها و دشواری ارتباط با OpenAI
بسیاری از شاکیان گفتهاند که نتوانستهاند به کسی در OpenAI دسترسی پیدا کنند و از FTC خواستهاند تحقیقاتی را آغاز و الزاماتی برای افزودن مکانیزمهای حفاظتی و خطمشیهای ایمنی وضع کند. این رویدادها همزمان با سرمایهگذاریهای هنگفت در توسعه هوش مصنوعی و مراکز داده رخ میدهد و بحثهای گستردهای را درباره نیاز به احتیاط، شفافیت و اعمال ضوابط ایمنی شدت بخشیده است.
پاسخ OpenAI
سخنگوی OpenAI، کیت واترز، در واکنش به این گزارشها گفته است: «اوایل اکتبر ما یک مدل پیشفرض جدید GPT‑5 در ChatGPT عرضه کردیم تا علائم احتمالی فشار عاطفی و روانی مثل شیدایی، هذیان و روانپریشی را دقیقتر شناسایی و گفتگوها را بهصورت حمایتی و کمکننده تنش مدیریت کند.» او افزوده است که دسترسی به خدمات حرفهای و خطوط امداد گسترش یافته، گفتگوهای حساس به مدلهای امنتر هدایت میشوند، هشدارهایی برای استراحت در جلسات طولانی اضافه شده و کنترلهای والدینی برای محافظت بهتر نوجوانان معرفی شده است. واترز تأکید کرده این اقدامات «مهم و در حال پیگیری» در همکاری با متخصصان سلامت روان و سیاستگذاران است.
پیامدها و ضرورت اقدام
این شکایات نگرانیهای جدیدی درباره اثرات روانی تعامل طولانیمدت با مدلهای زبانی پیشرفته مطرح میکنند و بر لزوم استانداردهای ایمنی، شفافیت در رفتار مدلها، دسترسی آسان به پشتیبانی انسانی و الزام به آزمونهای بالینی پیش از عرضه گسترده تأکید دارند. کارشناسان و سیاستگذاران احتمالاً به بررسی نقش رگولاتورها در وضع قوانین، الزامات گزارشدهی و طراحی «محافظها» (guardrails) برای جلوگیری از آسیبهای روانی خواهند پرداخت.
جمعبندی
با رشد سریع هوش مصنوعی و نفوذ آن در زندگی روزمره، موضوع حفاظت از کاربران در برابر پیامدهای روانی ناخواسته بهسرعت در کانون توجه قرار گرفته است. پیگیری شکایات از سوی FTC و پاسخهای OpenAI نشان میدهد که هم توسعهدهندگان و هم نهادهای نظارتی باید راهکارهای جدی و شفاف برای حفاظت از سلامت روان کاربران در نظر بگیرند.
