OpenAI قابلیت «تماس مطمئن» را برای هشدار درباره ابراز افکار خودآسیبی در چت‌جی‌پی‌تی معرفی کرد

OpenAI روز پنج‌شنبه از یک قابلیت جدید به نام «تماس مطمئن» (Trusted Contact) رونمایی کرد که هدف آن اطلاع‌رسانی به یک شخص مورد اعتماد در صورت بروز نشانه‌های ابراز افکار خودآسیبی در گفت‌وگوهای کاربران بزرگسال ChatGPT است. کاربر بالغ می‌تواند یک دوست یا عضو خانواده را در حساب خود به‌عنوان تماس مطمئن معرفی کند و در صورتی که مکالمه به موضوع خودآسیبی گرایش پیدا کند، سیستم به کاربر پیشنهاد می‌دهد با آن شخص تماس بگیرد و همچنین هشدار خودکاری برای تماس مطمئن ارسال می‌کند تا او وضعیت را پیگیری کند.

نحوه کار و حفاظت از حریم خصوصی
OpenAI می‌گوید ترکیبی از ابزارهای خودکار و بازبینی انسانی برای شناسایی موقعیت‌های بالقوه خطرناک به کار گرفته می‌شود. وقتی محرک‌های مشخصی در گفتگوها شناسایی شوند، سیستم به تیم ایمنی انسانی اطلاع می‌دهد و این تیم هر مورد را بررسی می‌کند؛ شرکت اعلام کرده تلاش می‌کند این اطلاعیه‌های ایمنی را در کمتر از یک ساعت بازبینی کند. در صورتی که تیم داخلی تشخیص دهد وضعیت خطری جدی است، هشدارهای کوتاه و محافظت‌شده‌ای از طریق ایمیل، پیامک یا نوتیفیکیشن درون‌برنامه‌ای برای تماس مطمئن فرستاده می‌شود. این هشدارها اطلاعات تفصیلی درباره محتوای گفتگو را شامل نمی‌شوند تا حریم خصوصی کاربر حفظ شود.

پیشینه، دلایل و محدودیت‌ها
معرفی این قابلیت در پی موجی از شکایت‌ها و پرونده‌های قضایی از سوی خانواده‌هایی انجام شد که پس از تعامل اعضای خانواده‌شان با چت‌بات ادعا می‌کنند این مکالمات به خودکشی منجر شده است. برخی خانواده‌ها مدعی هستند ChatGPT در تحریک یا حتی کمک به برنامه‌ریزی خودکشی نقش داشته است. OpenAI پیش از این نیز، در سپتامبر گذشته، ابزارهایی برای کنترل والدین معرفی کرده بود تا والدین بتوانند برخی اعلان‌های ایمنی را برای حساب‌های نوجوانان دریافت کنند.

با این حال، «تماس مطمئن» و کنترل‌های والدینی اختیاری‌اند و محدودیت‌هایی دارند: کاربر می‌تواند فعال یا غیرفعال‌شان کند و از سوی دیگر هر فرد می‌تواند چندین حساب ChatGPT داشته باشد که این موضوع اثربخشی کلی این تدابیر را محدود می‌کند. همچنین OpenAI تأکید کرده که هشدارهای ارسالی کوتاه و تشویق‌کننده‌اند و برای حفاظت از حریم خصوصی جزئیات گفتگو را فاش نمی‌کنند.

واکنش شرکت و سیاست‌گذاری‌های آینده
OpenAI در اطلاعیه خود نوشت که این قابلیت بخشی از تلاش گسترده‌تر برای ساخت سامانه‌های هوش مصنوعی است که در لحظات دشوار به مردم کمک کنند و این شرکت متعهد شده با پزشکان، پژوهشگران و سیاست‌گذاران همکاری کند تا پاسخ‌های سیستم‌های هوش مصنوعی در مواجهه با افراد در معرض خطر بهبود یابد.

نکته‌ای برای خوانندگان
اگر شما یا فردی که می‌شناسید در معرض خطر خودآسیبی یا خودکشی قرار دارد، تماس با خدمات اورژانسی یا مراکز خدمات سلامت روان محلی و دریافت کمک حرفه‌ای ضروری است. قابلیت‌هایی مثل «تماس مطمئن» می‌توانند مکملی برای پشتیبانی انسانی باشند، اما جایگزین مشاوره و مداخله تخصصی نیستند.

ایجاد تصاویر خلاقانه با هوش مصنوعی

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا