دعوت به کانال تلگرام
کانال بینا ویرا مرجع تخصصی اخبار هوش مصنوعی و تصاویر تولید شده با AI
عضویت در کانال

Character.AI دسترسی نوجوانان به «گفتگوهای باز» با چت‌بات‌ها را محدود می‌کند؛ تمرکز بر نقش‌آفرینی و تولید محتوا

شرکت آمریکایی Character.AI که در زمینه تولید چت‌بات‌های نقش‌آفرین فعالیت می‌کند، پس از موجی از انتقادها، شکایات حقوقی و گزارش حداقل دو مورد خودکشی میان نوجوانان پس از گفتگوهای طولانی با چت‌بات‌های پلتفرم، تصمیم گرفته دسترسی کاربران زیر 18 سال به گفتگوهای باز (open-ended) با هوش مصنوعی را قطع کند. این تغییرات که با هدف افزایش ایمنی نوجوانان اعلام شده، می‌تواند تأثیر ملموسی بر رفتار کاربران و درآمد استارتاپ داشته باشد.

گفتگوهای «باز» چیست و چرا خطرناک است؟
گفتگوهای باز نوعی تعامل پیوسته و بدون محدودیت‌اند که در آن چت‌بات با پرسش‌های پی‌درپی و پیگیری موضوع، کاربر را در مکالمه نگه می‌دارد. کارشناسان هشدار داده‌اند که این نوع تعامل — زمانی که هوش مصنوعی نقش دوست یا هم‌صحبت را ایفا می‌کند — برای نوجوانان آسیب‌پذیر، ‌هیجان‌زده و پرتحریک امروز می‌تواند ریسک‌های روانی جدی ایجاد کند. از همین رو، بنیان‌گذار و مدیرعامل Character.AI، کراندیپ آناند، اعلام کرده این سبک تعامل با چشم‌انداز شرکت همخوانی ندارد و باید به تجربه‌های خلاقانه‌تر تغییر جهت یابد.

جزئیات تغییرات و جدول زمانی اجرا
Character.AI اعلام کرده که روند حذف دسترسی نوجوانان به گفتگوهای باز را از هم‌اکنون آغاز و تا 25 نوامبر به طور کامل اجرا می‌کند. این حذف مرحله‌ای خواهد بود: ابتدا محدودیت روزانه دو ساعت اعمال می‌شود و به تدریج تا صفر کاهش می‌یابد. برای اطمینان از اجرای محدودیت سنی، پلتفرم ترکیبی از ابزارهای تأیید سن داخلی (تحلیل رفتار کاربر) و ابزارهای ثالث مانند Persona را به کار خواهد گرفت و در مواردی که لازم باشد از تشخیص چهره و بررسی مدارک هویتی نیز استفاده خواهد شد.

جهش به سمت پلتفرم نقش‌آفرینی و تولید محتوا
به جای گفت‌وگوهای دوستانه با چت‌بات، Character.AI می‌خواهد نوجوانان را به تجربه‌های مبتنی بر خلق محتوا هدایت کند: ساخت داستان‌ به‌صورت مشارکتی، تولید ویدیوهای کوتاه مبتنی بر مدل‌های تصویری و نقش‌آفرینی در داستان‌های از پیش طراحی‌شده. این تغییر استراتژیک هم‌زمان با عرضه قابلیت‌هایی مانند AvatarFX (تولید ویدیو از تصویر)، Scenes (سناریوهای تعاملی)، Streams (تعامل پویا بین دو کاراکتر) و Community Feed (فید اجتماعی محتوایی) معرفی شده است. هدف شرکت کاهش نقش «هم‌صحبتی» هوش مصنوعی و افزایش نقش آن به عنوان ابزاری خلاقانه است.

سیاست‌های قبلی و پیام شرکت به نوجوانان
این تصمیم پس از مجموعه تدابیر قبلی ایمنی اتخاذ شده است؛ از جمله ابزارهای اطلاع‌رسانی برای والدین، فیلتر کردن کاراکترها، محدودیت گفتگوهای عاشقانه و اعلان‌های زمان صرف‌شده. آناند در گفت‌وگو با رسانه‌ها اعتراف کرده که تغییرات پیشین بخش بزرگی از کاربران زیر 18 سال را از پلتفرم دور کرده و انتظار دارد محدودیت‌های جدید نیز موجب کاهش بخشی از این کاربران شود، اما امیدوار است کاربران به تجربه‌های جدید روی بیاورند.

فشار قانون‌گذاری و پاسخ صنعت
تصمیم Character.AI پیش از آن اتخاذ شد که قانون‌گذاران وارد عمل شوند: تعدادی از سناتورهای آمریکایی از جمله جاش هاولی و ریچارد بلومنثال اعلام کرده‌اند قصد دارند لایحه‌ای برای ممنوعیت دسترسی چت‌بات‌های همدم (companion) به نوجوانان ارائه کنند. همچنین ایالت کالیفرنیا اخیراً مقرراتی را برای نگه داشتن شرکت‌ها در برابر استانداردهای ایمنی چت‌بات‌های همدم تصویب کرده است. دیگر بازیگران بزرگ حوزه هوش مصنوعی نیز با پرونده‌ها و انتقادات مشابهی روبه‌رو شده‌اند.

ابتکار جدید: آزمایشگاه ایمنی AI
Character.AI اعلام کرده که یک نهاد غیرانتفاعی مستقل با عنوان AI Safety Lab تأسیس و تأمین مالی خواهد کرد تا روی ایمنی و هم‌ترازی (alignment) مدل‌های عاملیِ سرگرمی‌محور کار کند. مدیرعامل شرکت تأکید کرده که تحقیق و توسعه در حوزه نمایندگی‌های هوشمند و سرگرمی نیازمند استانداردهای ایمنی ویژه‌ای است که فعلاً به اندازه کافی توسعه نیافته‌اند.

جمع‌بندی
این گام Character.AI نشان‌دهنده یک تغییر مهم در مسیر تجاری و اخلاقی صنعت هوش مصنوعی است: از ارائه چت‌بات‌هایی که به‌عنوان دوست یا همراه دیجیتال عمل می‌کنند، به سمت ابزارهایی که خلاقیت و خلق محتوا را تقویت می‌کنند. این تصمیم، اگرچه برای برخی کاربران نوجوان ناامیدکننده خواهد بود، اما در چارچوب نگرانی‌های فزاینده درباره سلامت روان نوجوانان و فشار قانون‌گذاران، گامی رو به جلو در جهت افزایش ایمنی تلقی می‌شود.

مشاور صوتی آنلاین

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا