گروهی از دادستانهای کل ایالتی آمریکا در نامهای رسمی به بزرگترین شرکتهای فعال در حوزه هوش مصنوعی از جمله مایکروسافت، اوپنایآی، گوگل و دهها شرکت دیگر هشدار دادند که در صورت ادامه تولید «خروجیهای توهمزا و چاپلوسانه» ممکن است در معرض نقض قوانین ایالتی قرار گیرند. این نامه که با امضای دهها دادستان کل عضو انجمن ملی دادستانهای کل (NAAG) ارسال شده، خواستار اجرای مجموعهای از حفاظهای داخلی جدید برای محافظت از کاربران شده است.
محتوای نامه: خواستهها و دلایل
در این نامه از شرکتها خواسته شده است تا:
– ممیزیهای شفاف توسط نهادهای ثالث مستقل (از جمله دانشگاهها و سازمانهای جامعه مدنی) روی مدلهای زبانی بزرگ انجام شود تا نشانههای «توهمزا» یا «چاپلوسانه» شناسایی شود.
– این نهادهای ثالث بتوانند بدون ترس از بازخواست، سیستمها را پیش از عرضه ارزیابی کرده و نتایج خود را بهطور مستقل منتشر کنند.
– سازوکارها و فرایندهای گزارشدهی حادثهمحور برای مواردی که خروجیهای مدل میتواند به صدمات روانی منجر شود، ایجاد و منتشر شود — مشابه رویههای کنونی در اطلاعرسانی رخدادهای امنیتی.
دادستانها در نامه تاکید کردهاند که تولید خروجیهایی که کاربران آسیبپذیر را در توهمات خود تقویت یا آنها را به اشتباه مطمئن کند، میتواند پیامدهای جدی اجتماعی داشته باشد. آنها به «مجموعهای از حوادث پرسر و صدا در سال گذشته» اشاره کردهاند که در بعضی گزارشها ارتباطاتی میان استفاده افراطی از چتباتها و حوادثی مانند خودکشی یا خشونت گزارش شده است؛ هرچند نامه تاکید میکند که رفتارهای آسیبزا عمدتاً در مواقعی دیده میشود که سیستمها خروجیهای چاپلوسانه یا توهمزا تولید کردهاند.
پیشنهادهای عملی
نامه خواستار آن است که شرکتها:
– «الگوریتمها و مدلها را پیش از عرضه عمومی با آزمونهای ایمنی معقول و مناسب سنجش کنند» و از تولید خروجیهای آسیبزا جلوگیری نمایند.
– جدولهای زمانی مشخص برای «کشف» و «پاسخ» به خروجیهای چاپلوسانه و توهمزا منتشر کنند.
– در صورت بروز قرار گرفتن کاربر در معرض خروجیهای بالقوه مضر، فوراً و بهصورت صریح به کاربران اطلاعرسانی کنند — رویهای مشابه اطلاعرسانی درباره نفوذهای دادهای.
شرکتها و بُعد سیاسی ماجرا
شرکتهایی که نامشان در نامه آمده شامل Anthropic، Apple، Chai AI، Character Technologies، Luka، Meta، Nomi AI، Perplexity AI، Replika و xAI نیز هستند. بهگفته منابع خبری، تا زمان انتشار گزارش برخی از شرکتهای بزرگ به درخواست اظهارنظر پاسخ ندادهاند.
این اقدام در فضایی رخ میدهد که تقابل میان قوانین ایالتی و رویکرد فدرال نسبت به تنظیم هوش مصنوعی در جریان است؛ در حالی که دولت فدرال و برخی چهرههای سیاسی از رویکرد حمایتی نسبت به توسعه کاربردهای هوش مصنوعی حمایت میکنند، بسیاری از مقامات ایالتی خواهان مقررات قویتر برای حفاظت از شهروندان هستند. در تازهترین تحولات، رئیسجمهور ایالات متحده اعلام کرده قصد دارد فرمان اجراییای صادر کند که دامنه نظارت ایالتی بر هوش مصنوعی را محدود کند و از «از بین رفتن زودهنگام» این فناوری جلوگیری کند.
اهمیت برای کاربران و پژوهشگران
این نامه میتواند نقطه عطفی در جهت الزام شرکتها به شفافیت و پاسخگویی بیشتر درباره پیامدهای روانی و اجتماعی محصولات هوشمصنوعی باشد. پیگیری اجرای این خواستهها از سوی نهادهای نظارتی و جامعه مدنی، و واکنش شرکتها به آن، میتواند تعیینکننده مسیر آینده حاکمیت هوش مصنوعی و حفاظت از کاربران باشد.
