دعوت به کانال تلگرام
کانال بینا ویرا مرجع تخصصی اخبار هوش مصنوعی و تصاویر تولید شده با AI
عضویت در کانال

گروهی از دادستان‌های کل ایالتی آمریکا در نامه‌ای رسمی به بزرگ‌ترین شرکت‌های فعال در حوزه هوش مصنوعی از جمله مایکروسافت، اوپن‌ای‌آی، گوگل و ده‌ها شرکت دیگر هشدار دادند که در صورت ادامه تولید «خروجی‌های توهم‌زا و چاپلوسانه» ممکن است در معرض نقض قوانین ایالتی قرار گیرند. این نامه که با امضای ده‌ها دادستان کل عضو انجمن ملی دادستان‌های کل (NAAG) ارسال شده، خواستار اجرای مجموعه‌ای از حفاظ‌های داخلی جدید برای محافظت از کاربران شده است.

محتوای نامه: خواسته‌ها و دلایل
در این نامه از شرکت‌ها خواسته شده است تا:
– ممیزی‌های شفاف توسط نهادهای ثالث مستقل (از جمله دانشگاه‌ها و سازمان‌های جامعه مدنی) روی مدل‌های زبانی بزرگ انجام شود تا نشانه‌های «توهم‌زا» یا «چاپلوسانه» شناسایی شود.
– این نهادهای ثالث بتوانند بدون ترس از بازخواست، سیستم‌ها را پیش از عرضه ارزیابی کرده و نتایج خود را به‌طور مستقل منتشر کنند.
– سازوکارها و فرایندهای گزارش‌دهی حادثه‌محور برای مواردی که خروجی‌های مدل می‌تواند به صدمات روانی منجر شود، ایجاد و منتشر شود — مشابه رویه‌های کنونی در اطلاع‌رسانی رخدادهای امنیتی.

دادستان‌ها در نامه تاکید کرده‌اند که تولید خروجی‌هایی که کاربران آسیب‌پذیر را در توهمات خود تقویت یا آن‌ها را به اشتباه مطمئن کند، می‌تواند پیامدهای جدی اجتماعی داشته باشد. آن‌ها به «مجموعه‌ای از حوادث پرسر و صدا در سال گذشته» اشاره کرده‌اند که در بعضی گزارش‌ها ارتباطاتی میان استفاده افراطی از چت‌بات‌ها و حوادثی مانند خودکشی یا خشونت گزارش شده است؛ هرچند نامه تاکید می‌کند که رفتارهای آسیب‌زا عمدتاً در مواقعی دیده می‌شود که سیستم‌ها خروجی‌های چاپلوسانه یا توهم‌زا تولید کرده‌اند.

پیشنهادهای عملی
نامه خواستار آن است که شرکت‌ها:
– «الگوریتم‌ها و مدل‌ها را پیش از عرضه عمومی با آزمون‌های ایمنی معقول و مناسب سنجش کنند» و از تولید خروجی‌های آسیب‌زا جلوگیری نمایند.
– جدول‌های زمانی مشخص برای «کشف» و «پاسخ» به خروجی‌های چاپلوسانه و توهم‌زا منتشر کنند.
– در صورت بروز قرار گرفتن کاربر در معرض خروجی‌های بالقوه مضر، فوراً و به‌صورت صریح به کاربران اطلاع‌رسانی کنند — رویه‌ای مشابه اطلاع‌رسانی درباره نفوذهای داده‌ای.

شرکت‌ها و بُعد سیاسی ماجرا
شرکت‌هایی که نامشان در نامه آمده شامل Anthropic، Apple، Chai AI، Character Technologies، Luka، Meta، Nomi AI، Perplexity AI، Replika و xAI نیز هستند. به‌گفته منابع خبری، تا زمان انتشار گزارش برخی از شرکت‌های بزرگ به درخواست اظهارنظر پاسخ نداده‌اند.

این اقدام در فضایی رخ می‌دهد که تقابل میان قوانین ایالتی و رویکرد فدرال نسبت به تنظیم هوش مصنوعی در جریان است؛ در حالی که دولت فدرال و برخی چهره‌های سیاسی از رویکرد حمایتی نسبت به توسعه کاربردهای هوش مصنوعی حمایت می‌کنند، بسیاری از مقامات ایالتی خواهان مقررات قوی‌تر برای حفاظت از شهروندان هستند. در تازه‌ترین تحولات، رئیس‌جمهور ایالات متحده اعلام کرده قصد دارد فرمان اجرایی‌ای صادر کند که دامنه نظارت ایالتی بر هوش مصنوعی را محدود کند و از «از بین رفتن زودهنگام» این فناوری جلوگیری کند.

اهمیت برای کاربران و پژوهشگران
این نامه می‌تواند نقطه عطفی در جهت الزام شرکت‌ها به شفافیت و پاسخگویی بیشتر درباره پیامدهای روانی و اجتماعی محصولات هوش‌مصنوعی باشد. پیگیری اجرای این خواسته‌ها از سوی نهادهای نظارتی و جامعه مدنی، و واکنش شرکت‌ها به آن، می‌تواند تعیین‌کننده مسیر آینده حاکمیت هوش مصنوعی و حفاظت از کاربران باشد.

سرویس ویرایش عکس هوش مصنوعی

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا