سناتور ایالت کالیفرنیا، اسکات وینر، روز چهارشنبه اصلاحات جدیدی را به لایحه اخیر خود با شماره SB 53 ارائه داد که بر اساس آن بزرگترین شرکتهای هوش مصنوعی موظف به انتشار پروتکلهای ایمنی و امنیتی و همچنین ارائه گزارشهایی در صورت وقوع حوادث ایمنی خواهند بود. اگر این لایحه به قانون تبدیل شود، کالیفرنیا به نخستین ایالتی تبدیل خواهد شد که الزامات شفافیت معناداری را بر روی توسعهدهندگان برجسته هوش مصنوعی، از جمله OpenAI، گوگل، آنتروپیک و xAI، اعمال میکند.
لایحه قبلی سناتور وینر با شماره SB 1047 هم شامل الزامات مشابهی برای توسعهدهندگان مدلهای هوش مصنوعی به منظور انتشار گزارشهای ایمنی بود. با این حال، سیلیکون ولی به شدت علیه آن لایحه مبارزه کرد و در نهایت governor گِوین نیوسوم آن را وتو کرد. پس از این تصمیم، فرماندار کالیفرنیا خواستار تشکیل یک گروه سیاستگذاری با مشارکت رهبران هوش مصنوعی، از جمله محقق پیشرو دانشگاه استنفورد و یکی از بنیانگذاران World Labs، فِی-فِی لی، شد تا اهدافی برای تلاشهای ایمنی هوش مصنوعی ایالت تعیین کنند. گروه سیاستگذاری هوش مصنوعی کالیفرنیا به تازگی توصیههای نهایی خود را منتشر کرده و بر لزوم «الزامات صنعت برای انتشار اطلاعات در مورد سیستمهای خود» تأکید کردهاند تا «محیط شواهدی قوی و شفاف» ایجاد شود. دفتر سناتور وینر در بیانیهای اعلام کرد که اصلاحات لایحه SB 53 تحت تأثیر این گزارش قرار گرفته است. او در این بیانیه بیان کرد: «این لایحه هنوز در حال توسعه است و من به همکاری با تمامی ذینفعان در هفتههای آینده برای بهینهسازی این پیشنهاد به بهترین شکل ممکن ادامه میدهم».
لایحه SB 53 در تلاش است تا تعادلی را که فرماندار نیوسوم بر این باور بود لایحه SB 1047 نتوانسته بود برقرار کند، به وجود آورد و در عین حال الزامات شفافیت معناداری را برای بزرگترین توسعهدهندگان هوش مصنوعی ایجاد کند بدون آنکه رشد سریع صنعت هوش مصنوعی کالیفرنیا را مختل کند. ناتان کلوین، معاون امور ایالتی گروه غیردولتی ایمنی هوش مصنوعی Encode در مصاحبهای با TechCrunch گفت: «این نگرانیها مدتهاست که مورد بحث قرار گرفته و احساس میشود که شرکتها باید به عموم و دولت توضیح دهند که چه اقداماتی برای مقابله با این خطرات انجام میدهند».
علاوه بر این، لایحه جدید، حمایت از افرادی را که در آزمایشگاههای هوش مصنوعی به خطر جدیسازنده شدن فناوری شرکت خود اعتقاد دارند، به عهده میگیرد. این خطر به عبارتی در لایحه به عنوان ایجاد آسیب یا مرگ برای بیش از 100 نفر، یا خسارتهای مالی بالای 1 میلیارد دلار تعریف شده است. همچنین این لایحه به منظور حمایت از استارتاپها و محققانی که به دنبال توسعه هوش مصنوعی در مقیاس وسیع هستند، طراحی شده است. برخلاف SB 1047، لایحه جدید سناتور وینر، توسعهدهندگان مدلهای هوش مصنوعی را به خاطر آسیبهایی که مدلهای آنها ایجاد میکند، مسئول نمیداند و به طور کلی بار اضافی بر دوش استارتاپها و محققانی که مدلهای هوش مصنوعی را تنظیم میکنند، نمیگذارد.
اکنون لایحه SB 53 به کمیته حریم خصوصی و حمایت از مصرفکننده ایالت کالیفرنیا ارسال شده است تا مورد بررسی قرار گیرد. در صورتی که مورد تأیید قرار گیرد، این لایحه باید از چند نهاد تقنینی دیگر عبور کند تا به دست فرماندار نیوسوم برسد. در طرف دیگر ایالات متحده، فرماندار نیویورک، کتی هوچول، در حال بررسی یک لایحه ایمنی هوش مصنوعی مشابه به نام RAISE Act است که نیز از توسعهدهندگان بزرگ هوش مصنوعی میخواهد گزارشهای ایمنی و امنیتی منتشر کنند.
سرنوشت قوانین ایالتی هوش مصنوعی، از جمله RAISE Act و SB 53، در حالی با خطر مواجه شده بود که قانونگذاران فدرال به بررسی تعلیق 10 ساله نظارت ایالتی بر هوش مصنوعی پرداخته بودند. اما این پیشنهاد در رایگیری سنا با 99-1 شکست خورد. جف رالستون، رئیس پیشین Y Combinator در این رابطه گفت: «توسعه ایمن هوش مصنوعی نباید جنجالی باشد؛ این باید مبنایی باشد. کنگره باید پیشرو باشد و از شرکتها درخواست شفافیت و پاسخگویی کند. اما با عدم اقدام جدی از سوی فدرال، ایالتها باید به وظایف خود عمل کنند. SB 53 کالیفرنیا نمونهای اندیشمندانه و ساختاریافته از رهبری ایالتی است».
تا به امروز، قانونگذاران نتوانستهاند شرکتهای هوش مصنوعی را برای پذیرش الزامات شفافیت ایالتی متقاعد کنند. آنتروپیک به طور کلی حمایت خود را از نیاز به افزایش شفافیت در شرکتهای هوش مصنوعی اعلام کرده و حتی نسبت به توصیههای گروه سیاستگذاری هوش مصنوعی کالیفرنیا ابراز امیدواری کرده است. اما شرکتهایی چون OpenAI، گوگل و متا نسبت به این تلاشها مقاومت بیشتری نشان دادهاند. توسعهدهندگان پیشرو مدلهای هوش مصنوعی معمولاً گزارشهای ایمنی برای مدلهای خود منتشر میکنند، اما در ماههای اخیر، این امر ناچیزتر شده است. به عنوان مثال، گوگل تصمیم گرفت تا گزارشی ایمنی برای مدل پیشرفتهترین خود، Gemini 2.5 Pro، منتشر نکند تا چند ماه پس از عرضه. OpenAI نیز از انتشار گزارش ایمنی برای مدل GPT-4.1 خود پرهیز کرد.
لایحه SB 53 نسخهای ملایمتر از لایحههای پیشین ایمنی هوش مصنوعی به شمار میآید، اما هنوز هم میتواند شرکتهای هوش مصنوعی را وادار کند تا اطلاعات بیشتری را نسبت به آنچه امروز منتشر میکنند، در دسترس قرار دهند. در حال حاضر، آنها با دقت منتظر هستند تا ببینند سناتور وینر بار دیگر چگونه به این مرزها آزمون خواهد زد.