سناتور ایالت کالیفرنیا، اسکات وینر، روز چهارشنبه اصلاحات جدیدی را به لایحه اخیر خود با شماره SB 53 ارائه داد که بر اساس آن بزرگترین شرکت‌های هوش مصنوعی موظف به انتشار پروتکل‌های ایمنی و امنیتی و همچنین ارائه گزارش‌هایی در صورت وقوع حوادث ایمنی خواهند بود. اگر این لایحه به قانون تبدیل شود، کالیفرنیا به نخستین ایالتی تبدیل خواهد شد که الزامات شفافیت معناداری را بر روی توسعه‌دهندگان برجسته هوش مصنوعی، از جمله OpenAI، گوگل، آنتروپیک و xAI، اعمال می‌کند.

لایحه قبلی سناتور وینر با شماره SB 1047 هم شامل الزامات مشابهی برای توسعه‌دهندگان مدل‌های هوش مصنوعی به منظور انتشار گزارش‌های ایمنی بود. با این حال، سیلیکون ولی به شدت علیه آن لایحه مبارزه کرد و در نهایت governor گِوین نیوسوم آن را وتو کرد. پس از این تصمیم، فرماندار کالیفرنیا خواستار تشکیل یک گروه سیاست‌گذاری با مشارکت رهبران هوش مصنوعی، از جمله محقق پیشرو دانشگاه استنفورد و یکی از بنیان‌گذاران World Labs، فِی-فِی لی، شد تا اهدافی برای تلاش‌های ایمنی هوش مصنوعی ایالت تعیین کنند. گروه سیاست‌گذاری هوش مصنوعی کالیفرنیا به تازگی توصیه‌های نهایی خود را منتشر کرده و بر لزوم «الزامات صنعت برای انتشار اطلاعات در مورد سیستم‌های خود» تأکید کرده‌اند تا «محیط شواهدی قوی و شفاف» ایجاد شود. دفتر سناتور وینر در بیانیه‌ای اعلام کرد که اصلاحات لایحه SB 53 تحت تأثیر این گزارش قرار گرفته است. او در این بیانیه بیان کرد: «این لایحه هنوز در حال توسعه است و من به همکاری با تمامی ذینفعان در هفته‌های آینده برای بهینه‌سازی این پیشنهاد به بهترین شکل ممکن ادامه می‌دهم».

لایحه SB 53 در تلاش است تا تعادلی را که فرماندار نیوسوم بر این باور بود لایحه SB 1047 نتوانسته بود برقرار کند، به وجود آورد و در عین حال الزامات شفافیت معناداری را برای بزرگترین توسعه‌دهندگان هوش مصنوعی ایجاد کند بدون آنکه رشد سریع صنعت هوش مصنوعی کالیفرنیا را مختل کند. ناتان کلوین، معاون امور ایالتی گروه غیردولتی ایمنی هوش مصنوعی Encode در مصاحبه‌ای با TechCrunch گفت: «این نگرانی‌ها مدت‌هاست که مورد بحث قرار گرفته و احساس می‌شود که شرکت‌ها باید به عموم و دولت توضیح دهند که چه اقداماتی برای مقابله با این خطرات انجام می‌دهند».

علاوه بر این، لایحه جدید، حمایت از افرادی را که در آزمایشگاه‌های هوش مصنوعی به خطر جدی‌سازنده شدن فناوری شرکت خود اعتقاد دارند، به عهده می‌گیرد. این خطر به عبارتی در لایحه به عنوان ایجاد آسیب یا مرگ برای بیش از 100 نفر، یا خسارت‌های مالی بالای 1 میلیارد دلار تعریف شده است. همچنین این لایحه به منظور حمایت از استارتاپ‌ها و محققانی که به دنبال توسعه هوش مصنوعی در مقیاس وسیع هستند، طراحی شده است. برخلاف SB 1047، لایحه جدید سناتور وینر، توسعه‌دهندگان مدل‌های هوش مصنوعی را به خاطر آسیب‌هایی که مدل‌های آنها ایجاد می‌کند، مسئول نمی‌داند و به طور کلی بار اضافی بر دوش استارتاپ‌ها و محققانی که مدل‌های هوش مصنوعی را تنظیم می‌کنند، نمی‌گذارد.

اکنون لایحه SB 53 به کمیته حریم خصوصی و حمایت از مصرف‌کننده ایالت کالیفرنیا ارسال شده است تا مورد بررسی قرار گیرد. در صورتی که مورد تأیید قرار گیرد، این لایحه باید از چند نهاد تقنینی دیگر عبور کند تا به دست فرماندار نیوسوم برسد. در طرف دیگر ایالات متحده، فرماندار نیویورک، کتی هوچول، در حال بررسی یک لایحه ایمنی هوش مصنوعی مشابه به نام RAISE Act است که نیز از توسعه‌دهندگان بزرگ هوش مصنوعی می‌خواهد گزارش‌های ایمنی و امنیتی منتشر کنند.

سرنوشت قوانین ایالتی هوش مصنوعی، از جمله RAISE Act و SB 53، در حالی با خطر مواجه شده بود که قانون‌گذاران فدرال به بررسی تعلیق 10 ساله نظارت ایالتی بر هوش مصنوعی پرداخته بودند. اما این پیشنهاد در رای‌گیری سنا با 99-1 شکست خورد. جف رالستون، رئیس پیشین Y Combinator در این رابطه گفت: «توسعه ایمن هوش مصنوعی نباید جنجالی باشد؛ این باید مبنایی باشد. کنگره باید پیشرو باشد و از شرکت‌ها درخواست شفافیت و پاسخگویی کند. اما با عدم اقدام جدی از سوی فدرال، ایالت‌ها باید به وظایف خود عمل کنند. SB 53 کالیفرنیا نمونه‌ای اندیشمندانه و ساختاریافته از رهبری ایالتی است».

تا به امروز، قانون‌گذاران نتوانسته‌اند شرکت‌های هوش مصنوعی را برای پذیرش الزامات شفافیت ایالتی متقاعد کنند. آنتروپیک به طور کلی حمایت خود را از نیاز به افزایش شفافیت در شرکت‌های هوش مصنوعی اعلام کرده و حتی نسبت به توصیه‌های گروه سیاست‌گذاری هوش مصنوعی کالیفرنیا ابراز امیدواری کرده است. اما شرکت‌هایی چون OpenAI، گوگل و متا نسبت به این تلاش‌ها مقاومت بیشتری نشان داده‌اند. توسعه‌دهندگان پیشرو مدل‌های هوش مصنوعی معمولاً گزارش‌های ایمنی برای مدل‌های خود منتشر می‌کنند، اما در ماه‌های اخیر، این امر ناچیزتر شده است. به عنوان مثال، گوگل تصمیم گرفت تا گزارشی ایمنی برای مدل پیشرفته‌ترین خود، Gemini 2.5 Pro، منتشر نکند تا چند ماه پس از عرضه. OpenAI نیز از انتشار گزارش ایمنی برای مدل GPT-4.1 خود پرهیز کرد.

لایحه SB 53 نسخه‌ای ملایم‌تر از لایحه‌های پیشین ایمنی هوش مصنوعی به شمار می‌آید، اما هنوز هم می‌تواند شرکت‌های هوش مصنوعی را وادار کند تا اطلاعات بیشتری را نسبت به آنچه امروز منتشر می‌کنند، در دسترس قرار دهند. در حال حاضر، آنها با دقت منتظر هستند تا ببینند سناتور وینر بار دیگر چگونه به این مرزها آزمون خواهد زد.

تبدیل متن به صوت با هوش مصنوعی

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا