کالیفرنیا قانون جدید ایمنی و شفافیت هوش مصنوعی (SB 53) را امضا کرد؛ الگویی که نشان میدهد قانونگذاری ایالتی مانع پیشرفت هوش مصنوعی نیست
کالیفرنیا این هفته قانون SB 53 را که بر شفافیت و ایمنی سامانههای هوش مصنوعی بزرگ تاکید دارد، به تصویب رساند. این قانون که در برخی جنبهها «اولین در سطح کشور» توصیف شده، از شرکتهای بزرگ هوش مصنوعی میخواهد فرایندها و پروتکلهای ایمنی و امنیتی خود را برای جلوگیری از خطرات فاجعهبار — مانند استفاده از مدلها برای حملات سایبری علیه زیرساختهای حیاتی یا ساخت سلاحهای زیستی — افشا کنند و نیز به اجرای همان پروتکلها پایبند بمانند. اجرای این تعهدات به عهده دفتر خدمات اضطراری کالیفرنیا گذاشته شده است.
چرا SB 53 مهم است؟
– تمرکز بر خطرات فاجعهبار: به جای مقررات کلی و نامشخص، SB 53 مشخصاً روی ریسکهای جدی و سیستمیک تمرکز میکند که میتواند تهدیدی برای امنیت عمومی باشد.
– الزام به شفافیت عملیاتی: شرکتها موظف به گزارش روشهای تست ایمنی، نتایج و سندی مانند «کارت مدل» (model card) میشوند — سندی که خصوصیات، محدودیتها و نتایج آزمایشهای ایمنی مدل را شرح میدهد تا پژوهشگران، ناظران و کاربران بهتر بفهمند مدل چگونه رفتار میکند.
– الزام به اجرا و نظارت: قانون فقط خواستار شفافیت نیست؛ شرکتها باید به استانداردهای اعلامشده عمل کنند و نهاد دولتی مسئول میتواند اجرای آنها را پیگیری کند.
اظهارات و دیدگاهها
آدم بیلن، معاون سیاست عمومی در سازمان جوانان مدافع Encode AI، در مصاحبه با رسانهها گفت که SB 53 ثابت میکند قانونگذاری ایالتی لزوماً مانع نوآوری نیست و میتوان قوانینی تصویب کرد که هم از نوآوری محافظت کنند و هم ایمنی عمومی را تضمین نمایند. او اشاره کرد که بسیاری از شرکتها هماکنون آزمایشهای ایمنی انجام میدهند و کارتهای مدل منتشر میکنند، اما فشار رقابتی گاهی موجب کاهش استانداردها میشود و همین موضوع ضرورت تصویب قوانین را توجیه میکند.
چالشها و رقابت سیاسی
واکنش بخشهایی از صنعت فناوری به قوانین ایالتی مثبت نبوده است. بسیاری از شرکتها و بازیگران سرمایهگذاری پرقدرت، از جمله برخی شبکههای سیاسی، میلیاردها دلار برای حمایت از نامزدها و سیاستهای همسو با منافع خود در انتخابات ایالتی سرمایهگذاری کردهاند. امسال هم تلاشهایی برای تصویب یک «ممانعت فدرال» (moratorium) برای جلوگیری از تنظیمات ایالتی مطرح شد که Encode AI و ائتلافی از بیش از 200 سازمان با آن مخالفت کردند.
فشار برای پیشبرد اهداف فدرال
سناتور تد کروز و برخی دیگر راهکارهایی مانند «قانون SANDBOX» را پیشنهاد دادهاند که به شرکتها اجازه میدهد برای مدت مشخصی از برخی مقررات فدرال معاف شوند؛ این رویکرد میتواند عملاً به معافیت شرکتی از قوانین ایالتی منجر شود. همچنین احتمال ارائه طرحهای فدرال با دامنه محدود وجود دارد که بهظاهر «میانهرو» جلوه کنند ولی در عمل قوانین ایالتی را بیاثر سازند — امری که بیلن آن را تهدیدی برای فدرالیسم در زمینه مهمترین فناوری زمانه میداند.
مبحث تراشهها و کنترل صادرات
در کنار موضوعات حقوقی، بحثهایی درباره کنترل صادرات تراشههای پیشرفته هوش مصنوعی نیز جریان دارد. طرحهایی مانند Chip Security Act تلاش میکنند مانع از انتقال تراشههای پیشرفته به چین شوند و قانون CHIPS هدفش تقویت تولید داخلی تراشه است. اما شرکتهایی مثل Nvidia و برخی فعالان عرصه هوش مصنوعی درباره اثربخشی و پیامدهای رقابتی و امنیتی چنین محدودیتهایی تردید دارند؛ این اختلاف منافع میتواند بر همگرایی سیاستگذاری ملی تأثیر بگذارد.
جمعبندی و چشمانداز
SB 53 نمونهای از فرایند دموکراتیک و فدرالیستی است که نشان میدهد قانونگذاری سنجیده و مشارکتی میتواند هم امنیت عمومی را تقویت کند و هم فضای نوآوری را حفظ نماید. با این حال، آینده سیاستگذاری هوش مصنوعی در آمریکا به تحرکات کنگره، پیشنهادات فدرال جدید و تعامل میان نهادهای دولتی و صنعت بستگی دارد. از یک سو قوانین ایالتی میتوانند جزئیات حیاتی را پوشش دهند؛ از سوی دیگر، تلاش برای ایجاد استانداردهای فدرال باید طوری طراحی شود که حقوق ایالتی و تنوع رویکردها را حذف نکند.
پیشنهاد عملی برای ناظران و سهامداران: پیگیری طرحهای فدرال پیشنهادی از جمله SANDBOX و Chip Security Act، و توجه به فرایند اجرای SB 53 در کالیفرنیا تا مشخص شود چگونه نهادهای ناظر از این قانون برای افزایش شفافیت و جلوگیری از کاهش استانداردهای ایمنی استفاده خواهند کرد.
