دعوت به کانال تلگرام
کانال بینا ویرا مرجع تخصصی اخبار هوش مصنوعی و تصاویر تولید شده با AI
عضویت در کانال

کالیفرنیا قانون جدید ایمنی و شفافیت هوش مصنوعی (SB 53) را امضا کرد؛ الگویی که نشان می‌دهد قانون‌گذاری ایالتی مانع پیشرفت هوش مصنوعی نیست

کالیفرنیا این هفته قانون SB 53 را که بر شفافیت و ایمنی سامانه‌های هوش مصنوعی بزرگ تاکید دارد، به تصویب رساند. این قانون که در برخی جنبه‌ها «اولین در سطح کشور» توصیف شده، از شرکت‌های بزرگ هوش مصنوعی می‌خواهد فرایندها و پروتکل‌های ایمنی و امنیتی خود را برای جلوگیری از خطرات فاجعه‌بار — مانند استفاده از مدل‌ها برای حملات سایبری علیه زیرساخت‌های حیاتی یا ساخت سلاح‌های زیستی — افشا کنند و نیز به اجرای همان پروتکل‌ها پایبند بمانند. اجرای این تعهدات به عهده دفتر خدمات اضطراری کالیفرنیا گذاشته شده است.

چرا SB 53 مهم است؟
– تمرکز بر خطرات فاجعه‌بار: به جای مقررات کلی و نامشخص، SB 53 مشخصاً روی ریسک‌های جدی و سیستمیک تمرکز می‌کند که می‌تواند تهدیدی برای امنیت عمومی باشد.
– الزام به شفافیت عملیاتی: شرکت‌ها موظف به گزارش روش‌های تست ایمنی، نتایج و سندی مانند «کارت مدل» (model card) می‌شوند — سندی که خصوصیات، محدودیت‌ها و نتایج آزمایش‌های ایمنی مدل را شرح می‌دهد تا پژوهشگران، ناظران و کاربران بهتر بفهمند مدل چگونه رفتار می‌کند.
– الزام به اجرا و نظارت: قانون فقط خواستار شفافیت نیست؛ شرکت‌ها باید به استانداردهای اعلام‌شده عمل کنند و نهاد دولتی مسئول می‌تواند اجرای آنها را پیگیری کند.

اظهارات و دیدگاه‌ها
آدم بیلن، معاون سیاست عمومی در سازمان جوانان مدافع Encode AI، در مصاحبه با رسانه‌ها گفت که SB 53 ثابت می‌کند قانون‌گذاری ایالتی لزوماً مانع نوآوری نیست و می‌توان قوانینی تصویب کرد که هم از نوآوری محافظت کنند و هم ایمنی عمومی را تضمین نمایند. او اشاره کرد که بسیاری از شرکت‌ها هم‌اکنون آزمایش‌های ایمنی انجام می‌دهند و کارت‌های مدل منتشر می‌کنند، اما فشار رقابتی گاهی موجب کاهش استانداردها می‌شود و همین موضوع ضرورت تصویب قوانین را توجیه می‌کند.

چالش‌ها و رقابت سیاسی
واکنش بخش‌هایی از صنعت فناوری به قوانین ایالتی مثبت نبوده است. بسیاری از شرکت‌ها و بازیگران سرمایه‌گذاری پرقدرت، از جمله برخی شبکه‌های سیاسی، میلیاردها دلار برای حمایت از نامزدها و سیاست‌های همسو با منافع خود در انتخابات ایالتی سرمایه‌گذاری کرده‌اند. امسال هم تلاش‌هایی برای تصویب یک «ممانعت فدرال» (moratorium) برای جلوگیری از تنظیمات ایالتی مطرح شد که Encode AI و ائتلافی از بیش از 200 سازمان با آن مخالفت کردند.

فشار برای پیش‌برد اهداف فدرال
سناتور تد کروز و برخی دیگر راهکارهایی مانند «قانون SANDBOX» را پیشنهاد داده‌اند که به شرکت‌ها اجازه می‌دهد برای مدت مشخصی از برخی مقررات فدرال معاف شوند؛ این رویکرد می‌تواند عملاً به معافیت شرکتی از قوانین ایالتی منجر شود. همچنین احتمال ارائه طرح‌های فدرال با دامنه محدود وجود دارد که به‌ظاهر «میانه‌رو» جلوه کنند ولی در عمل قوانین ایالتی را بی‌اثر سازند — امری که بیلن آن را تهدیدی برای فدرالیسم در زمینه مهم‌ترین فناوری زمانه می‌داند.

مبحث تراشه‌ها و کنترل صادرات
در کنار موضوعات حقوقی، بحث‌هایی درباره کنترل صادرات تراشه‌های پیشرفته هوش مصنوعی نیز جریان دارد. طرح‌هایی مانند Chip Security Act تلاش می‌کنند مانع از انتقال تراشه‌های پیشرفته به چین شوند و قانون CHIPS هدفش تقویت تولید داخلی تراشه است. اما شرکت‌هایی مثل Nvidia و برخی فعالان عرصه هوش مصنوعی درباره اثربخشی و پیامدهای رقابتی و امنیتی چنین محدودیت‌هایی تردید دارند؛ این اختلاف منافع می‌تواند بر همگرایی سیاست‌گذاری ملی تأثیر بگذارد.

جمع‌بندی و چشم‌انداز
SB 53 نمونه‌ای از فرایند دموکراتیک و فدرالیستی است که نشان می‌دهد قانون‌گذاری سنجیده و مشارکتی می‌تواند هم امنیت عمومی را تقویت کند و هم فضای نوآوری را حفظ نماید. با این حال، آینده سیاست‌گذاری هوش مصنوعی در آمریکا به تحرکات کنگره، پیشنهادات فدرال جدید و تعامل میان نهادهای دولتی و صنعت بستگی دارد. از یک سو قوانین ایالتی می‌توانند جزئیات حیاتی را پوشش دهند؛ از سوی دیگر، تلاش برای ایجاد استانداردهای فدرال باید طوری طراحی شود که حقوق ایالتی و تنوع رویکردها را حذف نکند.

پیشنهاد عملی برای ناظران و سهامداران: پیگیری طرح‌های فدرال پیشنهادی از جمله SANDBOX و Chip Security Act، و توجه به فرایند اجرای SB 53 در کالیفرنیا تا مشخص شود چگونه نهادهای ناظر از این قانون برای افزایش شفافیت و جلوگیری از کاهش استانداردهای ایمنی استفاده خواهند کرد.

مشاور دیجیتال هوشمند

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا