درگیری جدید بازیگران برجسته سیلیکونولی با فعالان ایمنی هوش مصنوعی؛ احضاریهها و اتهام «بهرهبرداری سیاسی»
چند روز اخیر تنشها میان چهرههای شاخص سیلیکونولی و گروههای مدافع ایمنی هوش مصنوعی بالا گرفته است. دیوید ساکس، نماینده کاخ سفید در امور هوش مصنوعی و رمزارزها، و جیسون کوان، مدیر ارشد استراتژی اوپنایآی، در پستهایی در شبکههای اجتماعی و بیانیههای عمومی، برخی از سازمانهای مدافع ایمنی هوش مصنوعی را متهم کردند که با انگیزههای پنهان یا تحت نفوذ منافع میلیاردرها عمل میکنند. واکنش فعالان این حوزه، انتشار احضاریهها از سوی اوپنایآی و اتهامزنیهای عمومی را تلاشی برای خاموش کردن منتقدان و ایجاد رعب و وحشت توصیف کردهاند.
اتهامات و پاسخها
دیوید ساکس با اشاره مستقیم به Anthropic، یکی از شرکتهای بزرگ تولیدکننده سیستمهای هوش مصنوعی، گفت که این شرکت با «ترسآفرینی» در پی تسریع تصویب قوانین است تا از رقبا محافظت کرده و موقعیت خود را تقویت کند. در مقابل Anthropic و حامیان ایمنی هوش مصنوعی میگویند هشدارها درباره خطرات فناوری — از بیکاری تا سوءاستفادههای امنیتی و خطرات فاجعهبار اجتماعی — مبتنی بر شواهد علمی و نگرانیهای پژوهشی است.
از سوی دیگر، جیسون کوان در توضیح چرایی ارسال احضاریهها (سوبپناها) از سوی اوپنایآی به چند نهاد غیرانتفاعی فعال در سیاستگذاری هوش مصنوعی، از نگرانی شرکت درباره ارتباطات برخی سازمانها با مخالفان اصلی اوپنایآی مانند ایلان ماسک و تلاش برای تحتتأثیر قرار دادن روند ساختاردهی شرکت سخن گفت. رسانهها گزارش دادهاند اوپنایآی از سازمانهایی مانند Encode و چند نهاد دیگر درخواست کرده است مدارک و مکاتبات مرتبط با مواضعشان درباره اوپنایآی، حمایت از قانون ایالتی SB 53 و ارتباطات با موسساتی مانند Meta و افراد مشخص را ارائه دهند.
پیامد برای جامعه مدنی و پژوهشی
چندنهاد مدافع ایمنی هوش مصنوعی که با نشریات گفتوگو کردهاند، خواستار ناشناس ماندن شدهاند تا از پیامدهای احتمالی احتمالی جلوگیری کنند؛ این امر نشاندهنده ترسی است که برخی فعالان از بازخوردهای سیاسی یا تجاری دارند. به گفته برخی رهبران، این نوع فشارها میتواند «اثر خاموشکننده» داشته و دیگر سازمانها را از نقد و ارائه شواهد درباره ریسکهای فناوری بازدارد.
درون اوپنایآی نیز شکاف گزارش شده است: تیم تحقیق و امنیت شرکت بارها درباره ریسکهای سیستمهای هوش مصنوعی گزارش منتشر کردهاند، در حالی که تیم امور دولتواردی سیاستگذاری شرکت در برابر قانونگذاری ایالتی مقاومت کرده و خواستار چارچوب فدرال یکپارچه شدهاند. یکی از چهرههای ارشد ماموریتسازمانی اوپنایآی علناً نگرانی خود را از تأثیر این احضاریهها بر شغل و اخلاق حرفهای ابراز کرده است.
زمینهی قانونی و سیاسی
این نزاع در بستر تلاشهای قانونگذاری برای تنظیم هوش مصنوعی در ایالات متحده رخ میدهد. سال گذشته شایعاتی درباره قانونی در کالیفرنیا (SB 1047) منتشر شد که از سوی برخی سرمایهگذاران بهگونهای ترسناک جلوه داده شد؛ گرچه مؤسسه بروکینگز این شایعات را تحریف خواند، فرماندار کالیفرنیا در نهایت آن لایحه را وتو کرد. همزمان، قانون SB 53 در کالیفرنیا تصویب شد که الزامات گزارشدهی ایمنی برای شرکتهای بزرگ هوش مصنوعی وضع میکند؛ Anthropic تنها آزمایشگاهی بود که از این قانون حمایت علنی کرد و این موضوع به یکی از محورهای بحث تبدیل شده است.
نگاه جامعه و ادامه مسیر
مطالعات اخیر نشان میدهند که مردم عادی نگرانهای متفاوتی دارند؛ دغدغههایی مانند از دست رفتن مشاغل و سوءاستفادههایی مثل deepfakeها بیش از نگرانیهای فاجعهبار از سوی عموم مطرح شده است. با این حال، جنبش ایمنی هوش مصنوعی بر هر دو نوع ریسک تمرکز دارد و تلاش میکند سیاستها و استانداردهایی برای کاهش مخاطرات بلندمدت و کوتاهمدت پیشنهاد دهد. افزایش سرمایهگذاریها و رشد سریع بازار هوش مصنوعی، ترس از مقررات سنگین را در میان فعالان اقتصادی تقویت کرده است؛ با این حال، به نظر میرسد جنبش ایمنی رو به تقویت است و تا انتخابات 2026 احتمالاً موضوع هوش مصنوعی و تنظیم آن بیشتر در کانون توجه قرار خواهد گرفت.
نتیجهگیری
جدال اخیر میان رهبران سیلیکونولی و سازمانهای ایمنی هوش مصنوعی علاوه بر کارکرد رسانهای و سیاسی، یک پرسش اساسی را مطرح میکند: چگونه میتوان توسعه سریع فناوریهای هوش مصنوعی را با نیاز به شفافیت، مسئولیتپذیری و حفاظت از منافع عمومی متوازن ساخت؟ روندهای قانونی و پروندههای قضایی آینده و همچنین رفتار شرکتهای بزرگ در برابر جامعه مدنی، نشان خواهد داد که این تعادل چگونه شکل خواهد گرفت. کاربران، پژوهشگران و قانونگذاران باید بر شفافیت و گفتوگوی مبتنی بر شواهد تأکید کنند تا تصمیمهای آینده در مسیر توسعه مسئولانه هوش مصنوعی قرار گیرد.
