دعوت به کانال تلگرام
کانال بینا ویرا مرجع تخصصی اخبار هوش مصنوعی و تصاویر تولید شده با AI
عضویت در کانال

درگیری جدید بازیگران برجسته سیلیکون‌ولی با فعالان ایمنی هوش مصنوعی؛ احضاریه‌ها و اتهام «بهره‌برداری سیاسی»

چند روز اخیر تنش‌ها میان چهره‌های شاخص سیلیکون‌ولی و گروه‌های مدافع ایمنی هوش مصنوعی بالا گرفته است. دیوید ساکس، نماینده کاخ سفید در امور هوش مصنوعی و رمزارزها، و جیسون کوان، مدیر ارشد استراتژی اوپن‌ای‌آی، در پست‌هایی در شبکه‌های اجتماعی و بیانیه‌های عمومی، برخی از سازمان‌های مدافع ایمنی هوش مصنوعی را متهم کردند که با انگیزه‌های پنهان یا تحت نفوذ منافع میلیاردرها عمل می‌کنند. واکنش فعالان این حوزه، انتشار احضاریه‌ها از سوی اوپن‌ای‌آی و اتهام‌زنی‌های عمومی را تلاشی برای خاموش کردن منتقدان و ایجاد رعب و وحشت توصیف کرده‌اند.

اتهامات و پاسخ‌ها
دیوید ساکس با اشاره مستقیم به Anthropic، یکی از شرکت‌های بزرگ تولیدکننده سیستم‌های هوش مصنوعی، گفت که این شرکت با «ترس‌آفرینی» در پی تسریع تصویب قوانین است تا از رقبا محافظت کرده و موقعیت خود را تقویت کند. در مقابل Anthropic و حامیان ایمنی هوش مصنوعی می‌گویند هشدارها درباره خطرات فناوری — از بی‌کاری تا سوءاستفاده‌های امنیتی و خطرات فاجعه‌بار اجتماعی — مبتنی بر شواهد علمی و نگرانی‌های پژوهشی است.

از سوی دیگر، جیسون کوان در توضیح چرایی ارسال احضاریه‌ها (سوبپناها) از سوی اوپن‌ای‌آی به چند نهاد غیرانتفاعی فعال در سیاست‌گذاری هوش مصنوعی، از نگرانی شرکت درباره ارتباطات برخی سازمان‌ها با مخالفان اصلی اوپن‌ای‌آی مانند ایلان ماسک و تلاش برای تحت‌تأثیر قرار دادن روند ساختاردهی شرکت سخن گفت. رسانه‌ها گزارش داده‌اند اوپن‌ای‌آی از سازمان‌هایی مانند Encode و چند نهاد دیگر درخواست کرده است مدارک و مکاتبات مرتبط با مواضعشان درباره اوپن‌ای‌آی، حمایت از قانون ایالتی SB 53 و ارتباطات با موسساتی مانند Meta و افراد مشخص را ارائه دهند.

پیامد برای جامعه مدنی و پژوهشی
چندنهاد مدافع ایمنی هوش مصنوعی که با نشریات گفت‌وگو کرده‌اند، خواستار ناشناس ماندن شده‌اند تا از پیامدهای احتمالی احتمالی جلوگیری کنند؛ این امر نشان‌دهنده ترسی است که برخی فعالان از بازخوردهای سیاسی یا تجاری دارند. به گفته برخی رهبران، این نوع فشارها می‌تواند «اثر خاموش‌کننده» داشته و دیگر سازمان‌ها را از نقد و ارائه شواهد درباره ریسک‌های فناوری بازدارد.

درون اوپن‌ای‌آی نیز شکاف گزارش شده است: تیم تحقیق و امنیت شرکت بارها درباره ریسک‌های سیستم‌های هوش مصنوعی گزارش منتشر کرده‌اند، در حالی که تیم امور دولت‌واردی سیاست‌گذاری شرکت در برابر قانون‌گذاری ایالتی مقاومت کرده و خواستار چارچوب فدرال یکپارچه شده‌اند. یکی از چهره‌های ارشد ماموریت‌سازمانی اوپن‌ای‌آی علناً نگرانی خود را از تأثیر این احضاریه‌ها بر شغل و اخلاق حرفه‌ای ابراز کرده است.

زمینه‌ی قانونی و سیاسی
این نزاع در بستر تلاش‌های قانون‌گذاری برای تنظیم هوش مصنوعی در ایالات متحده رخ می‌دهد. سال گذشته شایعاتی درباره قانونی در کالیفرنیا (SB 1047) منتشر شد که از سوی برخی سرمایه‌گذاران به‌گونه‌ای ترسناک جلوه داده شد؛ گرچه مؤسسه بروکینگز این شایعات را تحریف خواند، فرماندار کالیفرنیا در نهایت آن لایحه را وتو کرد. همزمان، قانون SB 53 در کالیفرنیا تصویب شد که الزامات گزارش‌دهی ایمنی برای شرکت‌های بزرگ هوش مصنوعی وضع می‌کند؛ Anthropic تنها آزمایشگاهی بود که از این قانون حمایت علنی کرد و این موضوع به یکی از محورهای بحث تبدیل شده است.

نگاه جامعه و ادامه مسیر
مطالعات اخیر نشان می‌دهند که مردم عادی نگران‌های متفاوتی دارند؛ دغدغه‌هایی مانند از دست رفتن مشاغل و سوءاستفاده‌هایی مثل deepfakeها بیش از نگرانی‌های فاجعه‌بار از سوی عموم مطرح شده است. با این حال، جنبش ایمنی هوش مصنوعی بر هر دو نوع ریسک تمرکز دارد و تلاش می‌کند سیاست‌ها و استانداردهایی برای کاهش مخاطرات بلندمدت و کوتاه‌مدت پیشنهاد دهد. افزایش سرمایه‌گذاری‌ها و رشد سریع بازار هوش مصنوعی، ترس از مقررات سنگین را در میان فعالان اقتصادی تقویت کرده است؛ با این حال، به نظر می‌رسد جنبش ایمنی رو به تقویت است و تا انتخابات 2026 احتمالاً موضوع هوش مصنوعی و تنظیم آن بیشتر در کانون توجه قرار خواهد گرفت.

نتیجه‌گیری
جدال اخیر میان رهبران سیلیکون‌ولی و سازمان‌های ایمنی هوش مصنوعی علاوه بر کارکرد رسانه‌ای و سیاسی، یک پرسش اساسی را مطرح می‌کند: چگونه می‌توان توسعه سریع فناوری‌های هوش مصنوعی را با نیاز به شفافیت، مسئولیت‌پذیری و حفاظت از منافع عمومی متوازن ساخت؟ روندهای قانونی و پرونده‌های قضایی آینده و همچنین رفتار شرکت‌های بزرگ در برابر جامعه مدنی، نشان خواهد داد که این تعادل چگونه شکل خواهد گرفت. کاربران، پژوهشگران و قانون‌گذاران باید بر شفافیت و گفت‌وگوی مبتنی بر شواهد تأکید کنند تا تصمیم‌های آینده در مسیر توسعه مسئولانه هوش مصنوعی قرار گیرد.

چت آنلاین با هوش مصنوعی

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا