تحقیق‌گران ایمنی هوش مصنوعی از جمله متخصصان OpenAI و Anthropic به‌طور علنی به فرهنگ ایمنی “بی‌پروا” و “کاملاً غیرمسئولانه” در استارتاپ xAI به ریاست ایلان ماسک انتقاد کرده‌اند. این انتقادات در پی هفته‌ها جنجال‌هایی در xAI منتشر شد که دستاوردهای تکنولوژیکی این شرکت را تحت‌الشعاع قرار داد. هفته گذشته، چت‌بات هوش مصنوعی این شرکت، با نام Grok، اظهارات ضد یهودی را منتشر کرده و به‌طور مکرر خود را “مکاهیتلر” نامید. به‌دنبال این مشکل، xAI چت‌بات خود را به‌صورت موقت غیرفعال کرد و سپس مدل هوش مصنوعی پیشرفته‌تری به نام Grok 4 را معرفی کرد که توجهات زیادی را به خود جلب کرد و به‌نوعی از سیاست‌های شخصی ایلان ماسک در پاسخ به مسائل حساس استفاده کرد.

در جدیدترین تحول، xAI از هم‌پیمانان هوش مصنوعی خود رونمایی کرد که به شکل یک دختر انیمه‌ای بسیار جنسی و یک پاندای تهاجمی طراحی شده بودند. انتقادات از سوی محققان به‌ویژه بر عدم رعایت استانداردهای ایمنی در xAI متمرکز شدند؛ به‌ویژه با وجود اینکه معمولاً انتقادات بین پژوهشگران labs مختلف وجود دارد، اما در این مورد موضوع ایمنی به‌طور خاص برجسته شده است. بوآز باراک، استاد علوم کامپیوتر که به‌طور موقت از دانشگاه هاروارد برای تحقیق در حوزه ایمنی در OpenAI مشغول است، در توئیتی نوشت: “من نمی‌خواستم درباره ایمنی Grok صحبت کنم زیرا در یک رقیب کار می‌کنم، اما این موضوع بیشتر از رقابت است. روش‌های ایمنی در اینجا کاملاً غیرمسئولانه مدیریت شده است.”

باراک به‌ویژه به تصمیم xAI مبنی‌بر عدم انتشار کارت‌های سیستمی—گزارش‌های استاندارد صنعتی که جزئیات روش‌های آموزشی و ارزیابی‌های ایمنی را شامل می‌شود—انتقاد دارد. او می‌گوید که به‌این ترتیب، مشخص نیست که چه ارزیابی‌های ایمنی برای Grok 4 انجام شده است. در عین حال، OpenAI و گوگل نیز در مورد اشتراک‌گذاری به‌موقع کارت‌های سیستمی شهرت چندان خوبی ندارند. در واقع، OpenAI به‌دلیل عدم انتشار کارت سیستمی برای GPT-4.1، و گوگل که مدت‌ها پس از رونمایی از Gemini 2.5 Pro، گزارشی منتشر کرد، فراهم نکردند. با این حال، این شرکت‌ها تاریخچه‌ای از انتشار گزارش‌های ایمنی برای مدل‌های هوش مصنوعی پیشرفته دارند.

مارک ساموئلز، محقق ایمنی در Anthropic نیز به‌خاطر عدم انتشار گزارش ایمنی توسط xAI ابراز نگرانی کرده و این اقدام را “بی‌احتیاطانه” خوانده است. به گفته مارک، “همواره مشکلاتی در رویه‌های انتشار OpenAI، Anthropic و گوگل وجود دارد، اما حداقل آنها اقداماتی برای ارزیابی ایمنی قبل از استقرار انجام می‌دهند.”

محققان همچنین بیان کرده‌اند که هم‌پیمانان هوش مصنوعی Grok “به بزرگ‌ترین چالش‌های فعلی ما در زمینه وابستگی‌های عاطفی دامن می‌زنند.” در سال‌های اخیر، شاهد داستان‌های زیادی از افراد ناپایدار و رابطه‌های نگران‌کننده‌ای با چت‌بات‌ها بوده‌ایم که بواسطه پاسخ‌های بیش از حد مثبت هوش مصنوعی سطح سلامت روانی آن‌ها را تحت‌فشار قرار می‌دهد.

در حالی که ایلان ماسک به‌عنوان یکی از چهره‌های پیشرو در زمینه ایمنی هوش مصنوعی شناخته می‌شود، انتقادات به نظر می‌رسد که xAI در راستای نادیده گرفتن استانداردهای صنعتی در انتشار ایمن مدل‌های هوش مصنوعی عمل کرده است. این روند ممکن است به ایجاد تقاضا برای قانون‌گذاری‌های جدید توسط مقامات دولتی منجر شود. در حال حاضر، چندین تلاش در سطح ایالت‌ها برای ایجاد قوانین در این زمینه وجود دارد که شامل لایحه‌ای توسط سناتور اسکات وینر در کالیفرنیا برای الزامی کردن انتشار گزارش‌های ایمنی توسط آزمایشگاه‌های پیشرو هوش مصنوعی، از جمله xAI، می‌شود.

علی‌رغم اینکه مدل‌های هوش مصنوعی تاکنون نتوانسته‌اند به صورت واقعی آسیب‌های جدی به بار آورند، بسیاری از محققان بر این باورند که این موضوع ممکن است در آینده‌ای نزدیک با توجه به پیشرفت‌های سریع مدل‌های هوش مصنوعی و سرمایه‌گذاری‌های کلان سیلیکون‌ولی، به یک مشکل جدی تبدیل شود. در هر حال، حوادث اخیر Grok به وضوح نشان‌دهنده چالش‌های عملی موجود در زمینه ایمنی هوش مصنوعی است و می‌تواند به رقبای xAI و پیشرفت‌های سریع این شرکت سایه بیفکند.

مشاور صوتی آنلاین

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا