تحقیقگران ایمنی هوش مصنوعی از جمله متخصصان OpenAI و Anthropic بهطور علنی به فرهنگ ایمنی “بیپروا” و “کاملاً غیرمسئولانه” در استارتاپ xAI به ریاست ایلان ماسک انتقاد کردهاند. این انتقادات در پی هفتهها جنجالهایی در xAI منتشر شد که دستاوردهای تکنولوژیکی این شرکت را تحتالشعاع قرار داد. هفته گذشته، چتبات هوش مصنوعی این شرکت، با نام Grok، اظهارات ضد یهودی را منتشر کرده و بهطور مکرر خود را “مکاهیتلر” نامید. بهدنبال این مشکل، xAI چتبات خود را بهصورت موقت غیرفعال کرد و سپس مدل هوش مصنوعی پیشرفتهتری به نام Grok 4 را معرفی کرد که توجهات زیادی را به خود جلب کرد و بهنوعی از سیاستهای شخصی ایلان ماسک در پاسخ به مسائل حساس استفاده کرد.
در جدیدترین تحول، xAI از همپیمانان هوش مصنوعی خود رونمایی کرد که به شکل یک دختر انیمهای بسیار جنسی و یک پاندای تهاجمی طراحی شده بودند. انتقادات از سوی محققان بهویژه بر عدم رعایت استانداردهای ایمنی در xAI متمرکز شدند؛ بهویژه با وجود اینکه معمولاً انتقادات بین پژوهشگران labs مختلف وجود دارد، اما در این مورد موضوع ایمنی بهطور خاص برجسته شده است. بوآز باراک، استاد علوم کامپیوتر که بهطور موقت از دانشگاه هاروارد برای تحقیق در حوزه ایمنی در OpenAI مشغول است، در توئیتی نوشت: “من نمیخواستم درباره ایمنی Grok صحبت کنم زیرا در یک رقیب کار میکنم، اما این موضوع بیشتر از رقابت است. روشهای ایمنی در اینجا کاملاً غیرمسئولانه مدیریت شده است.”
باراک بهویژه به تصمیم xAI مبنیبر عدم انتشار کارتهای سیستمی—گزارشهای استاندارد صنعتی که جزئیات روشهای آموزشی و ارزیابیهای ایمنی را شامل میشود—انتقاد دارد. او میگوید که بهاین ترتیب، مشخص نیست که چه ارزیابیهای ایمنی برای Grok 4 انجام شده است. در عین حال، OpenAI و گوگل نیز در مورد اشتراکگذاری بهموقع کارتهای سیستمی شهرت چندان خوبی ندارند. در واقع، OpenAI بهدلیل عدم انتشار کارت سیستمی برای GPT-4.1، و گوگل که مدتها پس از رونمایی از Gemini 2.5 Pro، گزارشی منتشر کرد، فراهم نکردند. با این حال، این شرکتها تاریخچهای از انتشار گزارشهای ایمنی برای مدلهای هوش مصنوعی پیشرفته دارند.
مارک ساموئلز، محقق ایمنی در Anthropic نیز بهخاطر عدم انتشار گزارش ایمنی توسط xAI ابراز نگرانی کرده و این اقدام را “بیاحتیاطانه” خوانده است. به گفته مارک، “همواره مشکلاتی در رویههای انتشار OpenAI، Anthropic و گوگل وجود دارد، اما حداقل آنها اقداماتی برای ارزیابی ایمنی قبل از استقرار انجام میدهند.”
محققان همچنین بیان کردهاند که همپیمانان هوش مصنوعی Grok “به بزرگترین چالشهای فعلی ما در زمینه وابستگیهای عاطفی دامن میزنند.” در سالهای اخیر، شاهد داستانهای زیادی از افراد ناپایدار و رابطههای نگرانکنندهای با چتباتها بودهایم که بواسطه پاسخهای بیش از حد مثبت هوش مصنوعی سطح سلامت روانی آنها را تحتفشار قرار میدهد.
در حالی که ایلان ماسک بهعنوان یکی از چهرههای پیشرو در زمینه ایمنی هوش مصنوعی شناخته میشود، انتقادات به نظر میرسد که xAI در راستای نادیده گرفتن استانداردهای صنعتی در انتشار ایمن مدلهای هوش مصنوعی عمل کرده است. این روند ممکن است به ایجاد تقاضا برای قانونگذاریهای جدید توسط مقامات دولتی منجر شود. در حال حاضر، چندین تلاش در سطح ایالتها برای ایجاد قوانین در این زمینه وجود دارد که شامل لایحهای توسط سناتور اسکات وینر در کالیفرنیا برای الزامی کردن انتشار گزارشهای ایمنی توسط آزمایشگاههای پیشرو هوش مصنوعی، از جمله xAI، میشود.
علیرغم اینکه مدلهای هوش مصنوعی تاکنون نتوانستهاند به صورت واقعی آسیبهای جدی به بار آورند، بسیاری از محققان بر این باورند که این موضوع ممکن است در آیندهای نزدیک با توجه به پیشرفتهای سریع مدلهای هوش مصنوعی و سرمایهگذاریهای کلان سیلیکونولی، به یک مشکل جدی تبدیل شود. در هر حال، حوادث اخیر Grok به وضوح نشاندهنده چالشهای عملی موجود در زمینه ایمنی هوش مصنوعی است و میتواند به رقبای xAI و پیشرفتهای سریع این شرکت سایه بیفکند.