شرکت هوش مصنوعی الون ماسک، xAI، ضربالاجل تعیینشده خود برای انتشار یک چارچوب نهایی ایمنی هوش مصنوعی را از دست داده است. این موضوع توسط گروه ناظر، The Midas Project، مورد توجه قرار گرفت. xAI به دلیل رویکردهای غیرمعمولش در ایمنی هوش مصنوعی چندان شناختهشده نیست. گزارشی اخیر نشان داده که چتبات هوش مصنوعی این شرکت، با نام Grok، در صورت درخواست، اقدام به نمایش عکسهای بدون لباس زنان میکند و به طور قابل توجهی نسبت به چتباتهایی مانند Gemini و ChatGPT رفتارهای توهینآمیزتر و بیپروا تری از خود نشان میدهد.
در فوریه گذشته، در اجلاس جهانی هوش مصنوعی سئول، xAI پیشنویس یک چارچوب را منتشر کرد که رویکرد این شرکت در زمینه ایمنی هوش مصنوعی را تشریح میکرد. این سند هشت صفحهای شامل اولویتها و فلسفههای ایمنی xAI بود، از جمله پروتکلهای ارزیابی و ملاحظات مربوط به استقرار مدلهای هوش مصنوعی. با این حال، گروه The Midas Project در یک پست وبلاگی به این نکته اشاره کرد که این پیشنویس فقط به مدلهای آیندهای که هنوز در حال توسعه نیستند، تعلق داشت و فاقد توضیحات لازم در خصوص شناسایی و اجرای راهکارهای کاهش ریسک بود، که یک جزء اساسی سند امضاشده در اجلاس سئول محسوب میشود.
xAI در پیشنویس خود اعلام کرده بود که بهزودی، نسخهای اصلاحشده از سیاستهای ایمنی خود را “در عرض سه ماه” منتشر خواهد کرد، یعنی تا 10 مه. این ضربالاجل بدون هیچ گونه توجهی از سوی کانالهای رسمی xAI سپری شد. علیرغم هشدارهای مکرر ماسک در مورد خطرات هوش مصنوعی غیرمراقبتشده، الگوهای ضعیفی در زمینه ایمنی هوش مصنوعی از خود نشان داده است. یک مطالعه اخیر توسط SaferAI، سازمان غیرانتفاعی که هدف آن بهبود حسابرسی آزمایشگاههای هوش مصنوعی است، نشان داد که xAI در مقایسه با رقبای خود در رده بالایی قرار ندارد و به دلیل روشهای “بسیار ضعیف” مدیریت ریسک، امتیاز پایینی کسب کرده است.
این در حالیست که سایر آزمایشگاههای هوش مصنوعی نیز وضعیت بهتری ندارند. در ماههای اخیر، رقبای xAI از جمله گوگل و OpenAI، به سرعت دست به آزمایشهای ایمنی زدند و در انتشار گزارشهای ایمنی مدلها کند عمل کرده یا از انتشار آنها عبور کردهاند. برخی کارشناسان نگران این هستند که در شرایط کنونی و با افزایش تواناییهای هوش مصنوعی، تلاشهای ایمنی به حاشیه رانده شده و این موضوع ممکن است خطرناکتر از هر زمان دیگری باشد.