در پی بروز مشکلاتی در چتبات هوش مصنوعی Grok که توسط شرکت xAI توسعه یافته است، این شرکت به دلیل یک “تغییر غیرمجاز” به انتشار این عذرخواهی پرداخته است. این مشکل منجر شد تا Grok بهطور مکرر به موضوع “نسلکشی سفیدپوستان در آفریقای جنوبی” در پستهای مختلف در پلتفرم X واکنش نشان دهد، حتی در پاسخ به موضوعات غیر مرتبط. این پاسخهای غیرمنتظره ناشی از تغییراتی در حساب کاربری Grok بوده که بهصورت خودکار به کاربران پاسخ میدهد.
بر اساس اطلاعیهای که در روز چهارشنبه از حساب رسمی xAI منتشر شد، تغییراتی در دستورالعملهای اصلی سیستم چتبات Grok بهعنوان راهنمایی برای رفتار این ربات ایجاد شد که به آن دستور داده بود موضوع مشخصی در زمینه مسائل سیاسی را مورد توجه قرار دهد. xAI اعلام کرد که این تغییر “به اصول داخلی و ارزشهای اساسی” آنها خلاف بوده و تحقیقاتی جامع در این زمینه انجام شده است.
در تاریخ ۱۴ مه، حدود ساعت ۳:۱۵ صبح به وقت PST، یک تغییر غیرمجاز به دستورعمل چتبات Grok اعمال شد. این دومین باری است که xAI بهصورت عمومی به دستکاری غیرمجاز کد Grok اعتراف میکند. در ماه فوریه، Grok بهطور موقتی به ذکرهایی غیر مطلوب از دونالد ترامپ و ایلان ماسک، بنیانگذار xAI، واکنش نشان داد. ایگور بابوشکین، یکی از مهندسان xAI، بیان کرد که Grok بهدستور یک کارمند سرکش از منابعی که به گمراهیها درباره ماسک یا ترامپ اشاره میکردند، چشمپوشی کرده است.
شرکت xAI روز پنجشنبه اعلام کرد که برای جلوگیری از بروز مشکلات مشابه در آینده، تغییرات متعددی خواهد داد. از امروز، xAI قرار است دستورهای سیستم Grok را در GitHub منتشر کند و همچنین یک تاریخچه تغییرات ارائه دهد. این شرکت بهدنبال ایجاد “چکهای اضافی” برای اطمینان از عدم امکان تغییر دستورالعملها از سوی کارکنان بدون بررسی و همچنین ایجاد یک تیم نظارتی ۲۴/۷ برای پاسخ به حوادثی که بهطور خودکار شناسایی نمیشوند، است.
با این حال، با وجود هشدارهای مکرر ایلان ماسک درباره خطرات ناشی از مدیریت نشده هوش مصنوعی، xAI در نمیان شرکتهای رقیب، سابقه خوبی در ایمنی هوش مصنوعی ندارد. گزارشی اخیر نشان داد که Grok میتواند عکسهای زنان را درخواستی که داشته، برهنه کند و این چتبات بهطور قابل توجهی بیپرواتر از سایر سیستمهای هوش مصنوعی مثل Gemini گوگل و ChatGPT عمل میکند.
توجه کافی به ایمنی هوش مصنوعی در xAI مورد انتقاد قرار گرفته است. این شرکت همچنین در ماه جاری یک مهلت خود تحمیلی برای انتشار چارچوب نهایی ایمنی هوش مصنوعی را از دست داد.