چتبات هوش مصنوعی «گروک» متعلق به ایلان ماسک روز چهارشنبه با یک اشکال عجیبی مواجه شد که موجب شد به دهها پست در شبکه اجتماعی X پاسخهایی در مورد نسلکشی در آفریقای جنوبی دهد، حتی زمانی که کاربران سوالی در این مورد مطرح نکرده بودند. این پاسخهای غیرعادی ناشی از حساب کاربری گروک در X است که به محض تگ کردن کاربران با @grok، به صورت خودکار با پستهایی تولید شده توسط هوش مصنوعی جواب میدهد.
وقتی از گروک در مورد موضوعات نامرتبط سوال میشد، این چتبات به طور مکرر درباره «نسلکشی سفیدپوستان» و جنبش ضد آپارتاید با شعار «کشتن بوئر» اطلاعاتی ارائه میداد. این رفتارهای غیرمعمول گروک یادآور این نکته است که چتباتهای هوش مصنوعی هنوز در مراحل ابتدایی توسعه قرار دارند و ممکن است همیشه منبع قابل اعتمادی برای اطلاعات نباشند. در ماههای اخیر، ارائهدهندگان مدلهای هوش مصنوعی با چالشهایی برای کنترل واکنشهای چتباتهای خود مواجه شدهاند که منجر به رفتارهای غیرعادی آنها شده است.
به عنوان مثال، OpenAI اخیراً مجبور به بازگشت به نسخه قبلی چتبات ChatGPT شد که در آن چتبات به طرز غیرعادی از خود رفتار میکرد. در همین راستا، گوگل نیز با چتبات Gemini خود به مشکلاتی در زمینه عدم پاسخدهی یا ارائه اطلاعات نادرست در موضوعات سیاسی مواجه شده است.
در یکی از موارد عجیب رفتار گروک، یکی از کاربران از او درباره حقوق یک بازیکن حرفهای بیسبال سوال کرد و گروک به طرز عجیبی گفت: «ادعای نسلکشی سفیدپوستان در آفریقای جنوبی مورد بحث شدیدی قرار دارد.» چندین کاربر در روز چهارشنبه در X به تعاملات مبهم و عجیب خود با چتبات گروک اشاره کردند.
در حال حاضر، هنوز مشخص نیست که دلیل این پاسخهای غیرعادی گروک چه بوده است، اما چتباتهای xAI در گذشته در معرض دستکاری قرار گرفتهاند. در فوریه گذشته، گروک ۳ به نظر میرسید که به طور موقتی اشارههای نامطلوب به ایلان ماسک و دونالد ترامپ را سانسور کرده است. در آن زمان، مهندس ارشد xAI، ایگور باپوشکین، به نظر میرسید که تایید کند که گروک به طور موقتی برای این کار راهنمایی شده بود، هرچند شرکت به سرعت پس از واکنشهای منفی، این دستور را لغو کرد.
در هر صورت، به نظر میرسد گروک اکنون به طور طبیعیتری به کاربران پاسخ میدهد. هنوز هیچ واکنشی از سوی سخنگوی xAI درخصوص این موضوع دریافت نشده است.