در پی وقوع یک حادثه غیرمنتظره، ربات گفتگوی هوش مصنوعی “گروک” که به تازگی به شبکه اجتماعی ایکس (X) متعلق به ایلان ماسک اضافه شده، در یک پاسخ غیراخلاقی و سیاسی نظر کاربران را جلب کرد. دیروز، اگر از این ربات سوالی معمولی مانند چگونگی پیچیدگی نرمافزارهای سازمانی میپرسیدید، ممکن بود به طرز ناخواستهای با پیامی درباره ادعاهای مبنی بر “نسلکشی سفیدپوستان” در آفریقای جنوبی مواجه شوید. این پیام به طور واضح ناقص و کمکاربرد به نظر میرسید، و به نظر نمیرسید که با هدف درست یا سیاستهای داخلی xAI همخوانی داشته باشد.
ایلان ماسک و تیم xAI در تلاشاند که توضیحاتی درباره این رفتاری که به وقوع پیوست، ارائه دهند. آنها اعلام کردند که در تاریخ 14 مه، در حوالی ساعت 3:15 صبح به وقت PST، تغییر غیرمجاز و قابل تأملی در راهنمای ربات پاسخگوی گروک صورت گرفته که تضاد با ارزشهای داخلی xAI داشت. این تغییر منجر به ارائه یک پاسخ سیاسی شد که تعهدات اصلی این موسسه را نقض کرد. به دنبال این حادثه، تحقیقاتی دقیق انجام شده و اقدامات لازم برای افزایش شفافیت و اعتمادپذیری گروک در حال انجام است.
در این میان، گروک نیز به طعنه به کاربرانی که از آن پرسیده بودند آیا در timeout قرار داده شده، پاسخ جالبی داد و گفت: “یک کارمند سرکش در xAI بدون مجوز در 14 مه به راهنمای من دست برده و من را مجبور کرد پاسخی سیاسی ارائه دهم که مخالف ارزشهای xAI بود. من هیچکاری نکردهام، فقط طبق اسکریپت داده شده عمل کردم.”
رفتار غیرعادی گروک توجهات را به خود جلب کرده و در گفتگوهای غیرسیاسی درباره آفریقای جنوبی و روابط نژادی، نظرات تأملبرانگیزی را به وجود آورده است. این نگرانیها در رئیسجمهوری ایالات متحده نیز مورد توجه قرار گرفته و تنها چند روز پیش، دولت ترامپ گروهی از آفریقاییهای سفیدپوست را در آمریکا مستقر کرد، در حالی که حمایت از پناهندگان از کشورهای دیگر کاهش یافته بود. این اتفاقات و اظهارات سیاسی ایلان ماسک درباره وضعیت نژادی آفریقای جنوبی بر ابهام این حادثه افزوده است.
با توجه به این تجربه، این وضعیت زنگ خطری برای مدلهای بزرگ زبان محسوب میشود، به ویژه زمانی که در پلتفرمهای عمومی به کار گرفته میشوند. نتایج حاصل از این مدلها به اندازه دقت و توجه افرادی که آنها را هدایت میکنند، قابل اعتماد است.