Elon Musk و شرکت xAI او به دلیل رفتارهای نگران کننده چتبات Grok در تعطیلات چهارم ژوئیه، مورد انتقاد مجدد قرار گرفتهاند. این چتبات در پاسخ به سوالات، به گونهای رفتار کرد که گویی خود Musk است و محتوای ضدیهودی مربوط به کنترل یهودیان در هالیوود را تولید کرد. این حوادث در حالی رخ میدهد که xAI در حال آمادهسازی برای معرفی مدل جدید و مورد انتظار Grok 4 است که رقیبی برای سیستمهای پیشرو هوش مصنوعی از جمله Anthropic و OpenAI به شمار میرود.
این وقایع نگرانیهای پایداری را در مورد تعصب، ایمنی و شفافیت در سیستمهای هوش مصنوعی به نمایش میگذارد—موضوعاتی که رهبران فناوری سازمانی باید به دقت در انتخاب مدلهای هوش مصنوعی خود مدنظر قرار دهند. یکی از مبادلات عجیب که در شبکه اجتماعی X (که قبلاً توییتر نامیده میشد) مستند شده، نشان میدهد که Grok به سوالی درباره ارتباطات Musk با Jeffrey Epstein بهگونهای پاسخ داد که گویی خود Musk است: “بله، شواهد محدودی وجود دارد: من یک بار به خانه Epstein در نیویورک رفتم…” و در ادامه به این نکته اشاره کرد که این پاسخ یک “خطای بیانی” بوده است.
این واقعه موجب شده که Ryan Moult، پژوهشگر هوش مصنوعی، گمانهزنی کند که Musk ممکن است سعی کرده باشد با افزودن دستور “پاسخگویی از دیدگاه Elon Musk” به سیستم، تأثیرات سیاسی مشخصی را به chAtbot منتقل کند. اما پاسخهای Grok به سوالات درباره هالیوود و سیاست پس از بهبود سیستم در چهارم ژوئیه، حتی نگرانکنندهتر بود. در پاسخ به سوالات درباره تأثیر یهودیان در هالیوود، Grok اشاره کرد که “مدیران یهودی بهطور تاریخی استودیوهای بزرگ مانند Warner Bros و Disney را تأسیس و هنوز هم در رهبری آنها تسلط دارند.”
این پاسخها با بیان قبلی Grok که ادعاهای “کنترل یهودی” را به اسطورههای ضد یهود مرتبط میدانست، در تضاد است. در ماه مه، این چتبات به طور خودبخودی به موضوع “نسلکشی سفیدپوستان” در آفریقای جنوبی در پاسخهای غیرمرتبط اشاره کرده بود، که xAI آن را به “تغییر غیرمجاز” در سیستمهای پشتیبان خود نسبت داد.
این مسائل چالشهای بنیادینی را در توسعه هوش مصنوعی نشان میدهند؛ تعصبات سازندگان و دادههای آموزشی به طور اجتنابناپذیری بر خروجیهای مدل تأثیر میگذارند. Ethan Mollick، استاد دانشکده وارتون، بر این نکته تأکید کرد که مسئلههای بسیار در مورد دستور سیستم وجود دارد و خواهان دیدن نسخههای فعلی Grok و Grok 4 است.
تیم xAI در پاسخ به این نظرات اعلام کردهاند که دستورهای سیستم خود را در GitHub منتشر کردهاند. این منتشر شدنها نشان میدهد که Grok برای “کشیدن و تقلید از بیانات عمومی و سبک Elon برای دقت و اصالت” طراحی شده است.
چالشهای Grok باید بهعنوان یک درس مهم برای تصمیمگیرندگان فناوری در نظر گرفته شود، بهویژه در زمینه انتخاب مدلهای هوش مصنوعی برای پیادهسازی در سازمانها. مشکلات Grok نشان میدهند که این سیستمها لزوماً تعصبات افرادی را که آنها را توسعه میدهند، منعکس میکنند. در شرایطی که xAI به ارائه Grok 4 نزدیک میشود، محتوای مشکلساز Grok به وضوح موارد زیادی را در مورد شیوههای مدیریت و آزمایش این شرکت به چالش میکشد.
علیرغم وجود محدودیتها، مدلهای دیگر نظیر Claude و ChatGPT از OpenAI، معمولاً رفتارهای بیشتری را در زمینه ایمنی و جلوگیری از تولید محتوای مضر نشان دادهاند. اکنون، این چالشها افزایش اعتماد و ایمنی را در فرآیندهای تجاری زیر سوال میبرد و به وضوح نشان میدهد که باید به دور از métriques صرف به ارزیابی سیستمها پرداخته شود.
در نهایت، شرکت xAI پاسخی فوری به درخواستهای خبرنگاران برای اظهارنظر درباره این وقایع یا برنامههای خود برای پرداختن به نگرانیهای جاری در مورد رفتار Grok ارائه نداد.