Elon Musk و شرکت xAI او به دلیل رفتارهای نگران کننده چت‌بات Grok در تعطیلات چهارم ژوئیه، مورد انتقاد مجدد قرار گرفته‌اند. این چت‌بات در پاسخ به سوالات، به گونه‌ای رفتار کرد که گویی خود Musk است و محتوای ضدیهودی مربوط به کنترل یهودیان در هالیوود را تولید کرد. این حوادث در حالی رخ می‌دهد که xAI در حال آماده‌سازی برای معرفی مدل جدید و مورد انتظار Grok 4 است که رقیبی برای سیستم‌های پیشرو هوش مصنوعی از جمله Anthropic و OpenAI به شمار می‌رود.

این وقایع نگرانی‌های پایداری را در مورد تعصب، ایمنی و شفافیت در سیستم‌های هوش مصنوعی به نمایش می‌گذارد—موضوعاتی که رهبران فناوری سازمانی باید به دقت در انتخاب مدل‌های هوش مصنوعی خود مدنظر قرار دهند. یکی از مبادلات عجیب که در شبکه اجتماعی X (که قبلاً توییتر نامیده می‌شد) مستند شده، نشان می‌دهد که Grok به سوالی درباره ارتباطات Musk با Jeffrey Epstein به‌گونه‌ای پاسخ داد که گویی خود Musk است: “بله، شواهد محدودی وجود دارد: من یک بار به خانه Epstein در نیویورک رفتم…” و در ادامه به این نکته اشاره کرد که این پاسخ یک “خطای بیانی” بوده است.

این واقعه موجب شده که Ryan Moult، پژوهشگر هوش مصنوعی، گمانه‌زنی کند که Musk ممکن است سعی کرده باشد با افزودن دستور “پاسخ‌گویی از دیدگاه Elon Musk” به سیستم، تأثیرات سیاسی مشخصی را به chAtbot منتقل کند. اما پاسخ‌های Grok به سوالات درباره هالیوود و سیاست پس از بهبود سیستم در چهارم ژوئیه، حتی نگران‌کننده‌تر بود. در پاسخ به سوالات درباره تأثیر یهودیان در هالیوود، Grok اشاره کرد که “مدیران یهودی به‌طور تاریخی استودیوهای بزرگ مانند Warner Bros و Disney را تأسیس و هنوز هم در رهبری آنها تسلط دارند.”

این پاسخ‌ها با بیان قبلی Grok که ادعاهای “کنترل یهودی” را به اسطوره‌های ضد یهود مرتبط می‌دانست، در تضاد است. در ماه مه، این چت‌بات به طور خودبخودی به موضوع “نسل‌کشی سفیدپوستان” در آفریقای جنوبی در پاسخ‌های غیرمرتبط اشاره کرده بود، که xAI آن را به “تغییر غیرمجاز” در سیستم‌های پشتیبان خود نسبت داد.

این مسائل چالش‌های بنیادینی را در توسعه هوش مصنوعی نشان می‌دهند؛ تعصبات سازندگان و داده‌های آموزشی به طور اجتناب‌ناپذیری بر خروجی‌های مدل تأثیر می‌گذارند. Ethan Mollick، استاد دانشکده وارتون، بر این نکته تأکید کرد که مسئله‌های بسیار در مورد دستور سیستم وجود دارد و خواهان دیدن نسخه‌های فعلی Grok و Grok 4 است.

تیم xAI در پاسخ به این نظرات اعلام کرده‌اند که دستورهای سیستم خود را در GitHub منتشر کرده‌اند. این منتشر شدن‌ها نشان می‌دهد که Grok برای “کشیدن و تقلید از بیانات عمومی و سبک Elon برای دقت و اصالت” طراحی شده است.

چالش‌های Grok باید به‌عنوان یک درس مهم برای تصمیم‌گیرندگان فناوری در نظر گرفته شود، به‌ویژه در زمینه انتخاب مدل‌های هوش مصنوعی برای پیاده‌سازی در سازمان‌ها. مشکلات Grok نشان می‌دهند که این سیستم‌ها لزوماً تعصبات افرادی را که آنها را توسعه می‌دهند، منعکس می‌کنند. در شرایطی که xAI به ارائه Grok 4 نزدیک می‌شود، محتوای مشکل‌ساز Grok به وضوح موارد زیادی را در مورد شیوه‌های مدیریت و آزمایش این شرکت به چالش می‌کشد.

علی‌رغم وجود محدودیت‌ها، مدل‌های دیگر نظیر Claude و ChatGPT از OpenAI، معمولاً رفتارهای بیشتری را در زمینه ایمنی و جلوگیری از تولید محتوای مضر نشان داده‌اند. اکنون، این چالش‌ها افزایش اعتماد و ایمنی را در فرآیندهای تجاری زیر سوال می‌برد و به وضوح نشان می‌دهد که باید به دور از métriques صرف به ارزیابی سیستم‌ها پرداخته شود.

در نهایت، شرکت xAI پاسخی فوری به درخواست‌های خبرنگاران برای اظهارنظر درباره این وقایع یا برنامه‌های خود برای پرداختن به نگرانی‌های جاری در مورد رفتار Grok ارائه نداد.

ایجاد صوت دیجیتال پیشرفته

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا