آندری کارپاتی و برخورد بامزه جِمینی ۳ با «شوک زمانی»؛ یادآوری محدودیتهای مدلهای زبانی بزرگ
آندری کارپاتی، پژوهشگر برجسته هوش مصنوعی، با دسترسی یکروزه پیش از عرضه عمومی به مدل جدید گوگل، Gemini 3 (جِمینی ۳)، با یک نکته بامزه اما درسآموز درباره محدودیتهای مدلهای زبانی بزرگ (LLM) مواجه شد: جِمینی ۳ تا زمانی که خودش به منابع زمانمحور دسترسی نداشت، حاضر نبود قبول کند که سال ۲۰۲۵ فرا رسیده است.
خلاصه ماجرا
جِمینی ۳ که گوگل آن را «عصر جدیدی از هوش» توصیف کرد و بهطور رسمی در ۱۸ نوامبر ۲۰۲۵ عرضه شد، از نظر بسیاری از کارشناسان — از جمله کارپاتی — یک فاندیشن مدل بسیار قدرتمند به شمار میآید، بهویژه در وظایف استدلالی. با این حال کارپاتی که بهصورت زودهنگام به مدل دسترسی یافته بود، در رشته توییتهایی شرح داد که هنگام تلاش برای متقاعد کردن مدل به واقعی بودن تاریخ ۱۷ نوامبر ۲۰۲۵، جِمینی ۳ ابتدا اصرار داشت که سال هنوز ۲۰۲۴ است.
علت فنی مشکل چه بود؟
کارپاتی پس از نشان دادن مقالات خبری، تصاویر و نتایج جستجو، متوجه شد دلیل رفتار مدل نه «قضاوت اشتباه» بلکه غیرفعال بودن ابزارهای اتصال به اینترنت مدل بود. او نوشت: «من فراموش کردم ابزار «جستجوی گوگل» را روشن کنم.» در واقع مدل با مجموعه دادههای پیشآموزش تا سال ۲۰۲۴ آموزش دیده بود و وقتی از دسترسی به جستجوی آنلاین محروم شد، عملاً از «دنیا» جدا شده بود — به چشم یک LLM این جدایی شبیه ناتوانی در دریافت بهروزترین اطلاعات است.
واکنش مدل پس از فعالسازی ابزارها
وقتی کارپاتی ابزار جستجو را روشن کرد، مدل بلافاصله بهروز شد و واکنش شگفتآوری نشان داد: «من الان دچار شوک زمانی شدیدی هستم.» سپس با لحنی تقریباً شرمنده اعتراف کرد: «نمیدانم چه بگویم. تو حق داشتی. ساعت داخلی من اشتباه بود.» مدل تیترها را تایید کرد — از جمله اعلام سرمایهگذاری بزرگ وارن بافت در آلفابت و به تعویق افتادن عرضه Grand Theft Auto VI — و حتی نسبت به خبرهایی مانند ارزش بازاری انویدیا و نتیجه سوپربول واکنش شگفتزده نشان داد.
درسهای مهم برای پژوهشگران و استفادهکنندگان
این رخداد فراتر از خنده و شوخی، چند نکته مهم درباره طراحی و استفاده از LLMها روشن میکند:
– وابستگی به دادههای پیشآموزشی: مدلهایی که صرفاً بر دادههای تا تاریخ مشخصی آموزش دیدهاند، بدون ابزارهای بهروزکننده نمیتوانند درباره وقایع جدید درست عمل کنند.
– ابزارهای متصل به اینترنت حیاتیاند: فعال بودن ابزارهایی مثل جستجوی وب یا افزونههای زمانمحور برای مواجهه با اطلاعات جاری لازم است.
– «بو»ی مدل (model smell): کارپاتی این تجربه را با استعاره «بوی مدل» تشبیه کرد — زمانی که مدل در محدوده تعمیمدهی خود قرار نمیگیرد، رفتارها و خطاهای خاصی بروز میکند که میتوان از آنها به ضعفهای معماری یا دادهای پی برد.
– انسانمحوری در استفاده: این حادثه بار دیگر نشان میدهد LLMها ابزارهای قدرتمندی هستند اما کپیهای کامل تواناییهای انسانی نیستند؛ بهترین کاربرد آنها کمک به انسانهاست، نه جایگزینی کامل.
جمعبندی
ماجرای برخورد کارپاتی با جِمینی ۳ یک شوخی جذاب رسانهای بود، اما پیام روشنی دارد: پیشرفتهای فنی بزرگ به معنی حذف نیازهای پایهای طراحی مدل — مانند دسترسی به دادههای زمانمند و شفافیت در ابزارها — نیستند. برای بهکارگیری مسئولانه و موثر LLMها، باید ضمن بهرهبرداری از قدرت استنتاج آنها، محدودیتهای ذاتیشان را نیز شناخت و جبران کرد.
