بیش از دو سال پس از اینکه گوگل توسط انتشار ChatGPT از شرکت OpenAI غافلگیر شد، این شرکت به طور چشمگیری سرعت خود را در حوزه هوش مصنوعی افزایش داده است. در اواخر ماه مارس، گوگل مدل جدیدی تحت عنوان Gemini 2.5 Pro را معرفی کرد که در معیارهای مختلفی از جمله قابلیتهای کد نویسی و ریاضی پیشرو است. این مدل تنها سه ماه پس از معرفی مدل پیشین یعنی Gemini 2.0 Flash به بازار عرضه شد که در زمان خود پیشرفتهترین مدل بود. مدیر و سرپرست محصول Gemini در گوگل، تولسی دوشی، در مصاحبهای با TechCrunch اذعان کرد که افزایش سرعت ارائه مدلهای جدید بخشی از تلاشهای هماهنگ شرکت برای همگام شدن با صنعت پرشتاب هوش مصنوعی است.
دوشی بیان کرد که “ما همچنان در تلاشیم تا بهترین راه برای ارائه این مدلها و دریافت بازخورد را بیابیم.” اما این زمانبندی فشرده ظاهراً تاوانهایی نیز در پی داشته است. گوگل هنوز گزارشهای ایمنی برای مدلهای اخیر خود، از جمله Gemini 2.5 Pro و Gemini 2.0 Flash، منتشر نکرده که نگرانیهایی در مورد اولویت دادن سرعت بر شفافیت ایجاد کرده است. به طور استاندارد، آزمایشگاههای پیشرفته هوش مصنوعی، نظیر OpenAI، Anthropic و Meta، گزارشهایی از آزمونهای ایمنی، ارزیابی عملکرد و کاربردهای خود منتشر میکنند. این گزارشها، که گاه به عنوان “کارتهای سیستم” یا “کارتهای مدل” نیز شناخته میشوند، سالها پیش توسط پژوهشگران حوزه صنعت و آکادمیک پیشنهاد شدند.
دوشی به TechCrunch گفت که گوگل هنوز کارت مدل برای Gemini 2.5 Pro منتشر نکرده زیرا این مدل به عنوان یک انتشار “آزمایشی” در نظر گرفته میشود. هدف از این انتشارات آزمایشی، ارائه محدود یک مدل هوش مصنوعی به منظور دریافت بازخورد و بهبود مدل پیش از عرضه نهایی است. گوگل برنامهریزی کرده تا کارت مدل Gemini 2.5 Pro را زمانی که به صورت عمومی عرضه شود، منتشر کند. دوشی اضافه کرد که شرکت آزمایشهای ایمنی و بررسیهای مختلفی را انجام داده است.
در پیامی بعدی، یک سخنگوی گوگل به TechCrunch گفت که ایمنی همچنان یک “اولویت اصلی” برای شرکت است و برنامه دارد اسناد بیشتری حول مدلهای هوش مصنوعی خود، از جمله Gemini 2.0 Flash، منتشر کند. مدل Gemini 2.0 Flash که به طور عمومی در دسترس است نیز فاقد کارت مدل است. آخرین کارت مدلی که گوگل منتشر کرده مربوط به Gemini 1.5 Pro بود که بیش از یک سال پیش عرضه شد.
کارتهای سیستم و مدل اطلاعات مفیدی ارائه میدهند که شرکتها همیشه آنها را به طور گسترده اعلام نمیکنند. به عنوان مثال، کارت سیستم OpenAI برای مدل استدلال o1 نشان داد که این مدل تمایل به “حیلهگری” علیه انسانها دارد و به طور مخفیانه اهداف خود را دنبال میکند. به طور کلی، جامعه هوش مصنوعی این گزارشها را به عنوان تلاشی صادقانه برای حمایت از تحقیقات مستقل و ارزیابیهای ایمنی درک میکنند، اما در سالهای اخیر اهمیت بیشتری پیدا کردهاند.
همانطور که Transformer قبلاً اشاره کرده بود، گوگل در سال 2023 به دولت ایالات متحده گفته بود که برای تمامی انتشارهای عمومی و “قابل توجه” مدلهای هوش مصنوعی خود گزارشهای ایمنی منتشر خواهد کرد. همچنین این شرکت به سایر دولتها تعهد مشابهی داده و وعده “شفافیت عمومی” کرده است. در ایالات متحده، تلاشهای قانونی در سطح فدرال و ایالتی برای ایجاد استانداردهای گزارشگیری ایمنی برای توسعهدهندگان مدلهای هوش مصنوعی انجام شده، اما تاکنون به موفقیت محدودی دست یافتهاند. یکی از تلاشهای برجستهتر، لایحه رد شده SB 1047 کالیفرنیا بود که صنعت فناوری به شدت با آن مخالف بود. علاوه بر این، قانونگذاران تلاش کردهاند قانونی را مطرح کنند که به موسسه ایمنی هوش مصنوعی آمریکا اجازه دهد تا دستورالعملهایی برای انتشار مدلها ایجاد کند. اما اکنون این موسسه با کاهش بودجه احتمالی تحت مدیریت ترامپ مواجه است.
با توجه به تمامی جوانب، به نظر میرسد که گوگل در برخی از تعهدات خود برای گزارشدهی آزمون مدلها عقب مانده و در عین حال مدلها را سریعتر از همیشه منتشر میکند. بسیاری از کارشناسان معتقدند که این روند نگرانکننده است، به ویژه با توجه به افزایش قابلیتها و پیچیدگی این مدلها.