با گذشت چند هفته از معرفی مدل هوش مصنوعی جدید و پرقدرت خود، یعنی Gemini 2.5 Pro، گوگل روز پنجشنبه گزارشی فنی منتشر کرد که نتایج ارزیابیهای ایمنی داخلی آن را نشان میدهد. با این حال، کارشناسان از کمبود جزئیات در این گزارش انتقاد کرده و معتقدند که این موضوع تشخیص خطرات احتمالی این مدل را دشوار میسازد. گزارشهای فنی معمولاً اطلاعات مفید و گاهی ناخوشایند درباره محصولات هوش مصنوعی را ارائه میکنند که شرکتها چندان به طور عمومی به آنها اشاره نمیکنند. بهطور کلی، جامعه علمی هوش مصنوعی این گزارشها را تلاشی از سوی شرکتها برای حمایت از تحقیقات مستقل و ارزیابیهای ایمنی تلقی میکند.
گوگل با رویکردی متفاوت از رقبای خود در زمینه گزارشدهی ایمنی، تنها هنگامی گزارشهای فنی را منتشر میکند که به نظرش مدل مورد نظر از مرحله “آزمایشی” فارغالتحصیل شده باشد. این شرکت همچنین نتایج تمام ارزیابیهای “قابلیت خطرناک” خود را در این گزارشها نمیگنجاند و آنها را برای یک حسابرسی جداگانه نگه میدارد. چندین کارشناس که TechCrunch با آنها صحبت کرده، از کمبود اطلاعات در گزارش Gemini 2.5 Pro ابراز ناامیدی کردهاند و اشاره دارند که این گزارش اشارهای به چارچوب ایمنی Frontier (FSF) گوگل ندارد. FSF سال گذشته به عنوان تلاشی برای شناسایی قابلیتهای آینده هوش مصنوعی که میتواند “آسیبهای جدی” ایجاد کند، معرفی شد.
پیتر ویلدفورد، همبنیانگذار موسسه سیاست و استراتژی هوش مصنوعی، گفت: “این گزارش بسیار کم حجم است و اطلاعات کمی در آن وجود دارد و چند هفته بعد از دسترسی عمومی به مدل منتشر شده است. تأیید اینکه آیا گوگل به تعهدات عمومی خود عمل میکند، غیرممکن است و در نتیجه ارزیابی ایمنی و امنیت مدلهای آن نیز دشوار میشود.” توماس وودساید، همبنیانگذار پروژه ایمنی هوش مصنوعی، اشاره کرد که اگرچه از انتشار گزارش متعلق به Gemini 2.5 Pro خوشحال است، اما به تعهد گوگل به ارائه ارزیابیهای ایمنی بهموقع شک دارد. او خاطرنشان کرد که آخرین بار گوگل در ژوئن 2024 نتایج آزمایشات قابلیتهای خطرناک را منتشر کرده بود، در حالی که یک مدل در فوریه همان سال معرفی شده بود.
با وجود این، گوگل هنوز گزارشی برای مدل Gemini 2.5 Flash، که مدلی کوچک و کارآمدتر است و هفته گذشته معرفی شده، منتشر نکرده است. یکی از سخنگویان به TechCrunch گفت که گزارش مربوط به Flash به زودی منتشر خواهد شد. وودساید همچنین ابراز امیدواری کرد که این وعدهای از سوی گوگل باشد برای شروع انتشار بهروزرسانیهای بیشتر و بهموقع. او افزود: “این بهروزرسانیها باید شامل نتایج ارزیابی مدلهایی باشد که هنوز به طور عمومی منتشر نشدهاند، زیرا آنها نیز میتوانند خطرات جدی را به همراه داشته باشند.”
اگرچه گوگل ممکن است یکی از نخستین آزمایشگاههای هوش مصنوعی باشد که گزارشهای استاندارد برای مدلها پیشنهاد کرده، اما تنها شرکتی نیست که به کمبود شفافیت متهم شده است. متا نیز گزارش ایمنی مشابهی برای مدلهای جدید Llama 4 خود منتشر کرد و OpenAI از انتشار هرگونه گزارشی برای سری GPT-4.1 خود خودداری کرد. بر سر گوگل نیز وعدههایی که این غول فناوری به نهادهای نظارتی داده، مبنی بر حفظ استانداردهای بالای آزمایش و گزارشدهی ایمنی هوش مصنوعی، وجود دارد. دو سال پیش، گوگل به دولت ایالات متحده اعلام کرد که گزارشهای ایمنی را برای تمام مدلهای هوش عمومی “مهم” منتشر خواهد کرد. این شرکت این وعده را با تعهد مشابهی به سایر کشورها دنبال کرد.
Kevin Bankston، مشاور ارشد در زمینه حکمرانی هوش مصنوعی در مرکز دموکراسی و فناوری، این روند انتشار گزارشهای پراکنده و مبهم را یک “رقابت برای پایین آمدن” در ایمنی هوش مصنوعی توصیف کرد و افزود: “این موضوع، همراه با گزارشهایی که آزمایشگاههای رقیب مانند OpenAI زمان آزمایش ایمنی خود را قبل از انتشار از ماهها به روزها کاهش دادهاند، روایت نگران کنندهای از یک رقابت به سمت کاهش ایمنی و شفافیت در هوش مصنوعی به دلیل عجله شرکتها برای عرضه مدلهای خود به بازار است.” گوگل در بیانیههایی اعلام کرده است که در حالی که جزئیات در گزارشهای فنی ذکر نمیشود، پیش از انتشار مدلها آزمایشهای ایمنی و “گروهبندی معاندانه” را انجام میدهد.