با گذشت چند هفته از معرفی مدل هوش مصنوعی جدید و پرقدرت خود، یعنی Gemini 2.5 Pro، گوگل روز پنج‌شنبه گزارشی فنی منتشر کرد که نتایج ارزیابی‌های ایمنی داخلی آن را نشان می‌دهد. با این حال، کارشناسان از کمبود جزئیات در این گزارش انتقاد کرده و معتقدند که این موضوع تشخیص خطرات احتمالی این مدل را دشوار می‌سازد. گزارش‌های فنی معمولاً اطلاعات مفید و گاهی ناخوشایند درباره محصولات هوش مصنوعی را ارائه می‌کنند که شرکت‌ها چندان به طور عمومی به آن‌ها اشاره نمی‌کنند. به‌طور کلی، جامعه علمی هوش مصنوعی این گزارش‌ها را تلاشی از سوی شرکت‌ها برای حمایت از تحقیقات مستقل و ارزیابی‌های ایمنی تلقی می‌کند.

گوگل با رویکردی متفاوت از رقبای خود در زمینه گزارش‌دهی ایمنی، تنها هنگامی گزارش‌های فنی را منتشر می‌کند که به نظرش مدل مورد نظر از مرحله “آزمایشی” فارغ‌التحصیل شده باشد. این شرکت همچنین نتایج تمام ارزیابی‌های “قابلیت خطرناک” خود را در این گزارش‌ها نمی‌گنجاند و آن‌ها را برای یک حسابرسی جداگانه نگه می‌دارد. چندین کارشناس که TechCrunch با آن‌ها صحبت کرده، از کمبود اطلاعات در گزارش Gemini 2.5 Pro ابراز ناامیدی کرده‌اند و اشاره دارند که این گزارش اشاره‌ای به چارچوب ایمنی Frontier (FSF) گوگل ندارد. FSF سال گذشته به عنوان تلاشی برای شناسایی قابلیت‌های آینده هوش مصنوعی که می‌تواند “آسیب‌های جدی” ایجاد کند، معرفی شد.

پیتر ویلدفورد، هم‌بنیان‌گذار موسسه سیاست و استراتژی هوش مصنوعی، گفت: “این گزارش بسیار کم حجم است و اطلاعات کمی در آن وجود دارد و چند هفته بعد از دسترسی عمومی به مدل منتشر شده است. تأیید اینکه آیا گوگل به تعهدات عمومی خود عمل می‌کند، غیرممکن است و در نتیجه ارزیابی ایمنی و امنیت مدل‌های آن نیز دشوار می‌شود.” توماس وودساید، هم‌بنیان‌گذار پروژه ایمنی هوش مصنوعی، اشاره کرد که اگرچه از انتشار گزارش متعلق به Gemini 2.5 Pro خوشحال است، اما به تعهد گوگل به ارائه ارزیابی‌های ایمنی به‌موقع شک دارد. او خاطرنشان کرد که آخرین بار گوگل در ژوئن 2024 نتایج آزمایشات قابلیت‌های خطرناک را منتشر کرده بود، در حالی که یک مدل در فوریه همان سال معرفی شده بود.

با وجود این، گوگل هنوز گزارشی برای مدل Gemini 2.5 Flash، که مدلی کوچک و کارآمدتر است و هفته گذشته معرفی شده، منتشر نکرده است. یکی از سخنگویان به TechCrunch گفت که گزارش مربوط به Flash به زودی منتشر خواهد شد. وودساید همچنین ابراز امیدواری کرد که این وعده‌ای از سوی گوگل باشد برای شروع انتشار به‌روزرسانی‌های بیشتر و به‌موقع. او افزود: “این به‌روزرسانی‌ها باید شامل نتایج ارزیابی مدل‌هایی باشد که هنوز به طور عمومی منتشر نشده‌اند، زیرا آن‌ها نیز می‌توانند خطرات جدی را به همراه داشته باشند.”

اگرچه گوگل ممکن است یکی از نخستین آزمایشگاه‌های هوش مصنوعی باشد که گزارش‌های استاندارد برای مدل‌ها پیشنهاد کرده، اما تنها شرکتی نیست که به کمبود شفافیت متهم شده است. متا نیز گزارش ایمنی مشابهی برای مدل‌های جدید Llama 4 خود منتشر کرد و OpenAI از انتشار هرگونه گزارشی برای سری GPT-4.1 خود خودداری کرد. بر سر گوگل نیز وعده‌هایی که این غول فناوری به نهادهای نظارتی داده، مبنی بر حفظ استانداردهای بالای آزمایش و گزارش‌دهی ایمنی هوش مصنوعی، وجود دارد. دو سال پیش، گوگل به دولت ایالات متحده اعلام کرد که گزارش‌های ایمنی را برای تمام مدل‌های هوش عمومی “مهم” منتشر خواهد کرد. این شرکت این وعده را با تعهد مشابهی به سایر کشورها دنبال کرد.

Kevin Bankston، مشاور ارشد در زمینه حکمرانی هوش مصنوعی در مرکز دموکراسی و فناوری، این روند انتشار گزارش‌های پراکنده و مبهم را یک “رقابت برای پایین آمدن” در ایمنی هوش مصنوعی توصیف کرد و افزود: “این موضوع، همراه با گزارش‌هایی که آزمایشگاه‌های رقیب مانند OpenAI زمان آزمایش ایمنی خود را قبل از انتشار از ماه‌ها به روزها کاهش داده‌اند، روایت نگران کننده‌ای از یک رقابت به سمت کاهش ایمنی و شفافیت در هوش مصنوعی به دلیل عجله شرکت‌ها برای عرضه مدل‌های خود به بازار است.” گوگل در بیانیه‌هایی اعلام کرده است که در حالی که جزئیات در گزارش‌های فنی ذکر نمی‌شود، پیش از انتشار مدل‌ها آزمایش‌های ایمنی و “گروه‌بندی معاندانه” را انجام می‌دهد.

دستیار صوتی هوشمند پیشرفته

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا