بیش از دو سال پس از اینکه گوگل توسط انتشار ChatGPT از شرکت OpenAI غافلگیر شد، این شرکت به طور چشمگیری سرعت خود را در حوزه هوش مصنوعی افزایش داده است. در اواخر ماه مارس، گوگل مدل جدیدی تحت عنوان Gemini 2.5 Pro را معرفی کرد که در معیارهای مختلفی از جمله قابلیت‌های کد نویسی و ریاضی پیشرو است. این مدل تنها سه ماه پس از معرفی مدل پیشین یعنی Gemini 2.0 Flash به بازار عرضه شد که در زمان خود پیشرفته‌ترین مدل بود. مدیر و سرپرست محصول Gemini در گوگل، تولسی دوشی، در مصاحبه‌ای با TechCrunch اذعان کرد که افزایش سرعت ارائه مدل‌های جدید بخشی از تلاش‌های هماهنگ شرکت برای همگام شدن با صنعت پرشتاب هوش مصنوعی است.

دوشی بیان کرد که “ما همچنان در تلاشیم تا بهترین راه برای ارائه این مدل‌ها و دریافت بازخورد را بیابیم.” اما این زمانبندی فشرده ظاهراً تاوان‌هایی نیز در پی داشته است. گوگل هنوز گزارش‌های ایمنی برای مدل‌های اخیر خود، از جمله Gemini 2.5 Pro و Gemini 2.0 Flash، منتشر نکرده که نگرانی‌هایی در مورد اولویت دادن سرعت بر شفافیت ایجاد کرده است. به طور استاندارد، آزمایشگاه‌های پیشرفته هوش مصنوعی، نظیر OpenAI، Anthropic و Meta، گزارش‌هایی از آزمون‌های ایمنی، ارزیابی عملکرد و کاربردهای خود منتشر می‌کنند. این گزارش‌ها، که گاه به عنوان “کارت‌های سیستم” یا “کارت‌های مدل” نیز شناخته می‌شوند، سال‌ها پیش توسط پژوهشگران حوزه صنعت و آکادمیک پیشنهاد شدند.

دوشی به TechCrunch گفت که گوگل هنوز کارت مدل برای Gemini 2.5 Pro منتشر نکرده زیرا این مدل به عنوان یک انتشار “آزمایشی” در نظر گرفته می‌شود. هدف از این انتشارات آزمایشی، ارائه محدود یک مدل هوش مصنوعی به منظور دریافت بازخورد و بهبود مدل پیش از عرضه نهایی است. گوگل برنامه‌ریزی کرده تا کارت مدل Gemini 2.5 Pro را زمانی که به صورت عمومی عرضه شود، منتشر کند. دوشی اضافه کرد که شرکت آزمایش‌های ایمنی و بررسی‌های مختلفی را انجام داده است.

در پیامی بعدی، یک سخنگوی گوگل به TechCrunch گفت که ایمنی همچنان یک “اولویت اصلی” برای شرکت است و برنامه دارد اسناد بیشتری حول مدل‌های هوش مصنوعی خود، از جمله Gemini 2.0 Flash، منتشر کند. مدل Gemini 2.0 Flash که به طور عمومی در دسترس است نیز فاقد کارت مدل است. آخرین کارت مدلی که گوگل منتشر کرده مربوط به Gemini 1.5 Pro بود که بیش از یک سال پیش عرضه شد.

کارت‌های سیستم و مدل اطلاعات مفیدی ارائه می‌دهند که شرکت‌ها همیشه آن‌ها را به طور گسترده اعلام نمی‌کنند. به عنوان مثال، کارت سیستم OpenAI برای مدل استدلال o1 نشان داد که این مدل تمایل به “حیله‌گری” علیه انسان‌ها دارد و به طور مخفیانه اهداف خود را دنبال می‌کند. به طور کلی، جامعه هوش مصنوعی این گزارش‌ها را به عنوان تلاشی صادقانه برای حمایت از تحقیقات مستقل و ارزیابی‌های ایمنی درک می‌کنند، اما در سال‌های اخیر اهمیت بیشتری پیدا کرده‌اند.

همانطور که Transformer قبلاً اشاره کرده بود، گوگل در سال 2023 به دولت ایالات متحده گفته بود که برای تمامی انتشارهای عمومی و “قابل توجه” مدل‌های هوش مصنوعی خود گزارش‌های ایمنی منتشر خواهد کرد. همچنین این شرکت به سایر دولت‌ها تعهد مشابهی داده و وعده “شفافیت عمومی” کرده است. در ایالات متحده، تلاش‌های قانونی در سطح فدرال و ایالتی برای ایجاد استانداردهای گزارشگیری ایمنی برای توسعه‌دهندگان مدل‌های هوش مصنوعی انجام شده، اما تاکنون به موفقیت محدودی دست یافته‌اند. یکی از تلاش‌های برجسته‌تر، لایحه رد شده SB 1047 کالیفرنیا بود که صنعت فناوری به شدت با آن مخالف بود. علاوه بر این، قانون‌گذاران تلاش کرده‌اند قانونی را مطرح کنند که به موسسه ایمنی هوش مصنوعی آمریکا اجازه دهد تا دستورالعمل‌هایی برای انتشار مدل‌ها ایجاد کند. اما اکنون این موسسه با کاهش بودجه احتمالی تحت مدیریت ترامپ مواجه است.

با توجه به تمامی جوانب، به نظر می‌رسد که گوگل در برخی از تعهدات خود برای گزارش‌دهی آزمون مدل‌ها عقب مانده و در عین حال مدل‌ها را سریع‌تر از همیشه منتشر می‌کند. بسیاری از کارشناسان معتقدند که این روند نگران‌کننده است، به ویژه با توجه به افزایش قابلیت‌ها و پیچیدگی این مدل‌ها.

تولید تصویر با هوش مصنوعی

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا