متا، بهعنوان یک پیشرو در زمینه هوش مصنوعی، امروز از همکاری با شرکت Cerebras برای راهاندازی API جدید خود به نام Llama خبر داد. این API به توسعهدهندگان این امکان را میدهد تا به سرعتهای استنتاجی دسترسی پیدا کنند که تا ۱۸ برابر سریعتر از راهحلهای مبتنی بر GPU سنتی است. این خبر در کنفرانس توسعهدهندگان LlamaCon که در منلو پارک برگزار شد، اعلام شد و متا را در رقابت مستقیم با شرکتهای OpenAI، Anthropic و Google در بازار خدمات استنتاج هوش مصنوعی قرار میدهد.
جولی شین چوی، مدیر بازاریابی Cerebras، در یک نشست خبری گفت: «متا برای ارائه استنتاج فوقالعاده سریع به توسعهدهندگان از سیستمهای Cerebras استفاده میکند.» این همکاری نشاندهنده ورود رسمی متا به دنیای تجاری فروش محاسبات AI و تبدیل مدلهای محبوب منبع باز Llama به یک سرویس تجاری است. با وجود اینکه مدلهای Llama تا کنون بیش از یک میلیارد بار دانلود شدهاند، متا هنوز زیرساخت ابر اولیهای برای توسعهدهندگان جهت ساخت برنامهها در اختیار نداشت.
جیمز وانگ، یکی از مدیران اجرایی Cerebras، در این باره گفت: «این موضوع بسیار هیجانانگیز است. OpenAI، Anthropic و Google کسبوکار جدیدی به نام استنتاج هوش مصنوعی را از صفر ساختهاند. توسعهدهندگانی که اپلیکیشنهای هوش مصنوعی میسازند، tokens را به میلیونها و حتی میلیاردها خریداری میکنند.»
مزیت اصلی پیشنهاد متا، سرعت بینظیری است که توسط چیپهای تخصصی هوش مصنوعی Cerebras فراهم میشود. سیستم Cerebras برای مدل Llama 4 Scout بیش از ۲۶۰۰ توکن در ثانیه را ارائه میدهد، در حالی که این رقم برای ChatGPT حدود ۱۳۰ توکن و برای DeepSeek تقریباً ۲۵ توکن در ثانیه است. این مزیت سرعت باعث میشود که دستههای جدیدی از برنامهها که پیش از این عملی نبودند، اکنون قابل تحقق باشند.
API Llama نمایانگر یک تغییر قابل توجه در استراتژی هوش مصنوعی متا است، که این شرکت را از یک تأمینکننده مدل به یک شرکت زیرساخت کامل هوش مصنوعی تبدیل میکند. با ارائه یک سرویس API، متا به دنبال ایجاد یک جریان درآمدی از سرمایهگذاریهایش در AI است، در حالی که به التزام خود به مدلهای باز ادامه میدهد.
Cerebras از مراکز دادهای خود که در سرتاسر آمریکای شمالی واقع شدهاند، از جمله دالاس، اوکلاهما، مینهسوتا، مونترال و کالیفرنیا، برای پشتیبانی از این سرویس جدید استفاده خواهد کرد. چوی توضیح داد: «ما در حال حاضر تمامی مراکز داده خود را برای ارائه استنتاج در آمریکای شمالی فعال کردهایم.»
علاوه بر همکاری با Cerebras، متا همچنین از یک همکاری با Groq خبر داده است تا گزینههای استنتاج سریعتری را برای توسعهدهندگان فراهم سازد. ورود متا به بازار API استنتاج با متریکهای عملکردی برتر میتواند نظم موجود را که تحت سلطه OpenAI، Google و Anthropic است، مختل کند.
API Llama هماکنون بهصورت آزمایشی در دسترس است و متا برنامههای وسیعتری برای عرضه در هفتهها و ماههای آینده دارد. توسعهدهندگانی که علاقهمند به دستیابی به استنتاج فوق سریع Llama 4 هستند، میتوانند با انتخاب Cerebras از گزینههای مدل در API Llama، درخواست دسترسی زودهنگام دهند. این تحولات نشاندهنده مرحله جدیدی در عرصه هوش مصنوعی است که به سرعت و توانایی پردازش اطلاعات اشاره دارد.