متا، به‌عنوان یک پیشرو در زمینه هوش مصنوعی، امروز از همکاری با شرکت Cerebras برای راه‌اندازی API جدید خود به نام Llama خبر داد. این API به توسعه‌دهندگان این امکان را می‌دهد تا به سرعت‌های استنتاجی دسترسی پیدا کنند که تا ۱۸ برابر سریع‌تر از راه‌حل‌های مبتنی بر GPU سنتی است. این خبر در کنفرانس توسعه‌دهندگان LlamaCon که در منلو پارک برگزار شد، اعلام شد و متا را در رقابت مستقیم با شرکت‌های OpenAI، Anthropic و Google در بازار خدمات استنتاج هوش مصنوعی قرار می‌دهد.

جولی شین چوی، مدیر بازاریابی Cerebras، در یک نشست خبری گفت: «متا برای ارائه استنتاج فوق‌العاده سریع به توسعه‌دهندگان از سیستم‌های Cerebras استفاده می‌کند.» این همکاری نشان‌دهنده ورود رسمی متا به دنیای تجاری فروش محاسبات AI و تبدیل مدل‌های محبوب منبع باز Llama به یک سرویس تجاری است. با وجود اینکه مدل‌های Llama تا کنون بیش از یک میلیارد بار دانلود شده‌اند، متا هنوز زیرساخت ابر اولیه‌ای برای توسعه‌دهندگان جهت ساخت برنامه‌ها در اختیار نداشت.

جیمز وانگ، یکی از مدیران اجرایی Cerebras، در این باره گفت: «این موضوع بسیار هیجان‌انگیز است. OpenAI، Anthropic و Google کسب‌وکار جدیدی به نام استنتاج هوش مصنوعی را از صفر ساخته‌اند. توسعه‌دهندگانی که اپلیکیشن‌های هوش مصنوعی می‌سازند، tokens را به میلیون‌ها و حتی میلیاردها خریداری می‌کنند.»

مزیت اصلی پیشنهاد متا، سرعت بی‌نظیری است که توسط چیپ‌های تخصصی هوش مصنوعی Cerebras فراهم می‌شود. سیستم Cerebras برای مدل Llama 4 Scout بیش از ۲۶۰۰ توکن در ثانیه را ارائه می‌دهد، در حالی که این رقم برای ChatGPT حدود ۱۳۰ توکن و برای DeepSeek تقریباً ۲۵ توکن در ثانیه است. این مزیت سرعت باعث می‌شود که دسته‌های جدیدی از برنامه‌ها که پیش از این عملی نبودند، اکنون قابل تحقق باشند.

API Llama نمایانگر یک تغییر قابل توجه در استراتژی هوش مصنوعی متا است، که این شرکت را از یک تأمین‌کننده مدل به یک شرکت زیرساخت کامل هوش مصنوعی تبدیل می‌کند. با ارائه یک سرویس API، متا به دنبال ایجاد یک جریان درآمدی از سرمایه‌گذاری‌هایش در AI است، در حالی که به التزام خود به مدل‌های باز ادامه می‌دهد.

Cerebras از مراکز داده‌ای خود که در سرتاسر آمریکای شمالی واقع شده‌اند، از جمله دالاس، اوکلاهما، مینه‌سوتا، مونترال و کالیفرنیا، برای پشتیبانی از این سرویس جدید استفاده خواهد کرد. چوی توضیح داد: «ما در حال حاضر تمامی مراکز داده خود را برای ارائه استنتاج در آمریکای شمالی فعال کرده‌ایم.»

علاوه بر همکاری با Cerebras، متا همچنین از یک همکاری با Groq خبر داده است تا گزینه‌های استنتاج سریع‌تری را برای توسعه‌دهندگان فراهم سازد. ورود متا به بازار API استنتاج با متریک‌های عملکردی برتر می‌تواند نظم موجود را که تحت سلطه OpenAI، Google و Anthropic است، مختل کند.

API Llama هم‌اکنون به‌صورت آزمایشی در دسترس است و متا برنامه‌های وسیع‌تری برای عرضه در هفته‌ها و ماه‌های آینده دارد. توسعه‌دهندگانی که علاقه‌مند به دستیابی به استنتاج فوق سریع Llama 4 هستند، می‌توانند با انتخاب Cerebras از گزینه‌های مدل در API Llama، درخواست دسترسی زودهنگام دهند. این تحولات نشان‌دهنده مرحله جدیدی در عرصه هوش مصنوعی است که به سرعت و توانایی پردازش اطلاعات اشاره دارد.

چت بات هوش مصنوعی

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا