در کنفرانس توسعهدهندگان LlamaCon AI که روز سهشنبه برگزار شد، شرکت متا از معرفی API جدید خود برای مدلهای هوش مصنوعی سری لاما خبر داد. این API، تحت عنوان Llama API، هماکنون در مرحله پیشنمایش محدود در دسترس توسعهدهندگان قرار گرفته و به آنها امکان میدهد تا با محصولات مختلفی که بر پایه مدلهای لاما طراحی شدهاند، کاوش و آزمایش کنند.
با ترکیب این API با نرمافزارهای توسعه (SDK) متا، توسعهدهندگان میتوانند خدمات، ابزارها و برنامههای کاربردی مبتنی بر لاما را ایجاد کنند. هرچند متا اطلاعاتی درباره قیمتگذاری این API به TechCrunch ارائه نکرده، اما این اقدام در راستای حفظ برتری متا در بازار مدلهای باز و رقابتی صورت میگیرد. بهگفته متا، مدلهای لاما تاکنون بیش از یک میلیارد بار دانلود شدهاند، اما رقبایی همچون DeepSeek و Qwen از علیبابا میتوانند تلاشهای متا برای ایجاد یک اکوسیستم وسیع را به چالش بکشند.
API لاما ابزارهایی برای بهینهسازی و ارزیابی عملکرد مدلهای لاما، با شروع از مدل Llama 3.3 8B، فراهم میآورد. کاربران میتوانند دادههای مورد نیاز خود را تولید کرده، بر روی آنها آموزش دهند و سپس از مجموعه ارزیابی متا در Llama API برای تست کیفیت مدل سفارشی خود بهره ببرند. متا همچنین تأکید کرده است که از دادههای مشتریان API لاما برای آموزش مدلهای داخلی خود استفاده نخواهد کرد و مدلهای ساخته شده با استفاده از این API قابلیت انتقال به میزبانهای دیگر را دارند.
برای توسعهدهندگانی که بر روی مدلهای اخیر لاما 4 کار میکنند، API لاما گزینههای میزبانی مدل را از طریق همکاری با Cerebras و Groq ارائه میدهد. این گزینههای «آزمایشی اولیه» بهطور محدود و با درخواست در دسترس قرار دارند و متا امیدوار است تا با گسترش همکاریها با تأمینکنندگان مختلف، گزینههای بیشتری برای توسعهدهندگان فراهم کند.
متا اعلام کرده است که در هفتهها و ماههای آینده به توسعه دسترسی به API لاما ادامه خواهد داد.