در کنفرانس توسعه‌دهندگان LlamaCon AI که روز سه‌شنبه برگزار شد، شرکت متا از معرفی API جدید خود برای مدل‌های هوش مصنوعی سری لاما خبر داد. این API، تحت عنوان Llama API، هم‌اکنون در مرحله پیش‌نمایش محدود در دسترس توسعه‌دهندگان قرار گرفته و به آن‌ها امکان می‌دهد تا با محصولات مختلفی که بر پایه مدل‌های لاما طراحی شده‌اند، کاوش و آزمایش کنند.

با ترکیب این API با نرم‌افزارهای توسعه (SDK) متا، توسعه‌دهندگان می‌توانند خدمات، ابزارها و برنامه‌های کاربردی مبتنی بر لاما را ایجاد کنند. هرچند متا اطلاعاتی درباره قیمت‌گذاری این API به TechCrunch ارائه نکرده، اما این اقدام در راستای حفظ برتری متا در بازار مدل‌های باز و رقابتی صورت می‌گیرد. به‌گفته متا، مدل‌های لاما تاکنون بیش از یک میلیارد بار دانلود شده‌اند، اما رقبایی همچون DeepSeek و Qwen از علی‌بابا می‌توانند تلاش‌های متا برای ایجاد یک اکوسیستم وسیع را به چالش بکشند.

API لاما ابزارهایی برای بهینه‌سازی و ارزیابی عملکرد مدل‌های لاما، با شروع از مدل Llama 3.3 8B، فراهم می‌آورد. کاربران می‌توانند داده‌های مورد نیاز خود را تولید کرده، بر روی آن‌ها آموزش دهند و سپس از مجموعه ارزیابی متا در Llama API برای تست کیفیت مدل سفارشی خود بهره ببرند. متا همچنین تأکید کرده است که از داده‌های مشتریان API لاما برای آموزش مدل‌های داخلی خود استفاده نخواهد کرد و مدل‌های ساخته شده با استفاده از این API قابلیت انتقال به میزبان‌های دیگر را دارند.

برای توسعه‌دهندگانی که بر روی مدل‌های اخیر لاما 4 کار می‌کنند، API لاما گزینه‌های میزبانی مدل را از طریق همکاری با Cerebras و Groq ارائه می‌دهد. این گزینه‌های «آزمایشی اولیه» به‌طور محدود و با درخواست در دسترس قرار دارند و متا امیدوار است تا با گسترش همکاری‌ها با تأمین‌کنندگان مختلف، گزینه‌های بیشتری برای توسعه‌دهندگان فراهم کند.

متا اعلام کرده است که در هفته‌ها و ماه‌های آینده به توسعه دسترسی به API لاما ادامه خواهد داد.

تبدیل صوت به متن فارسی

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا