متا مدل‌های جدید هوش مصنوعی لاما ۴ را در خانواده لاما معرفی کرد. این مجموعه شامل چهار مدل مجزا به نام‌های لاما ۴ اسکات، لاما ۴ ماوریک و لاما ۴ بهروموث است. این مدل‌ها برای تحلیل متن‌های بزرگ، تصاویر و ویدئوها آموزش دیده‌اند تا درک بصری گسترده‌ای داشته باشند. به گفته متا، موفقیت مدل‌های متن‌باز آزمایشگاه هوش مصنوعی چینی DeepSeek، که عملکردی برابر یا بهتر از مدل‌های قبلی لاما داشت، باعث شد تا توسعه لاما با سرعت بیشتری دنبال شود.

مدل‌های اسکات و ماوریک اکنون بر روی Llama.com و از طریق شرکای متا مانند پلتفورم توسعه هوش مصنوعی Hugging Face در دسترس هستند، در حالی که بهروموث همچنان در حال آموزش است. متا اعلام کرده که دستیار هوش مصنوعی متا، که در اپلیکیشن‌هایی مانند واتساپ، مسنجر و اینستاگرام فعال است، اکنون در ۴۰ کشور با استفاده از لاما ۴ آپدیت شده است. قابلیت‌های چندحالته در حال حاضر به ایالات متحده و به زبان انگلیسی محدود است.

طبق مقررات، کاربران و شرکت‌هایی که در اتحادیه اروپا قرار دارند، از استفاده یا توزیع مدل‌های لاما ۴ منع شده‌اند، که به نظر می‌رسد نتیجه قوانین حاکم بر هوش مصنوعی و حفاظت از داده‌ها در این منطقه باشد. علاوه بر این، شرکت‌های با بیش از ۷۰۰ میلیون کاربر فعال ماهانه باید برای استفاده از لاما ۴ مجوز ویژه از متا دریافت کنند.

متا در بلاگی اعلام کرد: «این مدل‌های لاما ۴ نشان‌دهنده شروع یک دوره جدید برای اکوسیستم لاما هستند.» آن‌ها تاکید کردند که این تنها آغاز مجموعه لاما ۴ است. به گفته متا، لاما ۴ اولین مجموعه‌ای از مدل‌های آن‌ها است که از معماری مخلوطی از تخصص‌ها (MoE) استفاده می‌کند، که از نظر محاسباتی برای آموزش و پاسخ‌گویی کارآمدتر است.

ماوریک، برای مثال، دارای ۴۰۰ میلیارد پارامتر کل و ۱۷ میلیارد پارامتر فعال در میان ۱۲۸ متخصص است. اسکات دارای ۱۷ میلیارد پارامتر فعال، ۱۶ متخصص و ۱۰۹ میلیارد پارامتر کل است. به گفته متا، ماوریک برای موارد استفاده مانند دستیار عمومی و چت مناسب است.

مدل بهروموث هنوز منتشر نشده است ولی نیاز به سخت‌افزاری قوی‌تر دارد و به گفته شرکت، ۲۸۸ میلیارد پارامتر فعال و ۱۶ متخصص دارد. بهروموث در آزمون‌های داخلی متا برتری قابل‌توجهی نسبت به مدل‌های دیگر نشان داده است.

این مدل‌های لاما ۴ به گونه‌ای تنظیم شده‌اند که کمتر به سوالات حساس پاسخ دهند. متا اعلام کرده که لاما ۴ به سوالات سیاسی و اجتماعی که مدل‌های قبلی قادر به پاسخ‌گویی نبودند، پاسخ می‌دهد و رویکردی متعادل‌تر دارد.

در نهایت، این تغییرات در حالی رخ داده است که منتقدان به سیایت‌های سیاسی AI اعتراض کرده و متهم به سانسور دیدگاه‌های محافظه‌کارانه می‌کنند. متا در تلاش است تا مدل‌های هوش مصنوعی خود را به گونه‌ای تنظیم کند که به سوالات بیشتری پاسخ دهند و دیدگاه‌های مختلف را به تعادل برسانند.

تبدیل نوشتار به گفتار

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا