نویسنده: بینا ویرا

نزول چیپ‌های هوش مصنوعی انویدیا به مراکز داده در سطح جهانی

شرکت انویدیا به تازگی اعلام کرد که چیپ‌های هوش مصنوعی خود را به مراکز داده و به آنچه که “کارخانه‌های هوش مصنوعی” می‌نامد، در سرتاسر جهان عرضه می‌کند. چیپ‌های سری Blackwell انویدیا در بالای معیارهای سنجش هوش مصنوعی قرار دارند و این شرکت به همراه شرکای خود، سرعت آموزش و استقرار برنامه‌های جدید هوش مصنوعی را افزایش می‌دهد.

معماری Blackwell انویدیا به منظور پاسخگویی به نیازهای عملکردی پیچیده این برنامه‌های جدید طراحی شده است. در دوازدهمین دور از ارزیابی‌های MLPerf Training، این پلتفرم موفق به کسب بالاترین میزان عملکرد در تمامی معیارها شده و نتایج ارسال شده در سخت‌ترین آزمون مربوط به مدل‌های زبانی بزرگ (LLM) را به نمایش گذاشته است. بی‌نظیر بودن این عملکرد، انویدیا را به تنها شرکتی تبدیل کرده که در تمامی معیارهای MLPerf Training v5.0 نتایج را ارسال کرده است که نشان‌دهنده عملکرد و انعطاف‌پذیری فوق‌العاده آن در کارکردهای مختلف هوش مصنوعی است.

در این دوره، دو سوپرکامپیوتر هوش مصنوعی تحت پلتفرم Blackwell به کار گرفته شده‌اند: Tyche، که از سیستم‌های رک مقیاس Nvidia GB200 NVL72 استفاده می‌کند، و Nyx، که بر اساس سیستم‌های Nvidia DGX B200 بنا شده است. همکاری انویدیا با CoreWeave و IBM نیز منجر به ثبت نتایج GB200 NVL72 با استفاده از ۲۴۹۶ چیپ Blackwell و ۱۲۴۸ پردازنده Nvidia Grace شده است.

چیپ‌های Blackwell در آزمون جدید Llama 3.1 405B پیش از آموزش، عملکردی ۲.۲ برابر بهتر نسبت به معماری نسل قبلی در همان مقیاس ارائه دادند. همچنین، در آزمون تنظیم‌سازی LoRA برای Llama 2 70B، سیستم‌های Nvidia DGX B200 که از هشت چیپ Blackwell بهره می‌بردند، ۲.۵ برابر بیشتر از ثبت‌های مشابه در دور قبلی عملکرد داشتند.

این ارتقاهای عملکردی ناشی از پیشرفت‌های معماری Blackwell شامل رک‌های خنک‌شونده با مایع با چگالی بالا، ۱۳.۴ ترابایت حافظه متناسب در هر رک، فناوری‌های ارتباطی نسل پنجم Nvidia NVLink و Nvidia NVLink Switch برای عملگرایی برتر و شبکه‌سازی Nvidia Quantum-2 InfiniBand است. همچنین، نوآوری‌ها در نرم‌افزار Nvidia NeMo Framework، استانداردهای جدیدی را برای آموزش مدل‌های چندمدلی LLM به ارمغان می‌آورد، که برای عرضه برنامه‌های هوش مصنوعی با ویژگی‌های تحلیلی در بازار ضروری است.

پلتفرم مرکز داده انویدیا شامل GPUها، CPUها، بافت‌های با سرعت بالا و شبکه‌سازی، و مجموعه‌ای گسترده از نرم‌افزارها مانند کتابخانه‌های Nvidia CUDA-X، NeMo Framework، Nvidia TensorRT-LLM و Nvidia Dynamo است. این ترکیب بهینه فناوری‌های سخت‌افزاری و نرم‌افزاری به سازمان‌ها این امکان را می‌دهد که مدل‌ها را سریع‌تر آموزش داده و استقرار دهند و زمان بازگشت سرمایه را به طور چشمگیری تسریع بخشند.

اکوسیستم شرکای انویدیا به‌طور گسترده‌ای در این دور از MLPerf مشارکت داشت. علاوه بر ارسال نتایج با CoreWeave و IBM، درخواست‌های جالبی نیز از سوی ASUS، Cisco، Giga Computing، Lambda، Lenovo Quanta Cloud Technology و Supermicro به ثبت رسیده است.

در این میان، دیو سالواتور، مدیر محصولات محاسبات تسریع‌شده انویدیا، اشاره کرد که در این صنعت، معیارهای عملکرد گاهی به “وست وحشی” شباهت دارند و MLPerf تلاش دارد تا نظم بیشتری به این وضعیت بدهد.

در نهایت، انویدیا با تمرکز بر آموزش و نتایج پس از آموزش در این معیارها، نشان می‌دهد که کجا آغاز و چگونه می‌توان به بازگشت سرمایه در دنیای هوش مصنوعی دست یافت. انتظار می‌رود به مرور زمان، با ادامه بهینه‌سازی نرم‌افزار و ورود کارکردهای جدید به بازار، عملکردهای بهتری از معماری Blackwell به ثمر برسد.

تبدیل صوت به متن فارسی

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا