نویسنده: بینا ویرا
نزول چیپهای هوش مصنوعی انویدیا به مراکز داده در سطح جهانی
شرکت انویدیا به تازگی اعلام کرد که چیپهای هوش مصنوعی خود را به مراکز داده و به آنچه که “کارخانههای هوش مصنوعی” مینامد، در سرتاسر جهان عرضه میکند. چیپهای سری Blackwell انویدیا در بالای معیارهای سنجش هوش مصنوعی قرار دارند و این شرکت به همراه شرکای خود، سرعت آموزش و استقرار برنامههای جدید هوش مصنوعی را افزایش میدهد.
معماری Blackwell انویدیا به منظور پاسخگویی به نیازهای عملکردی پیچیده این برنامههای جدید طراحی شده است. در دوازدهمین دور از ارزیابیهای MLPerf Training، این پلتفرم موفق به کسب بالاترین میزان عملکرد در تمامی معیارها شده و نتایج ارسال شده در سختترین آزمون مربوط به مدلهای زبانی بزرگ (LLM) را به نمایش گذاشته است. بینظیر بودن این عملکرد، انویدیا را به تنها شرکتی تبدیل کرده که در تمامی معیارهای MLPerf Training v5.0 نتایج را ارسال کرده است که نشاندهنده عملکرد و انعطافپذیری فوقالعاده آن در کارکردهای مختلف هوش مصنوعی است.
در این دوره، دو سوپرکامپیوتر هوش مصنوعی تحت پلتفرم Blackwell به کار گرفته شدهاند: Tyche، که از سیستمهای رک مقیاس Nvidia GB200 NVL72 استفاده میکند، و Nyx، که بر اساس سیستمهای Nvidia DGX B200 بنا شده است. همکاری انویدیا با CoreWeave و IBM نیز منجر به ثبت نتایج GB200 NVL72 با استفاده از ۲۴۹۶ چیپ Blackwell و ۱۲۴۸ پردازنده Nvidia Grace شده است.
چیپهای Blackwell در آزمون جدید Llama 3.1 405B پیش از آموزش، عملکردی ۲.۲ برابر بهتر نسبت به معماری نسل قبلی در همان مقیاس ارائه دادند. همچنین، در آزمون تنظیمسازی LoRA برای Llama 2 70B، سیستمهای Nvidia DGX B200 که از هشت چیپ Blackwell بهره میبردند، ۲.۵ برابر بیشتر از ثبتهای مشابه در دور قبلی عملکرد داشتند.
این ارتقاهای عملکردی ناشی از پیشرفتهای معماری Blackwell شامل رکهای خنکشونده با مایع با چگالی بالا، ۱۳.۴ ترابایت حافظه متناسب در هر رک، فناوریهای ارتباطی نسل پنجم Nvidia NVLink و Nvidia NVLink Switch برای عملگرایی برتر و شبکهسازی Nvidia Quantum-2 InfiniBand است. همچنین، نوآوریها در نرمافزار Nvidia NeMo Framework، استانداردهای جدیدی را برای آموزش مدلهای چندمدلی LLM به ارمغان میآورد، که برای عرضه برنامههای هوش مصنوعی با ویژگیهای تحلیلی در بازار ضروری است.
پلتفرم مرکز داده انویدیا شامل GPUها، CPUها، بافتهای با سرعت بالا و شبکهسازی، و مجموعهای گسترده از نرمافزارها مانند کتابخانههای Nvidia CUDA-X، NeMo Framework، Nvidia TensorRT-LLM و Nvidia Dynamo است. این ترکیب بهینه فناوریهای سختافزاری و نرمافزاری به سازمانها این امکان را میدهد که مدلها را سریعتر آموزش داده و استقرار دهند و زمان بازگشت سرمایه را به طور چشمگیری تسریع بخشند.
اکوسیستم شرکای انویدیا بهطور گستردهای در این دور از MLPerf مشارکت داشت. علاوه بر ارسال نتایج با CoreWeave و IBM، درخواستهای جالبی نیز از سوی ASUS، Cisco، Giga Computing، Lambda، Lenovo Quanta Cloud Technology و Supermicro به ثبت رسیده است.
در این میان، دیو سالواتور، مدیر محصولات محاسبات تسریعشده انویدیا، اشاره کرد که در این صنعت، معیارهای عملکرد گاهی به “وست وحشی” شباهت دارند و MLPerf تلاش دارد تا نظم بیشتری به این وضعیت بدهد.
در نهایت، انویدیا با تمرکز بر آموزش و نتایج پس از آموزش در این معیارها، نشان میدهد که کجا آغاز و چگونه میتوان به بازگشت سرمایه در دنیای هوش مصنوعی دست یافت. انتظار میرود به مرور زمان، با ادامه بهینهسازی نرمافزار و ورود کارکردهای جدید به بازار، عملکردهای بهتری از معماری Blackwell به ثمر برسد.