رویداد VB Transform با بیش از دو دهه اعتبار در بین رهبران صنعت، به منظور گردهم‌آوری افرادی که در حال طراحی استراتژی‌های واقعی هوش مصنوعی در سازمان‌ها هستند، برگزار می‌شود.

محققان دانشگاه ایلی‌نوی در اوربانا-شمپین و دانشگاه کالیفرنیا در برکلِی به تازگی چارچوبی نوآورانه تحت عنوان «AlphaOne» توسعه داده‌اند که به برنامه‌نویسان این امکان را می‌دهد تا کنترل بیشتری بر نحوه تفکر مدل‌های زبانی بزرگ (LLMs) داشته باشند. این چارچوب که به عنوان یک تکنیک مقیاس‌بندی در زمان آزمون عمل می‌کند، رفتار مدل‌ها را در هنگام استنتاج به‌گونه‌ای تغییر می‌دهد که نیاز به آموزش مجدد پرهزینه‌ای ندارد. AlphaOne به توسعه‌دهندگان Flexibility ارائه می‌دهد تا عملکرد مدل‌ها را در انجام وظایف پیچیده به‌صورت کنترل‌شده و مقرون به صرفه بهبود بخشند.

در سال‌های اخیر، توسعه‌دهندگان مدل‌های استدلال بزرگ (LRMs) مانند OpenAI o3 و DeepSeek-R1، از مکانیزم‌های الهام‌گرفته از تفکر «سیستم ۲» استفاده کرده‌اند که شامل فرآیندهای تفکر منطقی و دقیق انسان است. این رویکرد به مدل‌ها این امکان را می‌دهد تا مسائل پیچیده‌ای در زمینه‌هایی مانند ریاضیات و تجزیه و تحلیل داده‌ها را حل کنند. مدل‌ها برای تحریک تفکر کند از توکن‌های انتقالی مانند «منتظر» یا «به‌طوری‌دیگر» استفاده می‌کنند که در صورت وقوع این توکن‌ها، مدل مدتی را برای خوداندیشی و اصلاح مسیرش متوقف می‌شود.

با این حال، مدل‌های استدلال همیشه از توانایی‌های تفکر کند خود به‌طور مؤثر استفاده نمی‌کنند و ممکن است در حل مسائل ساده دچار «زیادفکر کردن» شوند، یا در مقابل، در مسائل پیچیده دچار «کم‌فکری» گردند، که در این‌صورت به پاسخ‌های نادرستی منجر می‌شود. مقاله AlphaOne اشاره می‌کند که این مسائل ناشی از ناتوانی LRMs در یافتن گذار بهینه بین تفکر «سیستم ۱» و «سیستم ۲» است.

توسعه‌دهندگان دو رویکرد متداول برای حل این مشکل دارند. مقیاس‌بندی موازی، مانند رویکرد «بهترین از N»، چندین بار یک مدل را اجرا می‌کند و بهترین پاسخ را انتخاب می‌نماید که این روش هزینه‌بر است. مقیاس‌بندی ترتیبی سعی می‌کند فرآیند تفکر را در حین یک بار اجرا تعدیل کند. این در حالی است که AlphaOne سوال بنیادی‌تری را مطرح کرده است: آیا می‌توان استراتژی بهتری برای گذر از تفکر کند به سریع طراحی کرد که به‌طور جهانی قابلیت تنظیم بود؟

چارچوب AlphaOne به توسعه‌دهندگان این امکان را می‌دهد که کنترل دقیقی بر فرآیند استدلال مدل در زمان آزمون داشته باشند. این سیستم با معرفی پارامتری به نام Alpha (α) عمل می‌کند که به‌عنوان دایلی برای تنظیم مقیاس بودجه تفکر مدل عمل می‌کند. این تحقیق نشان می‌دهد که «استراتژی تفکر کند و سپس تفکر سریع» منجر به عملکرد استدلال بهتری در LRMs می‌شود. همچنین این تحقیق تأکید می‌کند که سرمایه‌گذاری بر تفکر کند می‌تواند نتیجه‌ی مطلوب‌تری در کل داشته باشد، به‌ویژه در زمان‌هایی که به تولید پاسخ‌های دقیق و اقتصادی نیاز است.

در نهایت، نظریه AlphaOne این امکان را فراهم می‌آورد که توسعه‌دهندگان با دسترسی به سطح جدیدی از کنترل، به ساخت برنامه‌های پایدار و کارآمد بر پایه نسل جدید مدل‌های استدلال بپردازند. این چارچوب به‌خصوص برای شرکت‌هایی که از مدل‌های منبع باز یا سفارشی استفاده می‌کنند، طراحی شده است تا به‌راحتی ادغام شود.

انتظار می‌رود کد مربوط به این چارچوب به‌زودی منتشر شود و برای توسعه‌دهندگان این فرصتی طلایی به‌منظور ارتقای کیفیت و کاهش هزینه‌ها ایجاد کند.

ایجاد متن‌های دقیق از فایل‌های صوتی شما

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا