تحقیقات اخیر تیم FAIR شرکت متا و دانشگاه عبرانی اورشلیم نشان می‌دهد که کاهش حجم فکر کردن در مدل‌های زبانی بزرگ، عملکرد آنها را در زمینه‌های پیچیده استدلال بهبود می‌بخشد. در این مطالعه که امروز منتشر شد، مشخص گردید که فرآیندهای استدلال کوتاه‌تر در سیستم‌های هوش مصنوعی به نتایج دقیق‌تری منتهی می‌شود و در عین حال هزینه‌های محاسباتی را به طرز چشم‌گیری کاهش می‌دهد. نویسندگان مقاله تحت عنوان “زیاد فکر نکنید؛ ترجیحات زنجیره‌های تفکر کوتاه‌تر برای بهبود استدلال LLM” به چالش کشیدن فرضیه‌ای شناخته‌شده پرداخته‌اند که طولانی بودن زنجیره‌های فکری به بهبود قابلیت‌های استدلال می‌انجامد.

این تحقیقات با روند غالب در توسعه هوش مصنوعی که در آن شرکت‌ها به دنبال افزایش منابع محاسباتی برای انجام استدلال‌های طولانی با استفاده از “زنجیره‌های فکری” بوده‌اند، در تناقض قرار دارد. نتایج نشان می‌دهد که در یک وظیفه استدلال مشابه، زنجیره‌های فکری کوتاه‌تر به احتمال بیشتری پاسخ‌های صحیح ارائه می‌دهند و این دقت می‌تواند تا 34.5 درصد بیشتر از طولانی‌ترین زنجیره آزمون‌شده باشد.

تحلیل‌گران به این نکته اشاره می‌کنند که در حالی که استدلال‌های مفصل نتایج شگرفی را نشان می‌دهند، اما هزینه‌های محاسباتی و زمان استنتاج قابل‌توجهی را به همراه دارند و این شامل ناکارآمدی‌های عمده‌ای در نحوه فعلی طراحی این سیستم‌ها است. بر اساس یافته‌های این تحقیق، تیم یک رویکرد نوآورانه به نام “short-m@k” پیشنهاد کرده است که در آن چندین تلاش استدلال به‌طور موازی اجرا می‌شود و محاسبات هنگامی‌که چندین فرآیند اولیه به اتمام می‌رسند، متوقف می‌شوند. پاسخ نهایی از رأی‌گیری اکثریت میان این زنجیره‌های کوتاه انتخاب می‌شود.

این یافته‌ها برای سازمان‌هایی که در حال استقرار سیستم‌های استدلالی بزرگ هوش مصنوعی هستند، عواقب قابل توجهی به همراه دارد. پژوهشگران دریافتند که روش آنها می‌تواند منابع محاسباتی را تا 40 درصد کاهش دهد در حالی که سطح عملکرد مشابهی را حفظ می‌کند. همچنین، مشخص شد که آموزش مدل‌های هوش مصنوعی با استفاده از مثال‌های استدلال کوتاه‌تر، عملکرد آن‌ها را بهبود می‌بخشد و این به چالش کشیدن یک فرضیه بنیادی دیگر در توسعه هوش مصنوعی است.

این نتایج در زمانی بحرانی برای صنعت هوش مصنوعی منتشر می‌شوند، زمانی که شرکت‌ها به دنبال استقرار مدل‌های بسیار قدرتمندتر و مصرف‌کننده منابع محاسباتی برجسته هستند. پژوهشگران نتیجه‌گیری کرده‌اند که یافته‌هایشان نیاز به تجدید نظر در روش‌های کنونی محاسبات در زمان آزمون برای استدلال مدل‌های زبانی بزرگ را معرفی می‌کند، و نشان می‌دهد که طولانی‌تر فکر کردن لزوماً به بهبود عملکرد نمی‌انجامد و می‌تواند به نتایج معکوس منجر شود.

این تحقیق در تضاد با رویکردهای دیگر در این زمینه است و بر اساس نکاتی که از پژوهش‌های پیشین شامل روش‌های مختلف OpenAI به‌دست آمده، منجر به ارائه راهکارهای بهینه‌تر در حوزه هوش مصنوعی می‌شود. این مطالعه بر بهینه‌سازی مؤثر به‌جای قدرت محاسباتی خالص تأکید دارد و نشان می‌دهد که تدریس تفکر مختصر به هوش مصنوعی نه تنها منجر به صرفه‌جویی در منابع محاسباتی می‌شود بلکه به هوشمندی بیشتر ماشین‌ها نیز منجر می‌گردد. در نهایت، گاهی حتی هوش مصنوعی نیز از حکمت‌های قدیمی بهره‌مند می‌شود: زیاد فکر نکنید.

دستیار صوتی هوشمند پیشرفته

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا