تحقیقات اخیر تیم FAIR شرکت متا و دانشگاه عبرانی اورشلیم نشان میدهد که کاهش حجم فکر کردن در مدلهای زبانی بزرگ، عملکرد آنها را در زمینههای پیچیده استدلال بهبود میبخشد. در این مطالعه که امروز منتشر شد، مشخص گردید که فرآیندهای استدلال کوتاهتر در سیستمهای هوش مصنوعی به نتایج دقیقتری منتهی میشود و در عین حال هزینههای محاسباتی را به طرز چشمگیری کاهش میدهد. نویسندگان مقاله تحت عنوان “زیاد فکر نکنید؛ ترجیحات زنجیرههای تفکر کوتاهتر برای بهبود استدلال LLM” به چالش کشیدن فرضیهای شناختهشده پرداختهاند که طولانی بودن زنجیرههای فکری به بهبود قابلیتهای استدلال میانجامد.
این تحقیقات با روند غالب در توسعه هوش مصنوعی که در آن شرکتها به دنبال افزایش منابع محاسباتی برای انجام استدلالهای طولانی با استفاده از “زنجیرههای فکری” بودهاند، در تناقض قرار دارد. نتایج نشان میدهد که در یک وظیفه استدلال مشابه، زنجیرههای فکری کوتاهتر به احتمال بیشتری پاسخهای صحیح ارائه میدهند و این دقت میتواند تا 34.5 درصد بیشتر از طولانیترین زنجیره آزمونشده باشد.
تحلیلگران به این نکته اشاره میکنند که در حالی که استدلالهای مفصل نتایج شگرفی را نشان میدهند، اما هزینههای محاسباتی و زمان استنتاج قابلتوجهی را به همراه دارند و این شامل ناکارآمدیهای عمدهای در نحوه فعلی طراحی این سیستمها است. بر اساس یافتههای این تحقیق، تیم یک رویکرد نوآورانه به نام “short-m@k” پیشنهاد کرده است که در آن چندین تلاش استدلال بهطور موازی اجرا میشود و محاسبات هنگامیکه چندین فرآیند اولیه به اتمام میرسند، متوقف میشوند. پاسخ نهایی از رأیگیری اکثریت میان این زنجیرههای کوتاه انتخاب میشود.
این یافتهها برای سازمانهایی که در حال استقرار سیستمهای استدلالی بزرگ هوش مصنوعی هستند، عواقب قابل توجهی به همراه دارد. پژوهشگران دریافتند که روش آنها میتواند منابع محاسباتی را تا 40 درصد کاهش دهد در حالی که سطح عملکرد مشابهی را حفظ میکند. همچنین، مشخص شد که آموزش مدلهای هوش مصنوعی با استفاده از مثالهای استدلال کوتاهتر، عملکرد آنها را بهبود میبخشد و این به چالش کشیدن یک فرضیه بنیادی دیگر در توسعه هوش مصنوعی است.
این نتایج در زمانی بحرانی برای صنعت هوش مصنوعی منتشر میشوند، زمانی که شرکتها به دنبال استقرار مدلهای بسیار قدرتمندتر و مصرفکننده منابع محاسباتی برجسته هستند. پژوهشگران نتیجهگیری کردهاند که یافتههایشان نیاز به تجدید نظر در روشهای کنونی محاسبات در زمان آزمون برای استدلال مدلهای زبانی بزرگ را معرفی میکند، و نشان میدهد که طولانیتر فکر کردن لزوماً به بهبود عملکرد نمیانجامد و میتواند به نتایج معکوس منجر شود.
این تحقیق در تضاد با رویکردهای دیگر در این زمینه است و بر اساس نکاتی که از پژوهشهای پیشین شامل روشهای مختلف OpenAI بهدست آمده، منجر به ارائه راهکارهای بهینهتر در حوزه هوش مصنوعی میشود. این مطالعه بر بهینهسازی مؤثر بهجای قدرت محاسباتی خالص تأکید دارد و نشان میدهد که تدریس تفکر مختصر به هوش مصنوعی نه تنها منجر به صرفهجویی در منابع محاسباتی میشود بلکه به هوشمندی بیشتر ماشینها نیز منجر میگردد. در نهایت، گاهی حتی هوش مصنوعی نیز از حکمتهای قدیمی بهرهمند میشود: زیاد فکر نکنید.