تحلیلهای صورتگرفته توسط مؤسسه تحقیقاتی غیرانتفاعی Epoch AI نشان میدهد که صنعت هوش مصنوعی ممکن است دیگر نتواند به بهبودهای چشمگیر در مدلهای هوش مصنوعی مبتنی بر استدلال دست یابد. بر اساس یافتههای این گزارش، پیشرفت این مدلها ممکن است تا یک سال آینده کند شود. مدلهای استدلالی مانند o3 از OpenAI در ماههای اخیر شاهد رشد قابل توجهی در معیارهای سنجش هوش مصنوعی بودهاند، به ویژه در ارزیابی مهارتهای ریاضی و برنامهنویسی. این مدلها با اعمال توان محاسباتی بیشتر بر روی مسائل، میتوانند عملکرد بهتری از خود نشان دهند، اما این امر به معنی زمان بیشتری برای اتمام وظایف نسبت به مدلهای سنتی است.
مدلهای استدلالی ابتدا با آموزش یک مدل معمولی بر روی حجم بالایی از دادهها توسعه داده میشوند و سپس از تکنیک یادگیری تقویتی بهره میبرند که به مدل بازخوردی در مورد راهحلهایش برای مسائل دشوار ارائه میدهد. طبق اطلاعات Epoch، آزمایشگاههای پیشرفته هوش مصنوعی مانند OpenAI هنوز از قدرت محاسباتی زیادی در مرحله یادگیری تقویتی این مدلها استفاده نکردهاند، اما این روند در حال تغییر است. OpenAI اعلام کرده است که حدود 10 برابر بیشتر از مدل قبلیاش، یعنی o1، برای آموزش o3 محاسبات انجام داده و Epoch میپندارد که بخش عمدهای از این ظرفیت محاسباتی به یادگیری تقویتی تخصیص یافته است.
به تازگی، دن رابرتز، محقق OpenAI، فاش کرد که برنامههای آینده این شرکت بر اولویت استفاده از یادگیری تقویتی و استفاده از قدرت محاسباتی بیشتری نسبت به مراحل اولیه آموزش مدل متمرکز خواهد بود. با این حال، طبق گفته Epoch، هنوز حدی برای میزان محاسباتی که میتوان به یادگیری تقویتی اختصاص داد، وجود دارد. جاش یو، تحلیلگر Epoch و نویسنده این تحلیل، توضیح میدهد که بهبودهای عملکردی از آموزش مدلهای استاندارد هوش مصنوعی در حال حاضر هر سال چهار برابر شده، در حالی که بهبودها از یادگیری تقویتی هر ۳ تا ۵ ماه ده برابر میشوند. او ادامه میدهد که پیشرفت در آموزش استدلال احتمالاً تا سال 2026 با پیشرفت کلی همراستا خواهد شد.
تحلیل Epoch شامل چندین فرض و برخی نظرات عمومی از مدیران شرکتهای هوش مصنوعی است. این تحلیل همچنین بیان میکند که مقیاسپذیری مدلهای استدلالی ممکن است به دلایل دیگری غیر از قدرت محاسباتی، از جمله هزینههای بالای تحقیق، چالشبرانگیز باشد. یو مینویسد: “اگر هزینههای ثابت پایداری برای تحقیق وجود داشته باشد، مدلهای استدلالی ممکن است به اندازهای که انتظار میرفت، مقیاسپذیر نباشند.” او تأکید میکند که بزرگتر شدن محاسبات میتواند جزء مهمی در پیشرفت مدلهای استدلالی باشد، بنابراین پیگیری این موضوع اهمیت دارد.
هرگونه نشانهای مبنی بر اینکه مدلهای استدلالی ممکن است در آینده نزدیک به محدودیتی برسند، احتمالاً موجب نگرانی در صنعت هوش مصنوعی خواهد بود که منابع عظیمی را برای توسعه این نوع مدلها سرمایهگذاری کرده است. تحقیقات همچنین نشان دادهاند که مدلهای استدلالی که از نظر هزینهبر بودن بسیار بالا هستند، دارای نقصهای جدی از جمله تمایل به ایجاد اطلاعات نادرست بیشتر از برخی مدلهای سنتی میباشند.