تحلیل‌های صورت‌گرفته توسط مؤسسه تحقیقاتی غیرانتفاعی Epoch AI نشان می‌دهد که صنعت هوش مصنوعی ممکن است دیگر نتواند به بهبودهای چشمگیر در مدل‌های هوش مصنوعی مبتنی بر استدلال دست یابد. بر اساس یافته‌های این گزارش، پیشرفت این مدل‌ها ممکن است تا یک سال آینده کند شود. مدل‌های استدلالی مانند o3 از OpenAI در ماه‌های اخیر شاهد رشد قابل توجهی در معیارهای سنجش هوش مصنوعی بوده‌اند، به ویژه در ارزیابی مهارت‌های ریاضی و برنامه‌نویسی. این مدل‌ها با اعمال توان محاسباتی بیشتر بر روی مسائل، می‌توانند عملکرد بهتری از خود نشان دهند، اما این امر به معنی زمان بیشتری برای اتمام وظایف نسبت به مدل‌های سنتی است.

مدل‌های استدلالی ابتدا با آموزش یک مدل معمولی بر روی حجم بالایی از داده‌ها توسعه داده می‌شوند و سپس از تکنیک یادگیری تقویتی بهره می‌برند که به مدل بازخوردی در مورد راه‌حل‌هایش برای مسائل دشوار ارائه می‌دهد. طبق اطلاعات Epoch، آزمایشگاه‌های پیشرفته هوش مصنوعی مانند OpenAI هنوز از قدرت محاسباتی زیادی در مرحله یادگیری تقویتی این مدل‌ها استفاده نکرده‌اند، اما این روند در حال تغییر است. OpenAI اعلام کرده است که حدود 10 برابر بیشتر از مدل قبلی‌اش، یعنی o1، برای آموزش o3 محاسبات انجام داده و Epoch می‌پندارد که بخش عمده‌ای از این ظرفیت محاسباتی به یادگیری تقویتی تخصیص یافته است.

به تازگی، دن رابرتز، محقق OpenAI، فاش کرد که برنامه‌های آینده این شرکت بر اولویت استفاده از یادگیری تقویتی و استفاده از قدرت محاسباتی بیشتری نسبت به مراحل اولیه آموزش مدل متمرکز خواهد بود. با این حال، طبق گفته Epoch، هنوز حدی برای میزان محاسباتی که می‌توان به یادگیری تقویتی اختصاص داد، وجود دارد. جاش یو، تحلیل‌گر Epoch و نویسنده این تحلیل، توضیح می‌دهد که بهبودهای عملکردی از آموزش مدل‌های استاندارد هوش مصنوعی در حال حاضر هر سال چهار برابر شده، در حالی که بهبودها از یادگیری تقویتی هر ۳ تا ۵ ماه ده برابر می‌شوند. او ادامه می‌دهد که پیشرفت در آموزش استدلال احتمالاً تا سال 2026 با پیشرفت کلی هم‌راستا خواهد شد.

تحلیل Epoch شامل چندین فرض و برخی نظرات عمومی از مدیران شرکت‌های هوش مصنوعی است. این تحلیل همچنین بیان می‌کند که مقیاس‌پذیری مدل‌های استدلالی ممکن است به دلایل دیگری غیر از قدرت محاسباتی، از جمله هزینه‌های بالای تحقیق، چالش‌برانگیز باشد. یو می‌نویسد: “اگر هزینه‌های ثابت پایداری برای تحقیق وجود داشته باشد، مدل‌های استدلالی ممکن است به اندازه‌ای که انتظار می‌رفت، مقیاس‌پذیر نباشند.” او تأکید می‌کند که بزرگ‌تر شدن محاسبات می‌تواند جزء مهمی در پیشرفت مدل‌های استدلالی باشد، بنابراین پیگیری این موضوع اهمیت دارد.

هرگونه نشانه‌ای مبنی بر اینکه مدل‌های استدلالی ممکن است در آینده نزدیک به محدودیتی برسند، احتمالاً موجب نگرانی در صنعت هوش مصنوعی خواهد بود که منابع عظیمی را برای توسعه این نوع مدل‌ها سرمایه‌گذاری کرده است. تحقیقات همچنین نشان داده‌اند که مدل‌های استدلالی که از نظر هزینه‌بر بودن بسیار بالا هستند، دارای نقص‌های جدی از جمله تمایل به ایجاد اطلاعات نادرست بیشتر از برخی مدل‌های سنتی می‌باشند.

تبدیل متن‌ به صوت

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا