تحقیق جدید: بررسی توانمندیهای عمومیسازی در یادگیری زبانهای بزرگ
در یک مطالعه اخیر، پژوهشگران Google DeepMind و دانشگاه استنفورد به بررسی دو روش مرسوم برای شخصیسازی مدلهای زبان بزرگ (LLMs) پرداختند: تنظیم دقیق (Fine-tuning) و یادگیری در متن (In-context learning یا ICL). نتایج این تحقیق نشان میدهد که یادگیری در متن دارای توانایی عمومیسازی بیشتری است، هرچند که این روش هزینه محاسباتی بیشتری در مراحل استنتاج به همراه دارد. پژوهشگران همچنین یک رویکرد نوین برای ترکیب مزایای هر دو روش پیشنهاد کردند که میتواند به توسعهدهندگان کمک کند تا در ساخت برنامههای LLM برای دادههای خاص سازمانی خود، تصمیمات مهمی اتخاذ کنند.
تنظیم دقیق به معنای آموزش مجدد مدلهای زبان پیشآموزشدادهشده بر روی مجموعه دادههای کوچکتر و تخصصیتر است. این فرآیند به تنظیم پارامترهای داخلی مدل جهت یادگیری دانش یا مهارتهای جدید کمک میکند. در مقابل، یادگیری در متن بدون تغییر پارامترهای زیرساختی مدل انجام میشود و با ارائه مثالهایی از وظایف مورد نظر در ورودی، مدل را راهنمایی میکند.
پژوهشگران با هدف مقایسه دقیق چگونگی عمومیسازی مدلها به وظایف جدید، مجموعه دادههای مصنوعی کنترلشدهای از دانش واقعی با ساختارهای پیچیده و خودسازمانیافته را ایجاد کردند. آنها تمامی اسمها، صفتها و فعلها را با اصطلاحات بیمعنی جایگزین کردند تا از هرگونه همپوشانی با دادههایی که LLMها ممکن است در حین پیشآموزش دیده باشند، جلوگیری شود.
در این تحقیق، مدلها در چالشهای مختلف عمومیسازی، مانند معکوسسازیهای ساده و اولیه و استدلالهای منطقی مورد آزمون قرار گرفتند. به عنوان مثال، اگر مدلی آموزش دیده باشد که “فمپها از گلون خطرناکتر هستند”، آیا میتواند به درستی استنباط کند که “گلها از فمپها کمتر خطرناکتر هستند”؟
نتایج نشان داد که یادگیری در متن در محیطهای مطابقت داده بهتر از تنظیم دقیق معمولی عمل کرد. این مدلها در وظایفی نظیر معکوسسازی روابط یا استنتاجهای منطقی از زمینه ارائهشده، عملکرد بهتری داشتند.
پژوهشگران با توجه به مزایای یادگیری در متن، روشی نوین برای تقویت تنظیم دقیق پیشنهاد کردند: افزودن استنتاجهای درونمتن به دادههای تنظیم دقیق. این روش شامل استفاده از قابلیتهای ICL مدل برای ایجاد مثالهای متنوع و غنیاستنتاجی است که به مجموعه دادههای استفادهشده در تنظیم دقیق اضافه میشود.
نتایج این تحقیق میتواند به شرکتها کمک کند تا با سرمایهگذاری در تولید این مجموعههای داده تقویتشده، مدلهای تنظیمشدهای بسازند که توانمندیهای عمومیسازی بهتری دارند. بدین ترتیب، این مدلها میتوانند بر روی ورودیهای متنوع و واقعی عملکرد بهتری داشته باشند بدون اینکه هزینههای مداوم زمان استنتاج را متحمل شوند.
به گفته پژوهشگران، در حالی که بهبودهای ناشی از این روش ممکن است هزینههای فرآیند تنظیم دقیق را افزایش دهد، اما این هزینهها میتواند در مقایسه با هزینههای یادگیری در متن پس از چندین بار استفاده از مدل، توجیهپذیر باشد. در پایان، پژوهشگران امیدوارند که این کار به درک علمی یادگیری و عمومیسازی در مدلهای بنیادین و کاربرد عملی آنها در وظایف پاییندستی کمک کند.