اخبار علمی: خطر “سقوط مدل” در هوش مصنوعی بر اساس مطالعه جدید
مطالعات جدید محققان دانشگاه آکسفورد و دانشگاههای کانادا به ما گوشزد میکند که هوش مصنوعی ممکن است با پدیدهای به نام “سقوط مدل” روبرو شود. در این تحقیق که در نشریه معتبر Nature منتشر شده است، تیمی به رهبری ایلیا شومایلو، اشاره دارد که مدلهای یادگیری ماشین امروزی به طور ذاتی در برابر این پدیده آسیبپذیر هستند.
براساس توضیحات این محققان، “سقوط مدل” یک فرآیند زوالآور است که بر اثر یادگیری نامتوازن از دادههایی که خود مدلها تولید کردهاند، به وقوع میپیوندد. طی زمان، این مدلها بهجای یادگیری الگوهای واقعی، به مرور دادههای پراکندهتری را فرا میگیرند که منجر به فراموشی توزیع واقعی دادهها میشود. این فرآیند به طور خاص در هنگام تقارن به سمت خروجیهای رایجتر نمایان میشود. به عبارتی دیگر، مدلها تمایل دارند پاسخهایی را تولید کنند که معمولیتر و شناختهشدهتر هستند.
افزایش تولید محتوای هوش مصنوعی در وب و آموزش مدلهای جدید بر اساس این محتوا، به این معضل دامن میزند. بهعنوان مثال، اگر مودلی برای تولید تصویر یک سگ آموزش ببیند، به احتمال زیاد یک نژاد معروف مانند “گلدن ریتریور” را تولید خواهد کرد و در این میان، تنوع نژادها به شدت کاهش خواهد یافت.
نتایج این مطالعه نشان میدهد که اگر مدلها به تولید دادههای یکدیگر ادامه دهند، به تدریج به سمت نتایجی بدتر و بیمعنا حرکت خواهند کرد و در نهایت، به سقوط خواهند انجامید. محققان در این مقاله به اهمیت تنوع و عمق دادههای آموزشی اشاره میکنند و تأکید دارند که اگر این تنوع از دست برود، کیفیت مدلهای هوش مصنوعی به خطر میافتد.
بنابراین، آیا این پدیده میتواند محدودیتی اساسی برای هوش مصنوعی امروزی ایجاد کند؟ و آیا میتوان از بروز این مشکل جلوگیری کرد؟ با وجود اینکه راهکارهایی برای مقابله با این بحران پیشنهادی وجود دارد، اما همچنین میتواند به یک چالش جدی برای آینده هوش مصنوعی تبدیل شود. در نهایت، جمعآوری دادهها از تعاملات انسانی با سیستمها به همان اندازه مهم خواهد شد که معیارهای کیفی و کمی آنها را استاندارد کنیم.
این پژوهشها ضرورت توجه بیشتر به محتوای تولید شده توسط هوش مصنوعی و اثرات منفی ناشی از آن را گوشزد میکنند و از جامعه علمی و صنعت فناوری اطلاعات درخواست دارند تا برای حفظ و بهبود کیفیت مدلهای هوش مصنوعی تلاش نمایند.