ادعای جنجالی OpenAI درباره «حل مسائل Erdős» توسط GPT-5؛ واکنشها و روشنسازیها
در پی انتشار ادعایی جنجالی از سوی یکی از مدیران OpenAI درباره تواناییهای ریاضی مدل جدید این شرکت، موجی از انتقاد و واکنشهای تند در جامعه پژوهش هوش مصنوعی و ریاضیات به راه افتاد. Kevin Weil، معاون ارشد OpenAI، در توییتی که بعدها حذف شد، اظهار کرده بود که «GPT-5 راهحلهایی برای ۱۰ مسئلهٔ پیشتر حلنشدهٔ مرتبط با Erdős یافته و در ۱۱ مسئلهٔ دیگر پیشرفت کرده است.» این ادعا بلافاصله توجه گستردهای را برانگیخت، زیرا «مسائل Erdős» به مجموعهای از حدسها و مسئلههای مشهور در ریاضیات اطلاق میشود که توسط ریاضیدان برجسته، پل اِردُش (Paul Erdős)، مطرح شدهاند و حل آنها برای جامعه ریاضی اهمیت بالایی دارد.
واکنشها از چهرههای برجسته دنیای هوش مصنوعی و ریاضیات کوتاه نبود: یان لوکان (Yann LeCun)، دانشمند ارشد هوش مصنوعی متا، با لحنی کنایهآمیز واکنش نشان داد و دیمیس هسابیس (Demis Hassabis)، مدیرعامل DeepMind، این خبر را «شرمآور» توصیف کرد. در مقابل، توماس بلوم (Thomas Bloom)، نگهدارنده وبسایت Erdos Problems که فهرستی از مسائل باز مرتبط با اِردُش را گردآوری میکند، این ادعا را «نمایشی اغراقآمیز» خواند. بلوم تأکید کرد که برچسب «باز» در سایت او صرفاً بدین معناست که «من شخصاً از وجود مقالهای که آن مسئله را حل کرده باشد بیخبرم»، و بنابراین ادعای عمومی مبنی بر «حل مسائل پیشتر حلنشده» توسط GPT-5 دقیق نیست.
به بیان دیگر، مطابق توضیحات بلوم، GPT-5 در واقع مراجع و مقالاتی را یافت که به نظر میرسید مشکلات مذکور را حل کردهاند، اما این مقالات پیشتر در ادبیات علمی وجود داشته و صرفاً برای نگهدارندهٔ فهرست ناشناخته بودهاند. سباستین بوبِک (Sebastien Bubeck)، پژوهشگر OpenAI که خود نیز در توییتر به موفقیتهای GPT-5 اشاره کرده بود، بعداً تصدیق کرد که «فقط راهحلهای موجود در ادبیات علمی پیدا شدهاند»، ولی این را دستاوردی واقعی دانست و گفت: «میدانم جستجوی ادبیات علمی چقدر دشوار است.»
پیامدها برای ادعاهای پژوهشی در حوزه هوش مصنوعی
این رخداد دوباره اهمیت دو نکتهٔ اساسی را نشان داد: اول، ضرورتِ واکاوی و تصدیق دقیق ادعاهای علمی و پژوهشی پیش از اطلاعرسانی گسترده؛ و دوم، چالشهای مرتبط با جستجوی ادبیات علمی و یافتن کارهای مرتبط—موضوعی که حتی پژوهشگران باتجربه نیز گاه با آن مواجهاند. اگرچه سیستمهایی مانند GPT-5 میتوانند در استخراج و جمعبندی منابع مفید باشند، بیان این یافتهها بهعنوان «حلهای نوظهور» بدون تأیید مستقل و مراجعه به مقالات اصلی میتواند گمراهکننده باشد.
این ماجرا یادآور نگرانی گستردهتری است درباره نحوه گزارش پیشرفتهای هوش مصنوعی: برجستهسازی دستاوردها باید با شفافیت درباره روشها، منابع و محدودیتها همراه باشد تا از اشتباهفهمی یا بزرگنمایی جلوگیری شود.
