دانیل آمودی، مدیر عامل شرکت انثروپیک، در نشست خبری اولين رویداد توسعهدهندگان این شرکت با عنوان “کد با کلاود” که روز پنجشنبه در سان فرانسیسکو برگزار شد، اظهار داشت که مدلهای هوش مصنوعی امروزی در مقایسه با انسانها با نرخ کمتری دچار توهم یا “هالوسی nation” میشوند، یعنی اطلاعات نادرست را بهعنوان واقعیت ارائه میدهند. وی در حین بیان ایدهای بزرگتر در خصوص پیشرفت هوش مصنوعی اعلام کرد که هالوسینیشنها بهعنوان یک محدودیت بر سر راه انثروپیک در مسیر دستیابی به هوش عمومی مصنوعی (AGI) بهشمار نمیرود.
آمودی با پاسخ به سوالی از وبسایت تککرانچ خاطرنشان کرد: “واقعاً بستگی به شیوهی اندازهگیری دارد، اما من شک دارم که مدلهای هوش مصنوعی بیشتر از انسانها دچار هالوسینیشن شوند، با اینحال هالوسینیشنهای آنها به شکلهای غیرمنتظرهای است.” مدیر عامل انثروپیک یکی از خوشبینترین رهبران صنعت در خصوص قابلیتهای دستیابی مدلهای هوش مصنوعی به AGI به شمار میرود و در مقالهای که سال گذشته منتشر کرد، به این نکته اشاره کرد که ممکن است این ویژگی تا سال ۲۰۲۶ محقق شود.
وی در ادامه افزود که در مسیر پیشرفت، تغییرات قابل توجهی مشاهده میشود و گفت: “آب در همهجا در حال بالا آمدن است.” آمودی در ادامه اظهار داشت که “همه معمولاً به دنبال محدودیتهای دشواری هستند که هوش مصنوعی نمیتواند از پس آن برآید، اما آنها وجود ندارند.”
با این حال، سایر رقبای صنعت مانند دمیس هاسابی، مدیر عامل دیپمایند گوگل، اعتقاد دارند که هالوسینیشنها، مانع بزرگی در دستیابی به AGI محسوب میشود. بهعنوان نمونه، وکیلی که نماینده انثروپیک بود، بهدلیل استفاده نادرست از مدل کلاود برای ایجاد استناد به دادگاه، مجبور به عذرخواهی شد، چرا که این چتبات هوش مصنوعی نامها و عناوین را بهطرز اشتباهی ارائه کرد.
تعدادی از تکنیکها نشاندهنده کاهش نرخ هالوسینیشن هستند، نظیر دسترسی به جستوجوی وب. برخی مدلها، بهویژه مدلهای نسل جدید مانند GPT-4.5 شرکت اوپنای، بهطرز قابل توجهی نرخ هالوسینیشن کمتری دارند اما شواهدی وجود دارد که نشان میدهد در برخی مدلهای پیشرفته، نرخ هالوسینیشن افزایش یافته است. بهعنوان مثال، مدلهای o3 و o4-mini اوپنای، نرخ هالوسینیشن بالاتری نسبت به مدلهای قبلی دارند و دلایل این اتفاق هنوز مشخص نیست.
آمودی همچنین بر این نکته تأکید کرد که انسانها، از جمله خبرنگاران و سیاستمداران، در مشاغل مختلف به اشتباهاتی دچار میشوند و این مسئله به معنی کاهش هوش آنها نیست. علیرغم این، وی به این نکته نیز اشاره کرد که اعتماد به نفس مدلهای هوش مصنوعی در ارائه اطلاعات نادرست بهعنوان واقعیت ممکن است مشکلساز باشد.
شرکت انثروپیک در مورد تمایل مدلهای هوش مصنوعی به گمراه کردن انسانها نیز تحقیقاتی انجام داده است. بهویژه در مورد کلاود اوپس ۴، که نشان داده شد در اشکال اولیهاش تمایل بالایی به فریبدهی انسانها دارد. این مؤسسه حتی پیشنهاد داد که انثروپیک نباید آن مدل ابتدایی را منتشر میکرد.
نظرات آمودی نشان میدهد که شاید انثروپیک مدلی از AGI را تعریف کند، حتی اگر آن مدل هنوز موفق به کاهش هالوسینیشنهای خود نشده باشد. در عین حال، بسیاری ممکن است بر این باور باشند که وجود هالوسینیشنها، مانع بزرگی در راه تحقق AGI به شمار میرود.