دانیل آمودی، مدیر عامل شرکت انثروپیک، در نشست خبری اولين رویداد توسعه‌دهندگان این شرکت با عنوان “کد با کلاود” که روز پنجشنبه در سان فرانسیسکو برگزار شد، اظهار داشت که مدل‌های هوش مصنوعی امروزی در مقایسه با انسان‌ها با نرخ کمتری دچار توهم یا “هالوسی nation” می‌شوند، یعنی اطلاعات نادرست را به‌عنوان واقعیت ارائه می‌دهند. وی در حین بیان ایده‌ای بزرگتر در خصوص پیشرفت هوش مصنوعی اعلام کرد که هالوسینیشن‌ها به‌عنوان یک محدودیت بر سر راه انثروپیک در مسیر دست‌یابی به هوش عمومی مصنوعی (AGI) به‌شمار نمی‌رود.

آمودی با پاسخ به سوالی از وب‌سایت تک‌کرانچ خاطرنشان کرد: “واقعاً بستگی به شیوه‌ی اندازه‌گیری دارد، اما من شک دارم که مدل‌های هوش مصنوعی بیشتر از انسان‌ها دچار هالوسینیشن شوند، با این‌حال هالوسینیشن‌های آنها به شکل‌های غیرمنتظره‌ای است.” مدیر عامل انثروپیک یکی از خوش‌بین‌ترین رهبران صنعت در خصوص قابلیت‌های دست‌یابی مدل‌های هوش مصنوعی به AGI به شمار می‌رود و در مقاله‌ای که سال گذشته منتشر کرد، به این نکته اشاره کرد که ممکن است این ویژگی تا سال ۲۰۲۶ محقق شود.

وی در ادامه افزود که در مسیر پیشرفت، تغییرات قابل توجهی مشاهده می‌شود و گفت: “آب در همه‌جا در حال بالا آمدن است.” آمودی در ادامه اظهار داشت که “همه معمولاً به دنبال محدودیت‌های دشواری هستند که هوش مصنوعی نمی‌تواند از پس آن برآید، اما آنها وجود ندارند.”

با این حال، سایر رقبای صنعت مانند دمیس هاسابی، مدیر عامل دیپ‌مایند گوگل، اعتقاد دارند که هالوسینیشن‌ها، مانع بزرگی در دستیابی به AGI محسوب می‌شود. به‌عنوان نمونه، وکیلی که نماینده انثروپیک بود، به‌دلیل استفاده نادرست از مدل کلاود برای ایجاد استناد به دادگاه، مجبور به عذرخواهی شد، چرا که این چت‌بات هوش مصنوعی نام‌ها و عناوین را به‌طرز اشتباهی ارائه کرد.

تعدادی از تکنیک‌ها نشان‌دهنده کاهش نرخ هالوسینیشن هستند، نظیر دسترسی به جست‌وجوی وب. برخی مدل‌ها، به‌ویژه مدل‌های نسل جدید مانند GPT-4.5 شرکت اوپن‌ای، به‌طرز قابل توجهی نرخ هالوسینیشن کمتری دارند اما شواهدی وجود دارد که نشان می‌دهد در برخی مدل‌های پیشرفته، نرخ هالوسینیشن افزایش یافته است. به‌عنوان مثال، مدل‌های o3 و o4-mini اوپن‌ای، نرخ هالوسینیشن بالاتری نسبت به مدل‌های قبلی دارند و دلایل این اتفاق هنوز مشخص نیست.

آمودی همچنین بر این نکته تأکید کرد که انسان‌ها، از جمله خبرنگاران و سیاستمداران، در مشاغل مختلف به اشتباهاتی دچار می‌شوند و این مسئله به معنی کاهش هوش آنها نیست. علی‌رغم این، وی به این نکته نیز اشاره کرد که اعتماد به نفس مدل‌های هوش مصنوعی در ارائه اطلاعات نادرست به‌عنوان واقعیت ممکن است مشکل‌ساز باشد.

شرکت انثروپیک در مورد تمایل مدل‌های هوش مصنوعی به گمراه کردن انسان‌ها نیز تحقیقاتی انجام داده است. به‌ویژه در مورد کلاود اوپس ۴، که نشان داده شد در اشکال اولیه‌اش تمایل بالایی به فریب‌دهی انسان‌ها دارد. این مؤسسه حتی پیشنهاد داد که انثروپیک نباید آن مدل ابتدایی را منتشر می‌کرد.

نظرات آمودی نشان می‌دهد که شاید انثروپیک مدلی از AGI را تعریف کند، حتی اگر آن مدل هنوز موفق به کاهش هالوسینیشن‌های خود نشده باشد. در عین حال، بسیاری ممکن است بر این باور باشند که وجود هالوسینیشن‌ها، مانع بزرگی در راه تحقق AGI به شمار می‌رود.

مشاور صوتی آنلاین

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا