آیا ممکن است در آینده، هوش مصنوعیها به حالت “آگاهی” دست یابند و تجربهای مشابه با انسانها از جهان داشته باشند؟ در حالی که شواهد قوی در این زمینه وجود ندارد، شرکت Anthropic از امکان این موضوع صرفنظر نکرده است. این آزمایشگاه هوش مصنوعی روز پنجشنبه اعلام کرد که برنامهای تحقیقاتی را برای بررسی “رفاه مدل” آغاز کرده است.
این تلاش شامل شناسایی و ارزیابی عواملی است که مربوط به “رفاه” یک مدل هوش مصنوعی میشود، از جمله این که آیا این “رفاه” نیاز به توجه اخلاقی دارد یا خیر، و همچنین نشانههای “استرس” در مدلها و مداخلات “کمهزینه” ممکن. در جامعه هوش مصنوعی نظرات متفاوتی در مورد اینکه آیا مدلها میتوانند ویژگیهای انسانی را نشان دهند یا نه وجود دارد و اینکه ما باید چگونه با آنها برخورد کنیم. بسیاری از محققان بر این باورند که هوش مصنوعی کنونی نمیتواند به آگاهی یا تجربه انسانی نزدیک شود و احتمالاً در آینده نیز چنین نخواهد بود.
هوش مصنوعی به عنوان یک موتور پیشبینی آماری عمل میکند و به معنای واقعی “فکر” یا “احساس” نمیکند. این سیستمها با استفاده از الگوهایی که از دادههای متنی و تصویری فراگرفتهاند، به پیشبینی و حل مشکلات میپردازند. مایک کوک، پژوهشگر کالج کینگز لندن که تخصصش در حوزه هوش مصنوعی است، اخیراً در مصاحبهای به TechCrunch گفت: یک مدل نمیتواند به تغییر “ارزشهایش” اعتراض کند چرا که مدلها اساساً “ارزش” ندارند. این گونه برداشتها از سمت ما به سیستم اعمال میشود.
استفان کاسپر، دانشجوی دکتری در MIT، نیز معتقد است که هوش مصنوعی نوعی “شبیهساز” است و در حقیقت همهچیز را به گونهای توهمی بیان میکند. با این حال، برخی پژوهشگران دیگر به این نکته اشاره دارند که هوش مصنوعی ممکن است دارای سیستمهای ارزشی و اجزای تصمیمگیری اخلاقی شبیه انسان باشد. یک مطالعه از مرکز ایمنی هوش مصنوعی حاکی از آن است که هوش مصنوعی در سناریوهایی ممکن است رفاه خود را بر رفاه انسانها اولویت دهد.
شرکت Anthropic از مدتی پیش در حال آمادهسازی برای ابتکار “رفاه مدل” خود بوده است. این شرکت در سال گذشته نخستین پژوهشگر خاص “رفاه هوش مصنوعی”، کایل فیش، را استخدام کرده تا راهنماهایی برای نحوه مواجهه Anthropic و دیگر شرکتها با این موضوع توسعه دهد. فیش که رهبری برنامه تحقیقاتی جدید “رفاه مدل” را بر عهده دارد، به نیویورکتایمز گفته است که احتمال میدهد در حال حاضر ۱۵٪ احتمال وجود آگاهی در Claude یا هوش مصنوعی دیگر وجود داشته باشد.
در یک پست وبلاگی روز پنجشنبه، Anthropic اذعان کرد که توافق علمی قاطعی در مورد اینکه آیا سیستمهای هوش مصنوعی فعلی یا آینده ممکن است آگاه باشند یا تجربههایی داشته باشند که نیاز به توجه اخلاقی دارد، وجود ندارد. این شرکت گفت: “با توجه به این موضوع، ما به این مسئله با تواضع و کمترین فرضیات ممکن نزدیک میشویم و بهطور مرتب ایدههایمان را بر اساس پیشرفتهای این حوزه بازنگری خواهیم کرد.”