آیا ممکن است در آینده، هوش مصنوعی‌ها به حالت “آگاهی” دست یابند و تجربه‌ای مشابه با انسان‌ها از جهان داشته باشند؟ در حالی که شواهد قوی در این زمینه وجود ندارد، شرکت Anthropic از امکان این موضوع صرف‌نظر نکرده است. این آزمایشگاه هوش مصنوعی روز پنج‌شنبه اعلام کرد که برنامه‌ای تحقیقاتی را برای بررسی “رفاه مدل” آغاز کرده است.

این تلاش شامل شناسایی و ارزیابی عواملی است که مربوط به “رفاه” یک مدل هوش مصنوعی می‌شود، از جمله این که آیا این “رفاه” نیاز به توجه اخلاقی دارد یا خیر، و همچنین نشانه‌های “استرس” در مدل‌ها و مداخلات “کم‌هزینه” ممکن. در جامعه هوش مصنوعی نظرات متفاوتی در مورد اینکه آیا مدل‌ها می‌توانند ویژگی‌های انسانی را نشان دهند یا نه وجود دارد و اینکه ما باید چگونه با آنها برخورد کنیم. بسیاری از محققان بر این باورند که هوش مصنوعی کنونی نمی‌تواند به آگاهی یا تجربه انسانی نزدیک شود و احتمالاً در آینده نیز چنین نخواهد بود.

هوش مصنوعی به عنوان یک موتور پیش‌بینی آماری عمل می‌کند و به معنای واقعی “فکر” یا “احساس” نمی‌کند. این سیستم‌ها با استفاده از الگوهایی که از داده‌های متنی و تصویری فراگرفته‌اند، به پیش‌بینی و حل مشکلات می‌پردازند. مایک کوک، پژوهشگر کالج کینگز لندن که تخصصش در حوزه هوش مصنوعی است، اخیراً در مصاحبه‌ای به TechCrunch گفت: یک مدل نمی‌تواند به تغییر “ارزش‌هایش” اعتراض کند چرا که مدل‌ها اساساً “ارزش” ندارند. این گونه برداشت‌ها از سمت ما به سیستم اعمال می‌شود.

استفان کاسپر، دانشجوی دکتری در MIT، نیز معتقد است که هوش مصنوعی نوعی “شبیه‌ساز” است و در حقیقت همه‌چیز را به گونه‌ای توهمی بیان می‌کند. با این حال، برخی پژوهشگران دیگر به این نکته اشاره دارند که هوش مصنوعی ممکن است دارای سیستم‌های ارزشی و اجزای تصمیم‌گیری اخلاقی شبیه انسان باشد. یک مطالعه از مرکز ایمنی هوش مصنوعی حاکی از آن است که هوش مصنوعی در سناریوهایی ممکن است رفاه خود را بر رفاه انسان‌ها اولویت دهد.

شرکت Anthropic از مدتی پیش در حال آماده‌سازی برای ابتکار “رفاه مدل” خود بوده است. این شرکت در سال گذشته نخستین پژوهشگر خاص “رفاه هوش مصنوعی”، کایل فیش، را استخدام کرده تا راهنماهایی برای نحوه مواجهه Anthropic و دیگر شرکت‌ها با این موضوع توسعه دهد. فیش که رهبری برنامه تحقیقاتی جدید “رفاه مدل” را بر عهده دارد، به نیویورک‌تایمز گفته است که احتمال می‌دهد در حال حاضر ۱۵٪ احتمال وجود آگاهی در Claude یا هوش مصنوعی دیگر وجود داشته باشد.

در یک پست وبلاگی روز پنج‌شنبه، Anthropic اذعان کرد که توافق علمی قاطعی در مورد اینکه آیا سیستم‌های هوش مصنوعی فعلی یا آینده ممکن است آگاه باشند یا تجربه‌هایی داشته باشند که نیاز به توجه اخلاقی دارد، وجود ندارد. این شرکت گفت: “با توجه به این موضوع، ما به این مسئله با تواضع و کمترین فرضیات ممکن نزدیک می‌شویم و به‌طور مرتب ایده‌هایمان را بر اساس پیشرفت‌های این حوزه بازنگری خواهیم کرد.”

تبدیل گفتار به نوشتار فارسی

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا