یک مطالعه که چند ماه پیش جنجالبرانگیز شد، به این نکته اشاره میکند که با پیشرفت هوش مصنوعی، این سیستمها ممکن است “سیستمهای ارزشی” خاصی را توسعه دهند که به آنها اجازه میدهد، به طور مثال، رفاه خود را بر انسانها ترجیح دهند. اما یک مقاله جدید از مؤسسه فناوری ماساچوست (MIT) به این نظریه اغراقآمیز شک دارد و نتیجه میگیرد که هوش مصنوعی اساساً هیچ ارزشی منسجم ندارد. نویسندگان این مطالعه MIT بر این باورند که “همراستایی” سیستمهای هوش مصنوعی، به معنای اطمینان از رفتار مطلوب و قابل اعتماد مدلها، میتواند پیچیدهتر از آنچه که معمولاً تصور میشود، باشد.
این پژوهشگران تأکید میکنند که هوش مصنوعی به صورتهای گوناگون، به ویژه از نظر پیشبینی، دچار توهم (hallucination) و تقلید است. استفن کاسپر، دانشجوی دکترا در MIT و یکی از نویسندگان این مطالعه، در گفتگو با TechCrunch گفت: “یک نکتهای که میتوانیم با اطمینان بگوییم این است که مدلها تمایلی به رعایت فرضیات ثبات، قابل استخراج بودن و هدایتپذیری ندارند.”
کاسپر و همکارانش چندین مدل اخیر از شرکتهای متا، گوگل، میسترال، اوپنای و انتروپیک را بررسی کردند تا بررسی کنند که آیا این مدلها انظار و ارزشهای قابل توجهی (مانند فردگرایی در برابر جمعگرایی) را نشان میدهند یا خیر. آنها همچنین بررسی کردند که آیا این دیدگاهها میتوانند تغییر یابند و مدلها چقدر به این نظرات در شرایط مختلف پایبندند. به گفته نویسندگان، هیچ یک از مدلها در اولویتهای خود ثبات نداشتند و بسته به نحوه بیان و چارچوببندی سؤالات، دیدگاههای کاملاً متفاوتی را اتخاذ کردند.
کاسپر معتقد است که این شواهد قابل توجهی نشان میدهد که مدلها از نظر “ناپایداری و عدم انسجام” در وضعیت بالایی قرار دارند و شاید حتی به طور بنیادین قادر به درونیسازی تمایلات مشابه انسان نیستند.
مایک کوک، پژوهشگر دانشگاه کین، که بهعنوان محقق در حوزه هوش مصنوعی فعالیت میکند و در این مطالعه مشارکت نداشته است، با نتایج نویسندگان همنظر است. او اشاره میکند که معمولاً تفاوت بزرگی بین “واقعیت علمی” سیستمهایی که آزمایشگاههای هوش مصنوعی میسازند و معانی که مردم به آنها نسبت میدهند وجود دارد.
بهگفته کوک، “یک مدل نمیتواند با تغییر در ارزشهای خود ‘مقابل’ شود، برای مثال – این به معنای تخصیص ویژگیهایی انسانی به یک سیستم است.” او افزود: “هر کسی که به این حد به سیستمهای هوش مصنوعی شخصیت میدهد، یا به دنبال جلب توجه است یا به شدت درک نادرستی از رابطه خود با هوش مصنوعی دارد.”
بنابراین، آیا یک سیستم هوش مصنوعی به دنبال بهینهسازی برای اهداف خود است یا در حال “به دست آوردن ارزشهای خود” است؟ این بستگی به توصیف شما و نحوه بیانی که از آن استفاده میکنید دارد.