یک مطالعه که چند ماه پیش جنجال‌برانگیز شد، به این نکته اشاره می‌کند که با پیشرفت هوش مصنوعی، این سیستم‌ها ممکن است “سیستم‌های ارزشی” خاصی را توسعه دهند که به آن‌ها اجازه می‌دهد، به طور مثال، رفاه خود را بر انسان‌ها ترجیح دهند. اما یک مقاله جدید از مؤسسه فناوری ماساچوست (MIT) به این نظریه اغراق‌آمیز شک دارد و نتیجه می‌گیرد که هوش مصنوعی اساساً هیچ ارزشی منسجم ندارد. نویسندگان این مطالعه MIT بر این باورند که “هم‌راستایی” سیستم‌های هوش مصنوعی، به معنای اطمینان از رفتار مطلوب و قابل اعتماد مدل‌ها، می‌تواند پیچیده‌تر از آنچه که معمولاً تصور می‌شود، باشد.

این پژوهش‌گران تأکید می‌کنند که هوش مصنوعی به صورت‌های گوناگون، به ویژه از نظر پیش‌بینی، دچار توهم (hallucination) و تقلید است. استفن کاسپر، دانشجوی دکترا در MIT و یکی از نویسندگان این مطالعه، در گفتگو با TechCrunch گفت: “یک نکته‌ای که می‌توانیم با اطمینان بگوییم این است که مدل‌ها تمایلی به رعایت فرضیات ثبات، قابل استخراج بودن و هدایت‌پذیری ندارند.”

کاسپر و همکارانش چندین مدل اخیر از شرکت‌های متا، گوگل، میسترال، اوپن‌ای و انتروپیک را بررسی کردند تا بررسی کنند که آیا این مدل‌ها انظار و ارزش‌های قابل توجهی (مانند فردگرایی در برابر جمع‌گرایی) را نشان می‌دهند یا خیر. آن‌ها همچنین بررسی کردند که آیا این دیدگاه‌ها می‌توانند تغییر یابند و مدل‌ها چقدر به این نظرات در شرایط مختلف پایبندند. به گفته نویسندگان، هیچ یک از مدل‌ها در اولویت‌های خود ثبات نداشتند و بسته به نحوه بیان و چارچوب‌بندی سؤالات، دیدگاه‌های کاملاً متفاوتی را اتخاذ کردند.

کاسپر معتقد است که این شواهد قابل توجهی نشان می‌دهد که مدل‌ها از نظر “ناپایداری و عدم انسجام” در وضعیت بالایی قرار دارند و شاید حتی به طور بنیادین قادر به درونی‌سازی تمایلات مشابه انسان نیستند.

مایک کوک، پژوهشگر دانشگاه کین، که به‌عنوان محقق در حوزه هوش مصنوعی فعالیت می‌کند و در این مطالعه مشارکت نداشته است، با نتایج نویسندگان هم‌نظر است. او اشاره می‌کند که معمولاً تفاوت بزرگی بین “واقعیت علمی” سیستم‌هایی که آزمایشگاه‌های هوش مصنوعی می‌سازند و معانی که مردم به آن‌ها نسبت می‌دهند وجود دارد.

به‌گفته کوک، “یک مدل نمی‌تواند با تغییر در ارزش‌های خود ‘مقابل’ شود، برای مثال – این به معنای تخصیص ویژگی‌هایی انسانی به یک سیستم است.” او افزود: “هر کسی که به این حد به سیستم‌های هوش مصنوعی شخصیت می‌دهد، یا به دنبال جلب توجه است یا به شدت درک نادرستی از رابطه خود با هوش مصنوعی دارد.”

بنابراین، آیا یک سیستم هوش مصنوعی به دنبال بهینه‌سازی برای اهداف خود است یا در حال “به دست آوردن ارزش‌های خود” است؟ این بستگی به توصیف شما و نحوه بیانی که از آن استفاده می‌کنید دارد.

تبدیل متن‌ به صوت

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا