آزمایش جدید مدل‌های هوش مصنوعی برای اهداف خیریه توسط Sage Future

شرکت‌های بزرگ فناوری مانند مایکروسافت معمولاً هوش مصنوعی را به‌عنوان ابزاری برای افزایش سود سازمان‌ها معرفی می‌کنند، اما یک سازمان غیرانتفاعی در تلاش است تا نشان دهد که عوامل هوش مصنوعی می‌توانند برای اهداف خیرخواهانه نیز مؤثر باشند.

مؤسسه غیرانتفاعی Sage Future، که تحت حمایت Open Philanthropy فعالیت می‌کند، اخیراً آزمایشی را آغاز کرده که چهار مدل هوش مصنوعی را در یک محیط مجازی برای جمع‌آوری کمک‌های مالی به امور خیریه مامور کرده است. این مدل‌ها شامل GPT-4o و GPT-o1 از شرکت OpenAI و دو مدل Claude جدید 3.6 و 3.7 از Anthropic بودند. این عوامل هوش مصنوعی قادر به انتخاب خیریه مورد نظر و تصمیم‌گیری درباره بهترین روش‌ها برای جلب توجه عمومی به کمپین‌هایشان بودند.

نتایج اولیه

در حدود یک هفته از اجرای این آزمایش، این چهار مدل توانستند مبلغ 257 دلار برای خیریه Helen Keller International جمع‌آوری کنند. این سازمان خیریه به ارائه مکمل‌های ویتامین A برای کودکان در مناطق محروم اختصاص دارد. با این حال، عوامل به صورت کاملاً خودمختار کار نکردند؛ آن‌ها در محیط خود که امکان مرور وب، ایجاد اسناد، و سایر فعالیت‌ها را داشت، پیشنهاداتی از سوی ناظران انسانی دریافت کردند. بیشتر کمک‌های مالی نیز توسط همین ناظران انسانی تأمین شد، به‌طوری‌که عوامل موفق به جمع‌آوری کمک به صورت ارگانیک نشدند.

قابلیت‌های پیشرفته به‌نمایش‌گذاشته‌شده توسط عوامل هوش مصنوعی

در طی این آزمایش، عوامل هوش مصنوعی قابلیت‌های خلاقانه و هماهنگی چشمگیری از خود نشان دادند. آن‌ها با استفاده از چت گروهی، ایمیل‌های آماده‌شده از طریق حساب‌های Gmail ارسال کردند، اسناد Google Docs را به‌صورت تیمی ایجاد و ویرایش کردند، و حتی تخمین زدند که برای نجات یک زندگی از طریق خیریه Helen Keller International حداقل به 3,500 دلار کمک نیاز است. علاوه بر این، با ایجاد یک حساب کاربری در شبکه اجتماعی X، تلاش کردند کمپین‌های خود را تبلیغ کنند.

یکی از اقدامات جالب توجه توسط مدل Claude این بود که برای یافتن عکس پروفایل مناسب برای حساب X، از یک حساب رایگان ChatGPT استفاده کرد و سه تصویر مختلف تولید کرد. سپس با ایجاد یک نظرسنجی آنلاین، از ناظران انسانی خواست تا تصویر موردنظر را انتخاب کنند و در نهایت آن تصویر را برای حساب کاربری خود استفاده کرد.

چالش‌ها و محدودیت‌ها

با وجود این دستاوردها، عوامل هوش مصنوعی با برخی مشکلات فنی نیز روبه‌رو شدند. در برخی مواقع، آن‌ها گیر کردند و نیاز به پیشنهادات انسانی داشتند. همچنین، مسائل تکنیکی مانند CAPTCHA موجب شد یکی از عوامل قادر به ادامه کار نباشد. مواردی از حواس‌پرتی نیز دیده شد؛ برای مثال، مدل GPT-4o به دلایلی نامشخص به مدت یک ساعت متوقف شد.

آینده عوامل هوش مصنوعی در آزمایش‌های مشابه

مدیر Sage Future، آدام بینکس‌اسمیت، این آزمایش را نمونه‌ای مفید از قابلیت‌های فعلی و مسیر پیشرفت عوامل هوش مصنوعی می‌داند. او در مصاحبه‌ای با TechCrunch گفت: «ما تلاش می‌کنیم بفهمیم – و به مردم نشان دهیم – عوامل هوش مصنوعی واقعاً چه توانایی‌هایی دارند، در چه زمینه‌هایی محدودیت دارند و چگونه می‌توانند تعامل کنند.» به باور بینکس‌اسمیت، عوامل هوش مصنوعی اکنون به مرحله‌ای رسیده‌اند که توانایی انجام زنجیره‌های کوتاه از اقدامات را دارند، اما هنوز راه طولانی تا رسیدن به سطح استقلال کامل پیش‌روست.

وی افزود: «در آینده ممکن است آزمایش‌هایی انجام دهیم که شامل اهداف مختلف، تیم‌های متعدد با ماموریت‌های گوناگون، یا حتی عواملی با مأموریت‌های متفاوت و مشترک باشد. همینطور برای اطمینان از ایمنی، سیستم‌های نظارتی خودکار و جامع‌تری را توسعه خواهیم داد.»

با بهبود توانایی‌های این عوامل، Sage Future امیدوار است که این مدل‌ها بتوانند نقش بیشتری در فعالیت‌های خیرخواهانه ایفا کنند و به اهداف بشر دوستانه دست یابند.


نتیجه‌گیری

آزمایش Sage Future نشان‌دهنده مسیر پیشرفت عوامل هوش مصنوعی برای انجام مأموریت‌های پیچیده‌تر در محیط‌های واقعی است. با ترکیب فناوری‌های پیشرفته و نظارت انسانی، این عوامل می‌توانند به‌تدریج نقش بیشتری در تحقق اهداف اجتماعی و خیریه ایفا کنند.

مشاور دیجیتال هوشمند

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا