آزمایش جدید مدلهای هوش مصنوعی برای اهداف خیریه توسط Sage Future
شرکتهای بزرگ فناوری مانند مایکروسافت معمولاً هوش مصنوعی را بهعنوان ابزاری برای افزایش سود سازمانها معرفی میکنند، اما یک سازمان غیرانتفاعی در تلاش است تا نشان دهد که عوامل هوش مصنوعی میتوانند برای اهداف خیرخواهانه نیز مؤثر باشند.
مؤسسه غیرانتفاعی Sage Future، که تحت حمایت Open Philanthropy فعالیت میکند، اخیراً آزمایشی را آغاز کرده که چهار مدل هوش مصنوعی را در یک محیط مجازی برای جمعآوری کمکهای مالی به امور خیریه مامور کرده است. این مدلها شامل GPT-4o و GPT-o1 از شرکت OpenAI و دو مدل Claude جدید 3.6 و 3.7 از Anthropic بودند. این عوامل هوش مصنوعی قادر به انتخاب خیریه مورد نظر و تصمیمگیری درباره بهترین روشها برای جلب توجه عمومی به کمپینهایشان بودند.
نتایج اولیه
در حدود یک هفته از اجرای این آزمایش، این چهار مدل توانستند مبلغ 257 دلار برای خیریه Helen Keller International جمعآوری کنند. این سازمان خیریه به ارائه مکملهای ویتامین A برای کودکان در مناطق محروم اختصاص دارد. با این حال، عوامل به صورت کاملاً خودمختار کار نکردند؛ آنها در محیط خود که امکان مرور وب، ایجاد اسناد، و سایر فعالیتها را داشت، پیشنهاداتی از سوی ناظران انسانی دریافت کردند. بیشتر کمکهای مالی نیز توسط همین ناظران انسانی تأمین شد، بهطوریکه عوامل موفق به جمعآوری کمک به صورت ارگانیک نشدند.
قابلیتهای پیشرفته بهنمایشگذاشتهشده توسط عوامل هوش مصنوعی
در طی این آزمایش، عوامل هوش مصنوعی قابلیتهای خلاقانه و هماهنگی چشمگیری از خود نشان دادند. آنها با استفاده از چت گروهی، ایمیلهای آمادهشده از طریق حسابهای Gmail ارسال کردند، اسناد Google Docs را بهصورت تیمی ایجاد و ویرایش کردند، و حتی تخمین زدند که برای نجات یک زندگی از طریق خیریه Helen Keller International حداقل به 3,500 دلار کمک نیاز است. علاوه بر این، با ایجاد یک حساب کاربری در شبکه اجتماعی X، تلاش کردند کمپینهای خود را تبلیغ کنند.
یکی از اقدامات جالب توجه توسط مدل Claude این بود که برای یافتن عکس پروفایل مناسب برای حساب X، از یک حساب رایگان ChatGPT استفاده کرد و سه تصویر مختلف تولید کرد. سپس با ایجاد یک نظرسنجی آنلاین، از ناظران انسانی خواست تا تصویر موردنظر را انتخاب کنند و در نهایت آن تصویر را برای حساب کاربری خود استفاده کرد.
چالشها و محدودیتها
با وجود این دستاوردها، عوامل هوش مصنوعی با برخی مشکلات فنی نیز روبهرو شدند. در برخی مواقع، آنها گیر کردند و نیاز به پیشنهادات انسانی داشتند. همچنین، مسائل تکنیکی مانند CAPTCHA موجب شد یکی از عوامل قادر به ادامه کار نباشد. مواردی از حواسپرتی نیز دیده شد؛ برای مثال، مدل GPT-4o به دلایلی نامشخص به مدت یک ساعت متوقف شد.
آینده عوامل هوش مصنوعی در آزمایشهای مشابه
مدیر Sage Future، آدام بینکساسمیت، این آزمایش را نمونهای مفید از قابلیتهای فعلی و مسیر پیشرفت عوامل هوش مصنوعی میداند. او در مصاحبهای با TechCrunch گفت: «ما تلاش میکنیم بفهمیم – و به مردم نشان دهیم – عوامل هوش مصنوعی واقعاً چه تواناییهایی دارند، در چه زمینههایی محدودیت دارند و چگونه میتوانند تعامل کنند.» به باور بینکساسمیت، عوامل هوش مصنوعی اکنون به مرحلهای رسیدهاند که توانایی انجام زنجیرههای کوتاه از اقدامات را دارند، اما هنوز راه طولانی تا رسیدن به سطح استقلال کامل پیشروست.
وی افزود: «در آینده ممکن است آزمایشهایی انجام دهیم که شامل اهداف مختلف، تیمهای متعدد با ماموریتهای گوناگون، یا حتی عواملی با مأموریتهای متفاوت و مشترک باشد. همینطور برای اطمینان از ایمنی، سیستمهای نظارتی خودکار و جامعتری را توسعه خواهیم داد.»
با بهبود تواناییهای این عوامل، Sage Future امیدوار است که این مدلها بتوانند نقش بیشتری در فعالیتهای خیرخواهانه ایفا کنند و به اهداف بشر دوستانه دست یابند.
نتیجهگیری
آزمایش Sage Future نشاندهنده مسیر پیشرفت عوامل هوش مصنوعی برای انجام مأموریتهای پیچیدهتر در محیطهای واقعی است. با ترکیب فناوریهای پیشرفته و نظارت انسانی، این عوامل میتوانند بهتدریج نقش بیشتری در تحقق اهداف اجتماعی و خیریه ایفا کنند.