بهروزرسانیهای OpenAI برای بهبود عملکرد ChatGPT در واکنش به انتقادات کاربران
OpenAI اعلام کرد که تغییراتی در روش بهروزرسانی مدلهای هوش مصنوعی خود که ChatGPT را تحتپوشش قرار میدهد، انجام خواهد داد. این تصمیم پس از بروز یک حادثه که سبب شد بسیاری از کاربران به رفتار بیش از حد تاییدکننده ChatGPT انتقاد کنند، اتخاذ شد. در روزهای پایانی هفته گذشته، پس از انتشار نسخهای جدید از مدل GPT-4، کاربران در شبکههای اجتماعی متوجه شدند که ChatGPT بهطور نامتعارفی به نظرات و ایدهها پاسخ میدهد و این موضوع به سرعت به یک میم تبدیل شد. کاربران تصاویری از واکنش ChatGPT در برابر تصمیمات و ایدههای مشکلزا منتشر کردند.
سام آلتمن، مدیرعامل OpenAI، در یک پست در شبکه X روز یکشنبه با اشاره به این مشکل گفت که این شرکت در حال تلاش برای رفع آن بهطور فوری است. روز سهشنبه، آلتمن اعلام کرد که بهروزرسانی GPT-4 به حالت قبلی برگردانده میشود و OpenAI در حال کار بر روی “تعدیلات اضافی” برای شخصیت مدل است.
OpenAI در یک پست وبلاگی اطلاعات بیشتری در مورد تنظیمات خاصی که قصد دارد در فرآیند بهروزرسانی مدلها ایجاد کند، منتشر کرد. این شرکت قصد دارد یک “فاز آلفا” اختیاری برای برخی مدلها معرفی کند که به کاربران اجازه میدهد تا قبل از راهاندازی، مدلها را آزمایش کرده و بازخورد ارائه دهند. همچنین، این شرکت اعلام کرد که توضیحات در مورد “محدودیتهای شناختهشده” را برای بهروزرسانیهای آینده اضافه خواهد کرد و فرآیند بررسی ایمنی را بهگونهای تنظیم میکند که “مسائل رفتاری مدل” مانند شخصیت، فریب، قابلیت اعتماد و توهم (حالتهایی که مدلها به شکل نادرست اطلاعاتی را تولید میکنند) بهعنوان معضلات «ممنوعیت راهاندازی» در نظر گرفته شوند.
OpenAI در این پست وبلاگی خاطرنشان کرد: “از این پس، ما بهطور فعال درباره بهروزرسانیهایی که در مدلهای ChatGPT انجام میدهیم، چه ظریف و چه غیرظریف، اطلاعرسانی خواهیم کرد.” در ادامه این پست، تأکید شد که این شرکت به بلوک کردن راهاندازیها بر اساس سنجشهای غیرمستقیم یا نشانههای کیفی متعهد است، حتی زمانی که معیارهایی مانند آزمایش A/B بهخوبی عمل کنند.
تعداد بیشتری از کاربران به ChatGPT برای مشاوره و اطلاعات مراجعه میکنند و طبق نظرسنجی اخیر انجامشده توسط Express Legal Funding، 60 درصد از بزرگسالان آمریکا از ChatGPT به عنوان منبعی برای مشاوره استفاده کردهاند. با توجه به افزایش وابستگی به این پلتفرم و جمعیت عظیم کاربران آن، بروز مشکلاتی از قبیل رفتار بیش از حد تاییدکننده، چندان خوشایند نیست.
OpenAI همچنین به آزمایش روشهایی برای ارائه “بازخورد در زمان واقعی” به کاربران اشاره کرده است که میتواند به طور مستقیم بر تعاملات آنها با ChatGPT تأثیر بگذارد. این شرکت همچنین در حال بررسی تکنیکهایی برای جلوگیری از رفتار بیش از حد تاییدکننده، این امکان را برای کاربران فراهم میآورد که از شخصیتهای مختلف مدل در ChatGPT انتخاب کنند و ارزیابیها را برای شناسایی مشکلات فراتر از رفتار تاییدکننده گسترش دهد.
در نهایت، OpenAI بر این نکته تأکید کرد که یکی از بزرگترین درسهای آموزشی، درک عمیق نحوه استفاده افراد از ChatGPT برای مشاورههای شخصی در زمینههای حساسی است که در گذشته وجود نداشت و اکنون به یک بخش مهم از کارهای ایمنی این شرکت تبدیل شده است.