بهروزرسانی جدید فریمورک آمادگی، چارچوب داخلی OpenAI برای ارزیابی امنیت مدلهای هوش مصنوعی و تعیین نیازهای حفاظتی مرتبط در فرآیند توسعه و انتشار، بیانگر تغییراتی در سیاستهای این شرکت است. براساس اعلام OpenAI، در صورتی که یک آزمایشگاه رقیب مدل هوش مصنوعی با ریسک بالا و بدون حفاظتهای مشابه عرضه کند، این شرکت ممکن است نيازهای خود را “تنظیم” کند. این تغییر به فشارهای رقابتی فزاینده بر روی توسعهدهندگان هوش مصنوعی تجاری اشاره دارد که میکوشند مدلهای خود را به سرعت منتشر کنند.
OpenAI متهم به کاهش استانداردهای ایمنی بهمنظور تسریع در انتشار محصولات شده است و همچنین بر عدم ارائه گزارشهای بهموقع درباره آزمایشهای ایمنی خود انتقاد شده است. هفته گذشته، ۱۲ کارمند سابق OpenAI خواستار ارائه یک توضیحنامه در پرونده ایلان ماسک علیه این شرکت شدند و ابراز نگرانی کردند که OpenAI به عنوان یک شرکت سودآور ممکن است تشویق به نادیده گرفتن مسائل ایمنی شود. OpenAI در پاسخ به انتقادات، بر این نکته تأکید کرده است که تغییرات سیاستی خود را به سادگی اعمال نخواهد کرد و درصدد حفظ حفاظتها در سطوحی بالاتر است.
در یک پست وبلاگی منتشر شده در عصر سهشنبه، OpenAI اعلام کرد: “اگر یک توسعهدهنده هوش مصنوعی دیگر سیستم با ریسک بالا بدون حفاظتهای مشابه عرضه کند، ممکن است نیازهای ما را تنظیم کنیم. اما ابتدا باید به سختی تأیید کنیم که چشمانداز ریسک واقعاً تغییر کرده است، بهطور عمومی اعلام کنیم که در حال انجام یک تغییر هستیم، ارزیابی کنیم که آیا این تغییر ریسک جدی آسیب را بهطور معناداری افزایش نمیدهد و هنوز حفاظتها را در سطح بالاتری نگه داریم.”
فریمورک آمادگی جدید همچنین نشاندهنده تأکید بیشتر OpenAI بر ارزیابیهای خودکار بهمنظور تسریع در توسعه محصولات است. هرچند این شرکت از آزمایشهای انسانی بهکلی چشمپوشی نکرده است، اما بهتدریج مجموعهای از ارزیابیهای خودکار را ایجاد کرده که به گفته OpenAI میتواند با سرعت بالای انتشار هماهنگ باشد. گزارشها نشان میدهند که OpenAI زمان کمتری به کارشناسان برای انجام بررسیهای ایمنی برای مدلهای کلان جدید داده است و به نظر میرسد بسیاری از آزمایشهای ایمنی این شرکت اکنون بر روی نسخههای ابتدایی مدلها انجام میشود.
سایر تغییرات در چارچوب OpenAI مربوط به نحوه دستهبندی مدلها بر اساس ریسک است، شامل مدلهایی که قادر به پنهان کردن تواناییهای خود، دور زدن حفاظتها، جلوگیری از خاموشی و حتی خودتکثیری هستند. OpenAI اکنون بر این نکته تمرکز دارد که آیا مدلها به یکی از دو آستانه “بالا” یا “بحرانی” میرسند. تعریف OpenAI از مدلهای با قابلیت “بالا” آن است که این مدلها میتوانند “مسیرهای موجود برای آسیب شدید را تقویت کنند”، در حالی که مدلهای “بحرانی” بهعنوان مدلهایی که “مسیرهای جدید بیسابقه برای آسیب شدید معرفی میکنند” شناخته میشوند.
OpenAI در پست وبلاگی خود ضمن تأکید بر این موارد نوشت: “سیستمهای پوششدهی که به قابلیت بالا میرسند، باید دارای حفاظتی باشند که بهطور کافی ریسک آسیب شدید مرتبط را در پیش از انتشار به حداقل برسانند.” در نهایت، تغییرات اخیر، نخستین بهروزرسانی OpenAI به فریمورک آمادگی از زمان سال ۲۰۲۳ به شمار میرود.