به‌روزرسانی جدید فریم‌ورک آمادگی، چارچوب داخلی OpenAI برای ارزیابی امنیت مدل‌های هوش مصنوعی و تعیین نیازهای حفاظتی مرتبط در فرآیند توسعه و انتشار، بیانگر تغییراتی در سیاست‌های این شرکت است. براساس اعلام OpenAI، در صورتی که یک آزمایشگاه رقیب مدل هوش مصنوعی با ریسک بالا و بدون حفاظت‌های مشابه عرضه کند، این شرکت ممکن است نيازهای خود را “تنظیم” کند. این تغییر به فشارهای رقابتی فزاینده بر روی توسعه‌دهندگان هوش مصنوعی تجاری اشاره دارد که می‌کوشند مدل‌های خود را به سرعت منتشر کنند.

OpenAI متهم به کاهش استانداردهای ایمنی به‌منظور تسریع در انتشار محصولات شده است و همچنین بر عدم ارائه گزارش‌های به‌موقع درباره آزمایش‌های ایمنی خود انتقاد شده است. هفته گذشته، ۱۲ کارمند سابق OpenAI خواستار ارائه یک توضیحنامه در پرونده ایلان ماسک علیه این شرکت شدند و ابراز نگرانی کردند که OpenAI به عنوان یک شرکت سودآور ممکن است تشویق به نادیده گرفتن مسائل ایمنی شود. OpenAI در پاسخ به انتقادات، بر این نکته تأکید کرده است که تغییرات سیاستی خود را به سادگی اعمال نخواهد کرد و درصدد حفظ حفاظت‌ها در سطوحی بالاتر است.

در یک پست وبلاگی منتشر شده در عصر سه‌شنبه، OpenAI اعلام کرد: “اگر یک توسعه‌دهنده هوش مصنوعی دیگر سیستم با ریسک بالا بدون حفاظت‌های مشابه عرضه کند، ممکن است نیازهای ما را تنظیم کنیم. اما ابتدا باید به سختی تأیید کنیم که چشم‌انداز ریسک واقعاً تغییر کرده است، به‌طور عمومی اعلام کنیم که در حال انجام یک تغییر هستیم، ارزیابی کنیم که آیا این تغییر ریسک جدی آسیب را به‌طور معناداری افزایش نمی‌دهد و هنوز حفاظت‌ها را در سطح بالاتری نگه داریم.”

فریم‌ورک آمادگی جدید همچنین نشان‌دهنده تأکید بیشتر OpenAI بر ارزیابی‌های خودکار به‌منظور تسریع در توسعه محصولات است. هرچند این شرکت از آزمایش‌های انسانی به‌کلی چشم‌پوشی نکرده است، اما به‌تدریج مجموعه‌ای از ارزیابی‌های خودکار را ایجاد کرده که به گفته OpenAI می‌تواند با سرعت بالای انتشار هماهنگ باشد. گزارش‌ها نشان می‌دهند که OpenAI زمان کمتری به کارشناسان برای انجام بررسی‌های ایمنی برای مدل‌های کلان جدید داده است و به نظر می‌رسد بسیاری از آزمایش‌های ایمنی این شرکت اکنون بر روی نسخه‌های ابتدایی مدل‌ها انجام می‌شود.

سایر تغییرات در چارچوب OpenAI مربوط به نحوه دسته‌بندی مدل‌ها بر اساس ریسک است، شامل مدل‌هایی که قادر به پنهان کردن توانایی‌های خود، دور زدن حفاظت‌ها، جلوگیری از خاموشی و حتی خودتکثیری هستند. OpenAI اکنون بر این نکته تمرکز دارد که آیا مدل‌ها به یکی از دو آستانه “بالا” یا “بحرانی” می‌رسند. تعریف OpenAI از مدل‌های با قابلیت “بالا” آن است که این مدل‌ها می‌توانند “مسیرهای موجود برای آسیب شدید را تقویت کنند”، در حالی که مدل‌های “بحرانی” به‌عنوان مدل‌هایی که “مسیرهای جدید بی‌سابقه برای آسیب شدید معرفی می‌کنند” شناخته می‌شوند.

OpenAI در پست وبلاگی خود ضمن تأکید بر این موارد نوشت: “سیستم‌های پوشش‌دهی که به قابلیت بالا می‌رسند، باید دارای حفاظتی باشند که به‌طور کافی ریسک آسیب شدید مرتبط را در پیش از انتشار به حداقل برسانند.” در نهایت، تغییرات اخیر، نخستین به‌روزرسانی OpenAI به فریم‌ورک آمادگی از زمان سال ۲۰۲۳ به شمار می‌رود.

تبدیل صوت به متن با هوش مصنوعی

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا