بهگزارش سایت بینا ویرا، OpenAI بهزودی ممکن است از سازمانها بخواهد که برای دسترسی به برخی مدلهای پیشرفته هوش مصنوعی، روند تأیید هویت را تکمیل کنند. این اطلاعات در صفحه پشتیبانی منتشر شده در وبسایت این شرکت در هفته گذشته آمده است. فرآیند تأیید هویت که با عنوان “سازمان تأییدشده” شناخته میشود، به عنوان روشی جدید برای توسعهدهندگان جهت دسترسی به پیشرفتهترین مدلها و قابلیتهای پلتفرم OpenAI معرفی شده است.
بر اساس این گزارش، برای تأیید هویت، ارائه شناسهای دولتی از یکی از کشورهایی که توسط API OpenAI پشتیبانی میشود الزامی است. هر شناسه تنها میتواند یک سازمان را هر ۹۰ روز تأیید کند و نه تمامی سازمانها واجد شرایط تأیید هویت خواهند بود. OpenAI در این خصوص تأکید کرده است که این شرکت مسئولیت خود را در خصوص اطمینان از دسترسپذیری و استفاده ایمن از AI جدی میگیرد.
در این صفحه همچنین آمده است: «متأسفانه، اقلیتی از توسعهدهندگان بهطور عمدی از APIهای OpenAI بهنحوی که مغایر با سیاستهای استفاده ماست، استفاده میکنند. ما فرآیند تأیید هویت را برای کاهش استفادههای ناپسند از AI اضافه کردهایم و در عین حال، دسترسی به مدلهای پیشرفته را برای جامعه وسیعتری از توسعهدهندگان حفظ میکنیم.»
تأیید هویت تنها چند دقیقه زمان میبرد و بهنظر میرسد این فرآیند جدید بهمنظور افزایش امنیت محصولات OpenAI طراحی شده است، بهویژه با توجه به رشد قابلیتهای آنها. OpenAI چندین گزارش درباره تلاشهای خود برای شناسایی و کاهش استفادههای سوء از مدلهای خود منتشر کرده است، شامل گروههایی که ادعا میشود مرتبط با کره شمالی هستند.
گزارشهایی نیز حاکی از این است که OpenAI بهدنبال جلوگیری از سرقت اطلاعات صنعتی است. بر اساس گزارشی از بلومبرگ، این شرکت به بررسی یک گروه مرتبط با آزمایشگاه هوش مصنوعی DeepSeek در چین پرداخته است که بهاحتمال زیاد در اواخر سال ۲۰۲۴ اقدام به استخراج حجم وسیعی از دادهها از طریق API خود کرده است، که این عمل خلاف شرایط OpenAI بهشمار میآید. OpenAI تابستان گذشته دسترسی به خدمات خود را در چین مسدود کرده است.