به‌گزارش سایت بینا ویرا، OpenAI به‌زودی ممکن است از سازمان‌ها بخواهد که برای دسترسی به برخی مدل‌های پیشرفته هوش مصنوعی، روند تأیید هویت را تکمیل کنند. این اطلاعات در صفحه پشتیبانی منتشر شده در وب‌سایت این شرکت در هفته گذشته آمده است. فرآیند تأیید هویت که با عنوان “سازمان تأییدشده” شناخته می‌شود، به عنوان روشی جدید برای توسعه‌دهندگان جهت دسترسی به پیشرفته‌ترین مدل‌ها و قابلیت‌های پلتفرم OpenAI معرفی شده است.

بر اساس این گزارش، برای تأیید هویت، ارائه شناسه‌ای دولتی از یکی از کشورهایی که توسط API OpenAI پشتیبانی می‌شود الزامی است. هر شناسه تنها می‌تواند یک سازمان را هر ۹۰ روز تأیید کند و نه تمامی سازمان‌ها واجد شرایط تأیید هویت خواهند بود. OpenAI در این خصوص تأکید کرده است که این شرکت مسئولیت خود را در خصوص اطمینان از دسترس‌پذیری و استفاده ایمن از AI جدی می‌گیرد.

در این صفحه همچنین آمده است: «متأسفانه، اقلیتی از توسعه‌دهندگان به‌طور عمدی از APIهای OpenAI به‌نحوی که مغایر با سیاست‌های استفاده ماست، استفاده می‌کنند. ما فرآیند تأیید هویت را برای کاهش استفاده‌های ناپسند از AI اضافه کرده‌ایم و در عین حال، دسترسی به مدل‌های پیشرفته را برای جامعه وسیع‌تری از توسعه‌دهندگان حفظ می‌کنیم.»

تأیید هویت تنها چند دقیقه زمان می‌برد و به‌نظر می‌رسد این فرآیند جدید به‌منظور افزایش امنیت محصولات OpenAI طراحی شده است، به‌ویژه با توجه به رشد قابلیت‌های آنها. OpenAI چندین گزارش درباره تلاش‌های خود برای شناسایی و کاهش استفاده‌های سوء از مدل‌های خود منتشر کرده است، شامل گروه‌هایی که ادعا می‌شود مرتبط با کره شمالی هستند.

گزارش‌هایی نیز حاکی از این است که OpenAI به‌دنبال جلوگیری از سرقت اطلاعات صنعتی است. بر اساس گزارشی از بلومبرگ، این شرکت به بررسی یک گروه مرتبط با آزمایشگاه هوش مصنوعی DeepSeek در چین پرداخته است که به‌احتمال زیاد در اواخر سال ۲۰۲۴ اقدام به استخراج حجم وسیعی از داده‌ها از طریق API خود کرده است، که این عمل خلاف شرایط OpenAI به‌شمار می‌آید. OpenAI تابستان گذشته دسترسی به خدمات خود را در چین مسدود کرده است.

مشاور صوتی آنلاین

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا