در اواخر مارس، شرکت OpenAI اعلام کرد که قصد دارد برای اولین بار از زمان انتشار GPT-2، یک مدل زبانی “باز” ارائه دهد. اکنون جزئیاتی از این مدل جدید به تدریج از جلسات OpenAI با جامعه توسعه‌دهندگان هوش مصنوعی منتشر می‌شود. به نقل از منابع آگاه، آیدان کلارک، معاون تحقیقاتی OpenAI، رهبری توسعه این مدل باز را برعهده دارد و این فرایند در مراحل ابتدایی خود قرار دارد. OpenAI هدف‌گذاری کرده است که این مدل را در اوایل تابستان به بازار عرضه کند و به دنبال ایجاد یک مدل استدلالی است که بین سایر مدل‌های باز، رده اول را به خود اختصاص دهد.

طبق اطلاعات منتشر شده، OpenAI در حال بررسی نوعی مجوز بسیار آزاد برای این مدل است که محدودیت‌های کمی در استفاده یا تجاری‌سازی دارد. در مقابل، برخی از مدل‌های باز دیگر مانند Llama و Gemma از گوگل به خاطر تحمیل الزامات سنگین مورد انتقاد قرار گرفته‌اند، انتقاداتی که به نظر می‌رسد OpenAI در تلاش است تا از آن‌ها اجتناب کند. به علاوه، OpenAI تحت فشار فزاینده رقبایی همچون آزمایشگاه هوش مصنوعی چینی DeepSeek قرار دارد که رویکرد باز را در عرضه مدل‌های خود دنبال می‌کنند و زمینه‌ای را برای آزمایش و تجاری‌سازی در اختیار جامعه هوش مصنوعی قرار می‌دهند.

این رویکرد “باز” برای برخی از سازمان‌ها مانند متا که به شدت در خانواده مدل‌های باز Llama سرمایه‌گذاری کرده، بسیار موفقیت‌آمیز بوده است. به‌طور مثال، متا در اوایل مارس اعلام کرد که Llama بیش از 1 میلیارد بار دانلود شده است. در همین حال، DeepSeek با سرعت توانسته است یک پایگاه کاربری بزرگ جهانی را جذب کرده و توجه سرمایه‌گذاران داخلی را جلب کند.

گفته می‌شود که مدل جدید OpenAI به‌طور خاص بر اساس ورودی و خروجی متنی طراحی شده و قادر است بر روی سخت‌افزارهای پیشرفته مصرفی کار کند و توسعه‌دهندگان را قادر می‌سازد تا قابلیت “استدلال” را به‌طور دلخواه روشن یا خاموش کنند. طبق اطلاعات، اگر راه‌اندازی این مدل با استقبال خوبی مواجه شود، OpenAI ممکن است مدل‌های جدید دیگری را نیز ارائه دهد، که شامل مدل‌های کوچکتر نیز می‌شود.

مدیرعامل OpenAI، سم آلتمن، در سخنان پیشین خود به این نکته اشاره کرده که شرکتش در زمینه متن بازسازی تکنولوژی‌های خود، در مسیر اشتباه قرار گرفته است. او در یک پرسش و پاسخ در ردیت گفت: “[ما باید] استراتژی متفاوتی برای متن باز پیدا کنیم.” آلتمن تأکید کرده که OpenAI در تلاش است تا مدل جدید خود را به‌دقت ارزیابی و امنیت آن را بررسی کند. به‌علاوه، قصد دارد یک کارت مدل منتشر کند که گزارشی فنی از نتایج آزمون‌های داخلی و خارجی OpenAI باشد.

بانک اطلاعاتی که بر اساس این مدل ایجاد می‌شود، امکان بررسی دقیق‌تر وضعیت مدل را فراهم می‌کند. آلتمن گفته است که “[قبل از انتشار، این مدل بر اساس چارچوب آمادگی ما ارزیابی خواهد شد، درست مانند هر مدل دیگری] و ما کارهای بیشتری خواهیم کرد چون می‌دانیم این مدل پس از انتشار دستخوش تغییر خواهد شد.”

OpenAI به خاطر شتاب در فرایند تست ایمنی مدل‌های اخیر و عدم ارائه کارت‌های مدل برای برخی از آن‌ها، انتقاداتی را متوجه خود کرده است. ما با OpenAI تماس گرفته‌ایم و در صورت دریافت پاسخ، این مقاله به‌روزرسانی خواهد شد.

تبدیل نوشتار به گفتار

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا