در ماه جاری، ChatGPT بخش جدیدی به نام تولیدکننده تصویر را در مدل 4o خود معرفی کرد که قابلیت بهتری در ایجاد متون داخل تصاویر دارد. این امکان جدید بهسرعت توسط کاربران برای تولید فاکتورهای جعلی مانند فاکتور رستورانها استفاده میشود که میتواند به ابزار گستردهای از دیپفیکهای هوش مصنوعی اضافه شود که به دست کلاهبرداران افتاده است.
یکی از کاربران فعال رسانههای اجتماعی و سرمایهگذار خطرپذیر، دیدی داس، تصویری از یک فاکتور جعلی برای یک استیکخانه واقعی در سانفرانسیسکو را در شبکه اجتماعی X منتشر کرده که میگوید با استفاده از مدل 4o ساخته شده است. او اظهار داشت که با استفاده از این مدل میتوان فاکتورهای جعلی ایجاد کرد. وی خاطرنشان کرد که روشهای بسیاری در جهان واقعی وجود دارد که به تصاویر “واقعی” بهعنوان مدرک تکیه میکنند و این دوره رو به پایان است.
کاربران دیگر نیز توانستهاند نتایج مشابهی را به دست آورند، از جمله تصاویری با لکههای غذا یا نوشیدنی تا آنها را واقعیتر جلوه دهند. بهعنوان مثال، کاربری اظهار داشت که در تصویر اصلی، حروف بسیار کامل هستند و با کاغذ هماهنگ نمیشوند و به نظر میرسد که روی کاغذ شناور هستند.
TechCrunch در بررسی خود از مدل 4o دریافت که حتی با وجود توانایی این مدل در تولید چنین فاکتورهایی، همچنان مشکلی در اجرای دقیق محاسبات دارد؛ بهعنوان مثال، استفاده از ویرگول بهجای نقطه در مجموع قیمت یا نادرست بودن محاسبات.
سخنگوی OpenAI، تایا کریستنسن، به TechCrunch اعلام کرد که تمام تصاویر تولید شده با ChatGPT شامل متادیتایی هستند که نشاندهنده منبع تولید آنهاست. او افزود که OpenAI در صورت نقض سیاستهای استفاده خود توسط کاربران، اقدام میکند و از بازخوردها و استفادههای دنیای واقعی مستمر میآموزد.
هنگامی که از OpenAI پرسیده شد چرا ChatGPT به کاربران اجازه میدهد فاکتورهای جعلی تولید کنند و آیا این با سیاستهای استفادهشان که از تقلب منع میکند، همخوانی دارد یا خیر، کریستنسن پاسخ داد که هدف OpenAI فراهم کردن بیشترین آزادی خلاقانه برای کاربران است و این فاکتورهای جعلی میتوانند در موقعیتهای غیرتقلبی مانند آموزش سواد مالی یا در خلق آثار هنری و تبلیغات محصولات استفاده شوند.