دعوت به کانال تلگرام
کانال بینا ویرا مرجع تخصصی اخبار هوش مصنوعی و تصاویر تولید شده با AI
عضویت در کانال

پیام دردناک زلدا ویلیامز: «دیگر برایم ویدیوهای هوش‌مصنوعی از پدر نفرستید»

زلدا ویلیامز، دختر بازیگر فقید رابین ویلیامز، در صفحه اینستاگرام خود از طرفداران پدرش خواست که ارسال ویدیوهای ساخته‌شده با هوش‌مصنوعی از رابین را متوقف کنند. او در استوری نوشت: «لطفاً دیگر برایم ویدیوهای هوش‌مصنوعی از بابا نفرستید. باور نکنید که من می‌خواهم این را ببینم یا می‌فهمم؛ نه می‌فهمم و نه می‌خواهم. اگر اندکی شرافت دارید، دست از این کار بردارید — نه فقط نسبت به او، بلکه نسبت به من و همه دیگران. این کار احمقانه است، اتلاف وقت و انرژی است و باور کنید او هم چنین چیزی را نمی‌خواست.»

این واکنش زلدا در حالی منتشر شد که تنها چند روز پس از معرفی مدل ویدیویی جدید اوپن‌ای‌آی، Sora 2، و اپلیکیشن همراه آن (Sora Social)، کاربران توانسته‌اند ویدیوهای بسیار واقعی از افراد — از جمله چهره‌های تاریخی و سلبریتی‌های درگذشته — تولید کنند. Sora 2 و نسخه اجتماعی‌اش امکان تولید «دپ‌فیک»های ویدیویی با کیفیت بالا را برای کاربران عادی فراهم کرده‌اند؛ مسئله‌ای که نگرانی‌های حقوقی و اخلاقی گسترده‌ای را به‌دنبال داشته است.

چه محدودیت‌هایی برای تولید ویدیوهای افراد زنده و درگذشته وجود دارد؟
اوپن‌ای‌آی اعلام کرده است که تولید ویدیو از افراد زنده تنها در صورتی ممکن است که خود فرد یا دوستش اجازه داده باشد (قابلیتی که «cameo» نامیده شده است). اما این محدودیت‌ها عملاً شامل افراد درگذشته نمی‌شود و ایجاد چهره‌ها و حرکات آن‌ها در ویدیوها اغلب بدون مانع انجام می‌پذیرد. بر اساس تحلیل‌ها و تست‌هایی که رسانه‌هایی مانند TechCrunch انجام داده‌اند، بعضی چهره‌های درگذشته (مثلاً رابین ویلیامز، باب راس، جان لنون و الکس تربک) به‌راحتی قابل تولید بوده‌اند، در حالی که برخی دیگر (مثل جیمی کارتر یا مایکل جکسون در نمونه‌های اشاره‌شده) توسط مدل ساخته نشده‌اند — نشان‌دهنده عدم شفافیت در معیارهای اوپن‌ای‌آی برای تعیین مرزها.

ابعاد حقوقی و واکنش‌ها
از منظر حقوقی، مواردی مانند تهمت یا توهین به افراد درگذشته اغلب تبعات مدنی یا کیفری مشابه افراد زنده را در پی ندارد. مرکز حقوق مطبوعات دانشجویی (Student Press Law Center) نیز اشاره کرده که تهمت درباره متوفیان معمولاً پیگرد ندارد. همین خلا حقوقی یکی از دلایلی است که به‌نظر می‌رسد تولید و نشر دپ‌فیک‌های افراد درگذشته برای شرکت‌ها کم‌هزینه باشد. اوپن‌ای‌آی تاکنون درباره خط‌مشی‌های دقیق خود در قبال تولید تصاویر و ویدیوهای افراد درگذشته توضیح کامل نداده و به درخواست‌های رسانه‌ها برای شفاف‌سازی پاسخ روشنی ارائه نکرده است.

پیچیدگی مالکیت معنوی و نقش استودیوها
به محض انتشار اولیه Sora، کلیپ‌های مبتنی بر شخصیت‌های دارای حقوق کپی‌رایت (مثل پیتر گریفین یا پایکاکو) نیز در این پلتفرم منتشر شد. مدیرعامل اوپن‌ای‌آی در ابتدا گفته بود که استودیوها و نمایندگی‌ها باید عمداً اعلام کنند که نمی‌خواهند محتوای آن‌ها در مدل قرار گیرد؛ اظهارنظری که انتقاداتی را از سوی اتحادیه‌های صنعت فیلم و حقوق‌دانان به‌دنبال داشت. انجمن فیلم (MPA) از اوپن‌ای‌آی خواسته تا قاطعانه‌تر از حقوق خالقان و دارندگان آثار محافظت کند و این شرکت پس از انتقادات اعلام کرده برخی موضع‌گیری‌ها را بازنگری خواهد کرد.

خطرات اخلاقی و پیامدهای اجتماعی
کارشناسان هشدار می‌دهند که قابلیت تولید دپ‌فیک‌های بسیار واقعی نه تنها می‌تواند به تحریف میراث افراد درگذشته منجر شود، بلکه در مورد افراد زنده نیز می‌تواند برای ضربه‌زدن، انتشار اخبار جعلی، و تولید محتوای جنسی یا مخرب مورد سوءاستفاده قرار گیرد. برخی پلتفرم‌ها نسبت به Sora محافظه‌کارانه‌تر عمل می‌کنند، اما نمونه‌هایی مانند xAI و سایر مدل‌ها نیز با محدودیت‌های کمتر، امکان تولید محتوای خطرناک‌تر را فراهم می‌کنند. منتقدان می‌گویند اگر نظارت، مقررات و اخلاق حرفه‌ای تقویت نشود، پذیرفتن تولید آزادانه چهره‌ی افراد — زنده یا مرده — می‌تواند سابقه‌ای هولناک در فضای دیجیتال ایجاد کند.

واکنش خانواده‌ها و درخواست برای حفاظت بیشتر
زلدا ویلیامز در پیام خود به جنبه انسانی موضوع اشاره کرده و خواسته که حداقل به یاد و احترام انسان‌ها پایبند باشیم: «دیدن اینکه میراث افراد واقعی به یک فرآیند فشرده‌شده تبدیل می‌شود که فقط کمی شبیه‌شان به نظر برسد تا دیگران بتوانند محتوای نامناسب تولید کنند، خشم‌آور است.» این نوع واکنش‌ها نشان می‌دهد که فراتر از مباحث فنی و حقوقی، یک نیاز اخلاقی و فرهنگی برای محافظت از کرامت فردی و حافظه جمعی وجود دارد.

نتیجه‌گیری
پدیدآمدن مدل‌هایی مانند Sora 2 مرزهای جدیدی در تولید ویدیو با هوش‌مصنوعی باز کرده است؛ مرزهایی که فضای حقوقی و اخلاقی هنوز نتوانسته‌اند به‌طور کامل آن‌ها را پوشش دهند. تجربه اخیر و واکنش‌هایی مانند پیام زلدا ویلیامز بار دیگر یادآور می‌شود که توسعه فناوری باید همزمان با ایجاد سازوکارهای شفاف قانونی، سیاست‌گذاری‌های اخلاقی و احترام به حقوق و احساسات خانواده‌ها پیش رود تا از سوءاستفاده و تحقیر حافظه افراد جلوگیری شود.

تبدیل گفتار به نوشتار فارسی

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا