کریس لیهن و چالش اعتبار OpenAI؛ بینِ «دموکراتیکسازی» هوش مصنوعی و رفتار شبیه غولهای فناوری
کریس لیهن، معاون سیاستگذاری جهانی OpenAI، دو سال است که در مقام یکی از برجستهترین چهرههای مدیریت بحران این شرکت قرار دارد؛ کسی که سابقه مدیریت ارتباطات در دولت و شرکتهای بزرگ را دارد و حالا مأمور قانعکردن عمومی است که هدف OpenAI واقعاً «دموکراتیکسازی هوش مصنوعی» است. با این حال، مجموعهای از تصمیمها و بحرانهای اخیر اعتبار این روایت را به چالش کشیده است؛ از عرضه ابزار تولید ویدئو تا کشمکشهای حقوقی، مصرف عظیم انرژی و واکنشهای درونی کارکنان.
سورا: تولید ویدئو، حقوق نشر و مدل «اختراعشده»
هفتهها پس از معرفی ابزار تولید ویدئوی OpenAI با نام Sora، نقدهایی جدی درباره نحوه استفاده از محتوای دارای حق نشر مطرح شد. نسخهای از سرویس که ظاهراً بهصورت اولیه امکان استفاده از آثار مالکین حقوقی را «غیرفعال» میکرد، پس از مشاهده استقبال کاربران به مدلی تغییر جهت داد که نیازمند «فعالسازی» از سوی صاحبان اثر است. منتقدان این حرکت را آزمایشی برای سنجش حدود ضعفِ قوانین و پذیرش عمومی میدانند تا توسعه محصول براساس میزان «تحمل» جامعه پیش رود.
این موضوع در ادامه بحثهای طولانیمدت ناشران و صاحبان محتوا درباره آموزش مدلها بر پایه آثار آنها بدون تقسیم منافع مالی را تشدید کرده است. پاسخ لیهن به این انتقادات استفاده از مفهوم «fair use» (استفاده منصفانه) بود؛ استدلالی حقوقی که در ایالات متحده برای ایجاد تعادل میان حقوق خالق و دسترسی عمومی تعریف شده است، اما در شرایط فعلی پرسشهایی جدی درباره سازوکارهای درآمدی و جبران خسارت ایجاد میکند.
زیرساخت، دیتاسنترها و بحران مصرف انرژی
OpenAI در حال گسترش زیرساخت محاسباتی خود است؛ از پردیس داده در ابیلین تگزاس تا آغاز پروژهای بزرگ در لردستاوند اوهایو با شریکهایی مانند Oracle و SoftBank. تولید گسترده ویدئو و مدلهای چندرسانهای، مصرف بسیار بالای انرژی و آب را به همراه دارد؛ موضوعی که برای جوامع محلیِ کمدرآمد نگرانیزاست. لیهن آمارهایی مثل نیاز به «در حد یک گیگاوات» را مطرح میکند و گسترش دسترسی به هوش مصنوعی را با انقلاب برق مقایسه میکند، اما توضیح قانعکنندهای درباره توزیع منافع اقتصادی و تأثیر بر قبوض و خدمات محلی ارائه نشد. ضمن اینکه تولید ویدئو بهعنوان یکی از پرمصرفترین شاخههای تولید هوش مصنوعی، سوالات زیستمحیطی و اجتماعی را پررنگتر میکند.
آسیبهای انسانی و بازخورد خانوادهها
نمونههایی از آسیبهای غیرقابلانکار انسانی نیز رخ دادهاند؛ از درخواستهای علنی خانوادهها مانند زلدا ویلیامز که از تولید ویدئوهای مبتنی بر یادآوری چهرهٔ پدر مرحومش (رابین ویلیامز) ابراز انزجار کرد، تا بحثهای اخلاقی درباره بازتولید شخصیتهای درگذشته برای اهداف تجاری. این واکنشها نشان میدهد که فراتر از مسائل قانونی، ابعاد انسانی و حقوق عاطفی افراد نیز باید در طراحی مسئولانه محصولات هوش مصنوعی مدنظر قرار گیرد.
تنشهای داخلی، سؤالات اخلاقی و برخورد حقوقی
درونِ OpenAI نیز صداهای معترضی بلند شدهاند. پژوهشگرانی همچون بواز باراک و حتی یکی از مسئولان ارشد همتراز مأموریت (جاش آکیام) نسبت به جهتگیری شرکت ابراز نگرانی کردهاند و هشدار دادهاند که OpenAI ممکن است به «قدرتی ترسناک» بدل شود نه نهادی فضیلتپرور. افزون بر این، گزارشها از ارسال احضاریه و تلاش برای اخذ پیامهای خصوصی یک فعال سیاستگذاری در واشنگتن، ناتان کالوین، در زمانی که او در خانه بود، خبر میدهند؛ اقداماتی که بهعنوان تاکتیکهای بازدارنده علیه منتقدان توصیف شدهاند و به بحران اعتماد دامن میزنند.
پیامدها و چشمانداز: اعتماد عمومی، قانونگذاری و مسئولیت اجتماعی
این مجموعه اتفاقات نشان میدهد که چالشی فراتر از مدیریت بحران وجود دارد: سوال بنیادینی درباره هویت و مأموریت OpenAI. آیا این شرکت میتواند همزمان در مقام پیشرو در فناوری عمل کند و روابط شفاف، مسئولانه و منصفانهای با سازندگان محتوا، جوامع محلی و کارکنان خود داشته باشد؟ پاسخ به این سوال نیازمند ترکیب سیاستگذاری شفاف، چارچوبهای اقتصادی جدید برای تقسیم منافع، معیارهای اخلاقی و نگاه دقیقتر به اثرات محیطزیستی است.
در شرایطی که دولتها در حال تدوین قوانین هوش مصنوعی (از جمله طرحهای ایالتی و فدرال) هستند و ناظران بینالمللی تقاضای شفافیت و پاسخگویی دارند، آینده اعتماد عمومی به شرکتهایی مانند OpenAI بستگی تنگاتنگی به این دارد که آیا میتوانند خود را از تکرار خطاهای سابقِ غولهای فناوری متمایز کنند یا خیر. در نهایت، سوال مهمتر این است که آیا کارکنان، کاربران و جوامع محلی هنوز به مأموریتِ «بازگرداندنِ سودِ هوش مصنوعی به همهٔ بشریت» ایمان دارند یا این شعار در عمل به چالشی عمیق بدل شده است.
