عنوان: پروندهای در اوکلند؛ آیا تجاریشدن OpenAI مأموریت ایمنی AGI را نقض کرد؟
در جلسه دادگاه فدرال در اوکلند کالیفرنیا، مبنای دادخواست ایلان ماسک برای تجزیه ساختار OpenAI حول این پرسش قرار گرفت که آیا تبدیل این نهاد پژوهشی به یک شرکت سودمحور، تعهد بنیادگذاران برای تضمین منافع بشری از هوش مصنوعی عمومی (AGI) را زیر پا گذاشته است یا خیر. شاهدان کلیدی از داخل و خارج این سازمان، از جمله کارمند سابق و اعضای هیئتمدیره پیشین، به تشریح مواردی پرداختند که به گفته آنها نشاندهنده دور شدن OpenAI از مأموریت اصلی ایمنی بوده است.
شهادت Rosie Campbell؛ از تمرکز پژوهشی تا اولویت «محصول»
رزى کمپبل، که از سال 2021 در تیم آمادهسازی برای AGI فعالیت میکرد و پس از انحلال تیمش در 2024 شرکت را ترک کرد، در دادگاه گفت «وقتی من پیوستم، تمرکز شرکت پژوهشی و گفتگو درباره AGI و مسائل ایمنی رایج بود؛ اما به تدریج سازمان تبدیل به مجموعهای با اولویت محصولات شد.» او در جریان بازجویی اذعان کرد که بودجه قابلتوجه برای رسیدن به AGI ضروری است، اما بر این نکته تأکید کرد که ساخت مدلی فوقهوشمند بدون رعایت تدابیر ایمنی، با مأموریت اولیه سازمان همخوانی ندارد.
کمپبل به یک مورد مشخص اشاره کرد: استقرار نسخهای از مدل GPT-4 توسط مایکروسافت در هند از طریق موتور جستجوی بینگ، پیش از آنکه این مدل توسط هیئت ایمنی استقرار (Deployment Safety Board یا DSB) ارزیابی شود. او گفت هرچند آن نسخه خطر بزرگی ایجاد نمیکرد، اما «لازم است الگوهای محکمی ایجاد شود تا با قدرتمندتر شدن فناوری، فرایندهای ایمنی قابل اعتماد رعایت شوند.»
مقایسه با رقبای جدید و تغییرات مدیریتی
وکلای OpenAI از کمپبل خواستند تا در «نظریهای حدسگونه» بیان کند که آیا رویکرد ایمنی OpenAI بهتر از شرکت تازهتأسیس xAI متعلق به ایلان ماسک است؛ او این احتمال را پذیرفت. OpenAI ارزیابیهای مدلهای خود و چارچوب ایمنی را منتشر میکند، اما درباره رویکرد فعلی خود در زمینه همترازی AGI فعلاً اظهار نظر عمومی نکرده است. دیلان اسکندینارو، رئیس فعلی آمادهسازی (hired from Anthropic)، در فوریه به جمع اضافه شد و سم آلتمان پیشتر گفته بود این استخدام باعث میشود «من امشب راحتتر بخوابم.»
بحران مدیریت و اخراج موقت آلتمان در 2023
یک نقطه حساس در پرونده، استقرار GPT-4 در هند بود که یکی از عوامل هشداردهندهای خوانده شد که منجر به اخراج موقت مدیرعامل، سم آلتمان، توسط هیئتمدیره غیرانتفاعی OpenAI در 2023 شد. آن تصمیم پس از شکایتهایی از سوی کارکنان از جمله ایلیا سوتسکِور و میرا موراتی درباره سبک مدیریت آلتمان و اجتناب او از روبهرو شدن با تعارضات اتخاذ شد. تاشا مککالی، عضو هیئتمدیره وقت، در دادگاه گفت نگرانی اصلی این بود که آلتمان اطلاعات لازم را به هیئت ارائه نمیکرد تا ساختار غیرمتعارف هیئت بتواند کار نظارتی خود را انجام دهد. او درباره «الگوی گزارشدهی گمراهکننده» از سوی آلتمان نیز شهادت داد و افزود که آلتمان در مورد اقداماتی مانند راهاندازی عمومی ChatGPT و برخی تعارضهای منافع اطلاعرسانی نکرده بود.
بازگشت وضعیت و ضعف نظارتی هیئتمدیره
مککالی همچنین توضیح داد که پس از آنکه کارکنان به نفع آلتمان موضع گرفتند و مایکروسافت برای بازگرداندن وضعیت سابق وارد عمل شد، هیئتمدیره مواضع خود را تغییر داد و اعضای مخالف آلتمان کنارهگیری کردند. به گفته او، ناتوانی هیئت غیرانتفاعی در تأثیرگذاری بر سازمان سودمحور زیرمجموعه، دقیقاً نکتهای است که پرونده ماسک روی آن انگشت گذاشته است: آیا تحول ساختاری OpenAI نقض توافق ضمنی بنیانگذاران بوده است؟
نظر کارشناسی و پیامدهای فراتر از یک شرکت
دیوید شایزر، رئیس پیشین دانشکده حقوق کلمبیا و کارشناس منصوب توسط تیم حقوقی ماسک، نگرانیهای مشابهی را مطرح کرد و تأکید کرد که اگر ایمنی واقعاً اولویت است، «باید قواعد ایمنی جدی گرفته شود و فرایندها رعایت شوند.» او گفت آنچه اهمیت دارد «مسئله فرایند» است؛ یعنی نه تنها شعار در مورد اولویت ایمنی، بلکه اجرای مستمر و قابلپیگیری آن.
مککالی در پایان با اشاره به ریسکهای حکمرانی متمرکز هشدار داد که شکست کنترل داخلی در OpenAI میتواند دلیلی برای تقویت مقررات دولتی درباره هوش مصنوعی پیشرفته باشد: «اگر همه چیز به تصمیم یک مدیرعامل بستگی داشته باشد و منافع عمومی در خطر باشد، این وضعیت مطلوب نیست.»
نتیجهگیری
پرونده حقوقی ماسک علیه OpenAI فراتر از اختلاف میان دو بازیگر بزرگ صنعت است؛ این پرونده پرسشهای اساسی درباره توازن بین نوآوری، تأمین مالی و تضمین ایمنی در مسیر رسیدن به AGI، و همچنین نقش ساختارهای نظارتی داخلی و بیرونی در محافظت از منافع عمومی را مطرح میکند. ادامه جلسات دادگاه میتواند چارچوب حقوقی و نظارتی جدیدی را برای آینده توسعه هوش مصنوعی پیشرفته رقم بزند.
