متا از امضای کد رفتار اتحادیه اروپا برای قانون هوش مصنوعی خودداری کرده است، و این اقدام در حالی انجام می‌شود که چند هفته تا اجرای قوانین جدید این بلوک برای تأمین‌کنندگان مدل‌های هوش مصنوعی عمومی باقی مانده است. جوئل کاپلان، معاون ارشد امور جهانی متا، در پستی در لینکدین نوشت: “اروپا در مسیر اشتباهی در زمینه هوش مصنوعی قرار دارد.” او همچنین افزود: “ما به دقت کد رفتار کمیسیون اروپا برای مدل‌های هوش مصنوعی عمومی (GPAI) را بررسی کرده‌ایم و متا آن را امضا نخواهد کرد. این کد قانونی منجر به ایجاد ابهاماتی برای توسعه‌دهندگان مدل شده و اقداماتی فراتر از دامنه قانون هوش مصنوعی را معرفی می‌کند.”

کد رفتار اتحادیه اروپا — که اخیراً به‌صورت داوطلبانه منتشر شده — به هدف کمک به شرکت‌ها در اجرای فرآیندها و سیستم‌هایی برای انطباق با قوانین جدید AI تنظیم شده است. از جمله الزامات این کد، شرکت‌ها باید مستندات مربوط به ابزارها و خدمات هوش مصنوعی خود را ارائه و به‌طور مرتب به‌روز کنند؛ همچنین استفاده از محتوای سرقتی برای آموزش مدل‌های AI ممنوع شده و شرکت‌ها موظف‌اند با درخواست‌های صاحبان محتوا برای عدم استفاده از آثارشان در مجموعه‌های داده‌ای همکاری کنند.

کاپلان این اقدام اتحادیه اروپا را “دست‌درازی” عنوان کرده و ادعا کرد که این قوانین “توسعه و به‌کارگیری مدل‌های هوش مصنوعی پیشرفته در اروپا را مهار کرده و مانع از رشد شرکت‌های اروپایی که قصد دارند کسب‌وکارهای رونق‌داری پایه‌گذاری کنند، خواهد شد.” قانون هوش مصنوعی به مواردی با خطرات غیرقابل قبول، مانند دستکاری‌های شناختی یا امتیازدهی اجتماعی، دسترسی ندارد و همچنین مجموعه‌ای از استفاده‌های “با خطر بالا” مانند بیومتریک و شناسایی چهره را تعریف می‌کند.

این قانون همچنین از توسعه‌دهندگان می‌خواهد که سیستم‌های هوش مصنوعی خود را ثبت و الزامات مدیریت خطر و کیفیت را رعایت کنند. شرکت‌های فناوری از سراسر جهان، از جمله غول‌های هوش مصنوعی مانند آلفابت، متا، مایکروسافت و میسترال AI، با این قوانین مخالف هستند و حتا از کمیسیون اروپا خواسته‌اند که اجرایی شدن آن را به تعویق بیندازد. اما کمیسیون بر موضع خود ایستادگی کرده و گفته است که برنامه زمان‌بندی را تغییر نخواهد داد.

در همین راستا، اتحادیه اروپا روز جمعه دستورالعمل‌هایی برای تأمین‌کنندگان مدل‌های هوش مصنوعی منتشر کرد که از قوانین جدیدی که از 2 اوت به اجرا در می‌آید، پیروی می‌کند. این قوانین تأمین‌کنندگانی که دارای مدل‌های “هوش مصنوعی عمومی با خطرات سیستمی” هستند، شامل OpenAI، Anthropic، Google و متا را تحت تأثیر قرار خواهد داد. شرکت‌هایی که چنین مدل‌هایی را قبل از 2 اوت به بازار عرضه کرده‌اند، تا 2 اوت 2027 موظف به انطباق با این قوانین هستند.

تجزیه و تحلیل تصویر با هوش مصنوعی

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا