متا از امضای کد رفتار اتحادیه اروپا برای قانون هوش مصنوعی خودداری کرده است، و این اقدام در حالی انجام میشود که چند هفته تا اجرای قوانین جدید این بلوک برای تأمینکنندگان مدلهای هوش مصنوعی عمومی باقی مانده است. جوئل کاپلان، معاون ارشد امور جهانی متا، در پستی در لینکدین نوشت: “اروپا در مسیر اشتباهی در زمینه هوش مصنوعی قرار دارد.” او همچنین افزود: “ما به دقت کد رفتار کمیسیون اروپا برای مدلهای هوش مصنوعی عمومی (GPAI) را بررسی کردهایم و متا آن را امضا نخواهد کرد. این کد قانونی منجر به ایجاد ابهاماتی برای توسعهدهندگان مدل شده و اقداماتی فراتر از دامنه قانون هوش مصنوعی را معرفی میکند.”
کد رفتار اتحادیه اروپا — که اخیراً بهصورت داوطلبانه منتشر شده — به هدف کمک به شرکتها در اجرای فرآیندها و سیستمهایی برای انطباق با قوانین جدید AI تنظیم شده است. از جمله الزامات این کد، شرکتها باید مستندات مربوط به ابزارها و خدمات هوش مصنوعی خود را ارائه و بهطور مرتب بهروز کنند؛ همچنین استفاده از محتوای سرقتی برای آموزش مدلهای AI ممنوع شده و شرکتها موظفاند با درخواستهای صاحبان محتوا برای عدم استفاده از آثارشان در مجموعههای دادهای همکاری کنند.
کاپلان این اقدام اتحادیه اروپا را “دستدرازی” عنوان کرده و ادعا کرد که این قوانین “توسعه و بهکارگیری مدلهای هوش مصنوعی پیشرفته در اروپا را مهار کرده و مانع از رشد شرکتهای اروپایی که قصد دارند کسبوکارهای رونقداری پایهگذاری کنند، خواهد شد.” قانون هوش مصنوعی به مواردی با خطرات غیرقابل قبول، مانند دستکاریهای شناختی یا امتیازدهی اجتماعی، دسترسی ندارد و همچنین مجموعهای از استفادههای “با خطر بالا” مانند بیومتریک و شناسایی چهره را تعریف میکند.
این قانون همچنین از توسعهدهندگان میخواهد که سیستمهای هوش مصنوعی خود را ثبت و الزامات مدیریت خطر و کیفیت را رعایت کنند. شرکتهای فناوری از سراسر جهان، از جمله غولهای هوش مصنوعی مانند آلفابت، متا، مایکروسافت و میسترال AI، با این قوانین مخالف هستند و حتا از کمیسیون اروپا خواستهاند که اجرایی شدن آن را به تعویق بیندازد. اما کمیسیون بر موضع خود ایستادگی کرده و گفته است که برنامه زمانبندی را تغییر نخواهد داد.
در همین راستا، اتحادیه اروپا روز جمعه دستورالعملهایی برای تأمینکنندگان مدلهای هوش مصنوعی منتشر کرد که از قوانین جدیدی که از 2 اوت به اجرا در میآید، پیروی میکند. این قوانین تأمینکنندگانی که دارای مدلهای “هوش مصنوعی عمومی با خطرات سیستمی” هستند، شامل OpenAI، Anthropic، Google و متا را تحت تأثیر قرار خواهد داد. شرکتهایی که چنین مدلهایی را قبل از 2 اوت به بازار عرضه کردهاند، تا 2 اوت 2027 موظف به انطباق با این قوانین هستند.