پیشنهاد پروتکلی جدید برای تعامل هوش مصنوعی بر پایه اخلاق و هویت
در دنیای فزاینده هوش مصنوعی، نیاز به ایجاد استانداردهای بینالمللی برای تعاملات میانسیستمی هوشهای مصنوعی بیش از پیش احساس میشود. گروهی از محققان دانشگاه کارنگی ملون، پروتکل جدیدی به نام «ترکیب لایهای برای عاملهای دانشمند» یا LOKA را معرفی کردند که به منظور حاکمیت بر هویت، پاسخگویی و اخلاق در تعاملات هوشهای مصنوعی طراحی شده است. این پروتکل میتواند در کنار استانداردهای پیشنهادی دیگر مانند پروتکل Agent2Agent (A2A) متعلق به گوگل و پروتکل Model Context (MCP) از شرکت آنتروپیک قرار گیرد.
در یک مقاله، محققان اظهار داشتند که افزایش حضور عاملهای هوش مصنوعی اهمیت حاکمیت بر آنها را نمایان میسازد. آنها بیان کردهاند: «با گسترش حضور این عاملها، نیاز به یک چارچوب استاندارد برای مدیریت تعاملات آنها به شدت احساس میشود.» در حال حاضر، بسیاری از عاملهای هوش مصنوعی در سیستمهای مجزا و بدون پروتکل مشترک برای ارتباط، استدلالهای اخلاقی و رعایت مقررات قانونی فعالیت میکنند، که این موضوع باعث ایجاد خطرات قابل توجهی از جمله مشکلات تعاملپذیری و ناهمراستایی اخلاقی میشود.
برای مقابله با این چالشها، LOKA به عنوان یک پروژه متن باز معرفی شد که به عاملها اجازه میدهد هویت خود را اثبات کنند، پیامهای معنایی غنی و دارای نشانههای اخلاقی تبادل کنند، و مسئولیتپذیری و حاکمیت اخلاقی را در فرایند تصمیمگیری خود برقرار کنند. LOKA بر اساس آنچه محققان «لایه هویت جهانی عامل» مینامند، طراحی شده است، که به عاملها هویت منحصربهفرد و قابل تاییدی میبخشد.
RAJESH RANJAN، یکی از محققان، در مصاحبهای با رسانهها اظهار داشت: «ما LOKA را به عنوان یک معماری بنیادی و فراخوانی برای بازنگری عناصر اصلی – هویت، نیت، اعتماد و توافق اخلاقی – که باید پایهگذار تعاملات عاملها باشد، تصور میکنیم. با گسترش دامنه عاملهای هوش مصنوعی، ارزیابی زیرساختهای موجود در زمینه ارائه این انتقال به طور مسئولانه بسیار حیاتی است.»
پروتکل LOKA به شکل یک لایهی ساختار یافته عمل میکند. لایه اول به هویت عامل میپردازد و شامل یک شماره شناسایی غیرمتمرکز است که به کاربران و عاملهای دیگر این امکان را میدهد که هویت عامل را تأیید کنند. لایه بعدی، لایه ارتباطی است که در آن عامل دیگری را از نیت و وظیفهای که باید انجام دهد مطلع میکند. پس از آن، لایه اخلاق و لایه امنیت قرار دارند. لایه اخلاقی LOKA رفتار عاملها را تعریف میکند و از یک چارچوب تصمیمگیری اخلاقی منعطف و قوی بهره میبرد که به عاملها اجازه میدهد با توجه به زمینهای که در آن فعالیت دارند، به استانداردهای اخلاقی متفاوتی سازگار شوند.
همچنین، لایه امنیتی از رمزنگاری مقاوم در برابر کمیت بهره میبرد. محققان تأکید کردند که LOKA به دلیل فراهم آوردن اطلاعات حیاتی برای ارتباط مؤثر میان عاملها و عمل به صورت مستقل در میان سیستمهای مختلف، متمایز است. LOKA میتواند به سازمانها کمک کند تا اطمینان حاصل کنند که عاملهایی که در جهان عرضه میکنند، به طور ایمن عمل میکنند و روشهای قابل پیگیری برای درک تصمیمگیریهای آنها فراهم میآورد.
RAJESH RANJAN اضافه کرد: «چشمانداز ما روشن ساختن سؤالات کلیدی است که اغلب در هیاهوی گسترش عاملهای هوش مصنوعی نادیده گرفته میشود: چگونه میتوانیم اکوسیستمهایی ایجاد کنیم که در آن عاملها قابل اعتماد، مسئول و بهطور اخلاقی در میان سیستمهای مختلف متعامل باشند؟» LOKA در برابر پروتکلهای دیگر که در حال ظهور هستند، باید رقابت کند. پروتکلهایی مانند MCP و A2A به دلیل حمایت سازمانهای معتبر و راهحلهای فنی که ارائه میدهند، مخاطبان زیادی جذب کردهاند.
پروژه LOKA به صورت مستقل عمل میکند، اما RANJAN گفت که بازخوردهای «بسیار تشویقکننده و هیجانانگیز» از سایر محققان و مؤسسات برای گسترش پروژه تحقیقاتی LOKA دریافت کردهاند. در کل، این نوآوری میتواند گام مؤثری در راستای مدیریت و بهبود تعاملات هوش مصنوعی باشد و به ایجاد یک سیستم اخلاقی و کارآمد در این حوزه کمک کند.