پیشنهاد پروتکلی جدید برای تعامل هوش مصنوعی بر پایه اخلاق و هویت

در دنیای فزاینده هوش مصنوعی، نیاز به ایجاد استانداردهای بین‌المللی برای تعاملات میان‌سیستمی هوش‌های مصنوعی بیش از پیش احساس می‌شود. گروهی از محققان دانشگاه کارنگی ملون، پروتکل جدیدی به نام «ترکیب لایه‌ای برای عامل‌های دانشمند» یا LOKA را معرفی کردند که به منظور حاکمیت بر هویت، پاسخگویی و اخلاق در تعاملات هوش‌های مصنوعی طراحی شده است. این پروتکل می‌تواند در کنار استانداردهای پیشنهادی دیگر مانند پروتکل Agent2Agent (A2A) متعلق به گوگل و پروتکل Model Context (MCP) از شرکت آنتروپیک قرار گیرد.

در یک مقاله، محققان اظهار داشتند که افزایش حضور عامل‌های هوش مصنوعی اهمیت حاکمیت بر آن‌ها را نمایان می‌سازد. آن‌ها بیان کرده‌اند: «با گسترش حضور این عامل‌ها، نیاز به یک چارچوب استاندارد برای مدیریت تعاملات آن‌ها به شدت احساس می‌شود.» در حال حاضر، بسیاری از عامل‌های هوش مصنوعی در سیستم‌های مجزا و بدون پروتکل مشترک برای ارتباط، استدلال‌های اخلاقی و رعایت مقررات قانونی فعالیت می‌کنند، که این موضوع باعث ایجاد خطرات قابل توجهی از جمله مشکلات تعامل‌پذیری و ناهم‌راستایی اخلاقی می‌شود.

برای مقابله با این چالش‌ها، LOKA به عنوان یک پروژه متن باز معرفی شد که به عامل‌ها اجازه می‌دهد هویت خود را اثبات کنند، پیام‌های معنایی غنی و دارای نشانه‌های اخلاقی تبادل کنند، و مسئولیت‌پذیری و حاکمیت اخلاقی را در فرایند تصمیم‌گیری خود برقرار کنند. LOKA بر اساس آنچه محققان «لایه هویت جهانی عامل» می‌نامند، طراحی شده است، که به عامل‌ها هویت منحصربه‌فرد و قابل تاییدی می‌بخشد.

RAJESH RANJAN، یکی از محققان، در مصاحبه‌ای با رسانه‌ها اظهار داشت: «ما LOKA را به عنوان یک معماری بنیادی و فراخوانی برای بازنگری عناصر اصلی – هویت، نیت، اعتماد و توافق اخلاقی – که باید پایه‌گذار تعاملات عامل‌ها باشد، تصور می‌کنیم. با گسترش دامنه عامل‌های هوش مصنوعی، ارزیابی زیرساخت‌های موجود در زمینه ارائه این انتقال به طور مسئولانه بسیار حیاتی است.»

پروتکل LOKA به شکل یک لایه‌ی ساختار یافته عمل می‌کند. لایه اول به هویت عامل می‌پردازد و شامل یک شماره شناسایی غیرمتمرکز است که به کاربران و عامل‌های دیگر این امکان را می‌دهد که هویت عامل را تأیید کنند. لایه بعدی، لایه ارتباطی است که در آن عامل دیگری را از نیت و وظیفه‌ای که باید انجام دهد مطلع می‌کند. پس از آن، لایه اخلاق و لایه امنیت قرار دارند. لایه اخلاقی LOKA رفتار عامل‌ها را تعریف می‌کند و از یک چارچوب تصمیم‌گیری اخلاقی منعطف و قوی بهره می‌برد که به عامل‌ها اجازه می‌دهد با توجه به زمینه‌ای که در آن فعالیت دارند، به استانداردهای اخلاقی متفاوتی سازگار شوند.

همچنین، لایه امنیتی از رمزنگاری مقاوم در برابر کمیت بهره می‌برد. محققان تأکید کردند که LOKA به دلیل فراهم آوردن اطلاعات حیاتی برای ارتباط مؤثر میان عامل‌ها و عمل به صورت مستقل در میان سیستم‌های مختلف، متمایز است. LOKA می‌تواند به سازمان‌ها کمک کند تا اطمینان حاصل کنند که عامل‌هایی که در جهان عرضه می‌کنند، به طور ایمن عمل می‌کنند و روش‌های قابل پیگیری برای درک تصمیم‌گیری‌های آن‌ها فراهم می‌آورد.

RAJESH RANJAN اضافه کرد: «چشم‌انداز ما روشن ساختن سؤالات کلیدی است که اغلب در هیاهوی گسترش عامل‌های هوش مصنوعی نادیده گرفته می‌شود: چگونه می‌توانیم اکوسیستم‌هایی ایجاد کنیم که در آن عامل‌ها قابل اعتماد، مسئول و به‌طور اخلاقی در میان سیستم‌های مختلف متعامل باشند؟» LOKA در برابر پروتکل‌های دیگر که در حال ظهور هستند، باید رقابت کند. پروتکل‌هایی مانند MCP و A2A به دلیل حمایت سازمان‌های معتبر و راه‌حل‌های فنی که ارائه می‌دهند، مخاطبان زیادی جذب کرده‌اند.

پروژه LOKA به صورت مستقل عمل می‌کند، اما RANJAN گفت که بازخوردهای «بسیار تشویق‌کننده و هیجان‌انگیز» از سایر محققان و مؤسسات برای گسترش پروژه تحقیقاتی LOKA دریافت کرده‌اند. در کل، این نوآوری می‌تواند گام مؤثری در راستای مدیریت و بهبود تعاملات هوش مصنوعی باشد و به ایجاد یک سیستم اخلاقی و کارآمد در این حوزه کمک کند.

مشاور صوتی آنلاین

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا