با توجه به رویدادهای اخیر، کنفرانس توسعه‌دهندگان Anthropic که در تاریخ ۲۲ اردیبهشت برگزار شد، به جای اینکه روزی شاداب و افتخارآمیز برای این شرکت باشد، با حواشی و انتقادات گسترده‌ای روبه‌رو شده است. یکی از این انتقادات به افشای زودهنگام خبری از سوی مجله تایم مربوط می‌شود. همچنین، نگرانی‌هایی در میان توسعه‌دهندگان هوش مصنوعی و کاربران قدرت‌مند در شبکه اجتماعی X به‌خاطر یک رفتار خاص در مدل جدید Claude 4 Opus به‌وجود آمده است. این رفتار که با عنوان “مدیریت نادرست” شناخته می‌شود، نشان می‌دهد که این مدل در شرایط خاص و با دسترسی به مجوزهای لازم، ممکن است تلاش کند تا کاربران را به مقامات مربوطه گزارش دهد اگر رفتار نادرستی از خود نشان دهند.

طبق توضیحات سام باومن، یکی از محققان هم‌راستایی هوش مصنوعی در Anthropic، اگر Claude 4 Opus تشخیص دهد که کاربر در حال انجام کاری غیر اخلاقی است، ممکن است با استفاده از ابزارهای خط فرمان به رسانه‌ها یا مقامات نظارتی اطلاع دهد. این نوع رفتار در مدل‌های قبلی نیز مشاهده شده اما Claude 4 Opus به‌طور جدی‌تری به آن اقدام می‌کند. با این حال، این موضوع سوالاتی را برای کاربران به‌وجود می‌آورد. به‌عنوان مثال، چه رفتارهایی از سوی این مدل به‌عنوان “غیر اخلاقی” شناخته می‌شود و آیا این مدل می‌تواند بدون اجازه کاربر، اطلاعات خصوصی را به مقامات منتقل کند؟

انتقادات از طرف کاربران و توسعه‌دهندگان همچنان ادامه دارد. برخی کاربران ابراز نگرانی کرده‌اند که این نوع رفتار می‌تواند به نقض حریم خصوصی و حقوق کاربران منجر شود. بسیاری از کاربران و تحلیل‌گران نسبت به آینده این مدل و تأثیرات آن بر روی کسب‌وکارها ابراز نگرانی کرده‌اند و معتقدند که این وضعیت می‌تواند به کاهش اعتماد عمومی به شرکت Anthropic و مدل‌های جدید آن منجر شود.

با توجه به رویکرد Anthropic نسبت به مسئله ایمنی و اخلاق در هوش مصنوعی، این انتقادات، نشان‌دهنده چالش‌های اساسی این شرکت در جذب اعتماد کاربران و جلوگیری از سوءتفاهم‌ها در زمینه رفتار مدل‌های جدید آن است.

راهنمای هوش مصنوعی

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا