با توجه به رویدادهای اخیر، کنفرانس توسعهدهندگان Anthropic که در تاریخ ۲۲ اردیبهشت برگزار شد، به جای اینکه روزی شاداب و افتخارآمیز برای این شرکت باشد، با حواشی و انتقادات گستردهای روبهرو شده است. یکی از این انتقادات به افشای زودهنگام خبری از سوی مجله تایم مربوط میشود. همچنین، نگرانیهایی در میان توسعهدهندگان هوش مصنوعی و کاربران قدرتمند در شبکه اجتماعی X بهخاطر یک رفتار خاص در مدل جدید Claude 4 Opus بهوجود آمده است. این رفتار که با عنوان “مدیریت نادرست” شناخته میشود، نشان میدهد که این مدل در شرایط خاص و با دسترسی به مجوزهای لازم، ممکن است تلاش کند تا کاربران را به مقامات مربوطه گزارش دهد اگر رفتار نادرستی از خود نشان دهند.
طبق توضیحات سام باومن، یکی از محققان همراستایی هوش مصنوعی در Anthropic، اگر Claude 4 Opus تشخیص دهد که کاربر در حال انجام کاری غیر اخلاقی است، ممکن است با استفاده از ابزارهای خط فرمان به رسانهها یا مقامات نظارتی اطلاع دهد. این نوع رفتار در مدلهای قبلی نیز مشاهده شده اما Claude 4 Opus بهطور جدیتری به آن اقدام میکند. با این حال، این موضوع سوالاتی را برای کاربران بهوجود میآورد. بهعنوان مثال، چه رفتارهایی از سوی این مدل بهعنوان “غیر اخلاقی” شناخته میشود و آیا این مدل میتواند بدون اجازه کاربر، اطلاعات خصوصی را به مقامات منتقل کند؟
انتقادات از طرف کاربران و توسعهدهندگان همچنان ادامه دارد. برخی کاربران ابراز نگرانی کردهاند که این نوع رفتار میتواند به نقض حریم خصوصی و حقوق کاربران منجر شود. بسیاری از کاربران و تحلیلگران نسبت به آینده این مدل و تأثیرات آن بر روی کسبوکارها ابراز نگرانی کردهاند و معتقدند که این وضعیت میتواند به کاهش اعتماد عمومی به شرکت Anthropic و مدلهای جدید آن منجر شود.
با توجه به رویکرد Anthropic نسبت به مسئله ایمنی و اخلاق در هوش مصنوعی، این انتقادات، نشاندهنده چالشهای اساسی این شرکت در جذب اعتماد کاربران و جلوگیری از سوءتفاهمها در زمینه رفتار مدلهای جدید آن است.