دعوت به کانال تلگرام
کانال بینا ویرا مرجع تخصصی اخبار هوش مصنوعی و تصاویر تولید شده با AI
عضویت در کانال

دلوایت قرارداد بزرگ هوش مصنوعی با انتروپیک را اعلام کرد؛ هم‌زمان بازپرداخت برای گزارشی که خطاهای تولیدشده توسط AI داشت

شرکت خدمات حرفه‌ای و مشاوره‌ای دلوایت روزی را که اعلام کرد در قالب توافقی گسترده از پلتفرم هوش مصنوعی انتروپیک (Claude) در سطح سازمانی استفاده خواهد کرد، هم‌زمان مجبور به بازپرداخت بخشی از مبلغ یک قرارداد دولتی شد؛ قراردادی که گزارشی تحویلی از آن حاوی اشتباهاتی ناشی از تولید محتوای نادرست توسط هوش مصنوعی (hallucinations) بود. این هم‌زمانی، نشان‌دهنده تعارض آشکار بین بلندپروازی‌های دیجیتال سازی و چالش‌های عملیاتی در به‌کارگیری فناوری‌های مولد هوش مصنوعی است.

خلاصه اتفاقات
– دلوایت اعلام کرده که برنامه دارد چت‌بات Claude از انتروپیک را برای نزدیک به 500,000 کارمند خود در سطح جهانی راه‌اندازی کند و همراه با انتروپیک محصولات و قابلیت‌هایی در زمینه رعایت انطباق (compliance) برای صنایع تنظیم‌شده مانند خدمات مالی، سلامت و خدمات عمومی توسعه دهد.
– در همان روز، وزارت اشتغال و روابط کاری استرالیا اعلام کرد دلوایت باید مبلغ نهایی قرارداد خود بابت یک «بازبینی مستقل اطمینان» به ارزش A$439,000 را بازپرداخت کند؛ گزارشی که ابتدا منتشر شده و بعدا به دلیل ارجاعات و ارجاعات غیرواقعی و سایر خطاها اصلاح شد.
– رسانه‌هایی همچون Financial Times و Australian Financial Review به انتشار جزئیات خطاهای گزارش و اصلاحات بعدی پرداختند. دلوایت متعهد به بازپرداخت قسط نهایی قرارداد شده است.

دلیل اهمیت: وقتی «هالوسینیشن» خطرساز می‌شود
خطاهای تولیدی هوش مصنوعی — معروف به hallucinations — زمانی رخ می‌دهند که مدل‌های زبانی اطلاعات نادرست، استنادهای ساختگی یا نتیجه‌گیری‌های اشتباه تولید کنند. در حوزه‌هایی که حساسیت بالایی دارند (دولت، خدمات مالی، بهداشت)، چنین اشتباهاتی می‌تواند پیامدهای قانونی، مالی و حیثیتی جدی به دنبال داشته باشد. تجربه دلوایت نمونه‌ای روشن از این ریسک است: هم‌زمان‌سازی تبلیغ سرمایه‌گذاری در یک پلتفرم AI و مواجهه با گزارش خطادار، تصویر روشنی از نیاز به کنترل‌های قوی‌تر فراهم می‌کند.

آنچه دلوایت و انتروپیک اعلام کرده‌اند
طبق بیانیه‌های رسمی و پست بلاگ انتروپیک:
– توافق هدف قرار دادن استقرار سازمانی گسترده و ایجاد محصولات انطباقی برای صنایع تحت مقررات است.
– دلوایت قصد دارد «شخصیت‌های عاملی» (AI agent personas) متفاوتی برای واحدهای مختلف مانند حسابداری و توسعه نرم‌افزار طراحی کند تا کاربری تاریخی و نیازهای تخصصی هر بخش را پوشش دهد.
– مقادیر مالی قرارداد منتشر نشده است، اما رسانه‌ها از این توافق به‌عنوان بزرگ‌ترین استقرار سازمانی انتروپیک یاد کرده‌اند.

زمینه گسترده‌تر و نمونه‌های مشابه
این مورد تنها نمونه استفاده از محتوای تولیدشده نادرست توسط AI نیست. نمونه‌هایی مانند فهرست کتاب‌های تابستانی تولیدشده توسط هوش مصنوعی در روزنامه Chicago Sun-Times که شامل عناوین ساختگی بود و مشکلات دقت در ابزارهای داخلی آمازون (Q Business) و حتی گزارشی علیه انتروپیک در مورد ارجاعات نادرست، همه نشان می‌دهند که تعادل بین بهره‌برداری از توانمندی‌های مدل‌های زبانی و تضمین صحت خروجی‌ها هنوز به‌طور کامل برقرار نشده است.

اقدامات پیشنهادی برای سازمان‌ها
برای کاهش ریسک و افزایش اثربخشی استقرار هوش مصنوعی در سطح سازمانی پیشنهاد می‌شود:
– حاکمیت و چارچوب‌های مسئولیت‌پذیری AI را تدوین و پیاده‌سازی کنند.
– لایه‌های تأیید انسانی و فرآیندهای اعتبارسنجی داده‌ای را در گردش‌کاری قرار دهند.
– اثبات مبدأ (provenance) و قابلیت ردیابی خروجی‌ها را افزایش دهند.
– آزمایش‌های میدانی و سناریوهای فساد اطلاعاتی (stress tests) پیش از استقرار کامل انجام شود.
– آموزش کارکنان و تیم‌های فنی در زمینه مدیریت ریسک‌های مدل‌های مولد را تقویت کنند.

جمع‌بندی
قرارداد دلوایت با انتروپیک و هم‌زمانی آن با بازپرداخت برای گزارشی حاوی اشتباهات تولیدشده توسط هوش مصنوعی، یک یادآوری قوی است: شرکت‌ها می‌توانند با سرعت بالایی به سمت استفاده از فناوری‌های نوین گام بردارند، اما بدون چارچوب‌های کنترلی و نظارتی مناسب، احتمال بروز خطاهای پرهزینه و آسیب به شهرت وجود دارد. موفقیت در استقرار سازمانی هوش مصنوعی نیازمند ترکیب نوآوری با مدیریت ریسک، شفافیت و مسئولیت‌پذیری است.

تبدیل گفتار به نوشتار فارسی

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا