دلوایت قرارداد بزرگ هوش مصنوعی با انتروپیک را اعلام کرد؛ همزمان بازپرداخت برای گزارشی که خطاهای تولیدشده توسط AI داشت
شرکت خدمات حرفهای و مشاورهای دلوایت روزی را که اعلام کرد در قالب توافقی گسترده از پلتفرم هوش مصنوعی انتروپیک (Claude) در سطح سازمانی استفاده خواهد کرد، همزمان مجبور به بازپرداخت بخشی از مبلغ یک قرارداد دولتی شد؛ قراردادی که گزارشی تحویلی از آن حاوی اشتباهاتی ناشی از تولید محتوای نادرست توسط هوش مصنوعی (hallucinations) بود. این همزمانی، نشاندهنده تعارض آشکار بین بلندپروازیهای دیجیتال سازی و چالشهای عملیاتی در بهکارگیری فناوریهای مولد هوش مصنوعی است.
خلاصه اتفاقات
– دلوایت اعلام کرده که برنامه دارد چتبات Claude از انتروپیک را برای نزدیک به 500,000 کارمند خود در سطح جهانی راهاندازی کند و همراه با انتروپیک محصولات و قابلیتهایی در زمینه رعایت انطباق (compliance) برای صنایع تنظیمشده مانند خدمات مالی، سلامت و خدمات عمومی توسعه دهد.
– در همان روز، وزارت اشتغال و روابط کاری استرالیا اعلام کرد دلوایت باید مبلغ نهایی قرارداد خود بابت یک «بازبینی مستقل اطمینان» به ارزش A$439,000 را بازپرداخت کند؛ گزارشی که ابتدا منتشر شده و بعدا به دلیل ارجاعات و ارجاعات غیرواقعی و سایر خطاها اصلاح شد.
– رسانههایی همچون Financial Times و Australian Financial Review به انتشار جزئیات خطاهای گزارش و اصلاحات بعدی پرداختند. دلوایت متعهد به بازپرداخت قسط نهایی قرارداد شده است.
دلیل اهمیت: وقتی «هالوسینیشن» خطرساز میشود
خطاهای تولیدی هوش مصنوعی — معروف به hallucinations — زمانی رخ میدهند که مدلهای زبانی اطلاعات نادرست، استنادهای ساختگی یا نتیجهگیریهای اشتباه تولید کنند. در حوزههایی که حساسیت بالایی دارند (دولت، خدمات مالی، بهداشت)، چنین اشتباهاتی میتواند پیامدهای قانونی، مالی و حیثیتی جدی به دنبال داشته باشد. تجربه دلوایت نمونهای روشن از این ریسک است: همزمانسازی تبلیغ سرمایهگذاری در یک پلتفرم AI و مواجهه با گزارش خطادار، تصویر روشنی از نیاز به کنترلهای قویتر فراهم میکند.
آنچه دلوایت و انتروپیک اعلام کردهاند
طبق بیانیههای رسمی و پست بلاگ انتروپیک:
– توافق هدف قرار دادن استقرار سازمانی گسترده و ایجاد محصولات انطباقی برای صنایع تحت مقررات است.
– دلوایت قصد دارد «شخصیتهای عاملی» (AI agent personas) متفاوتی برای واحدهای مختلف مانند حسابداری و توسعه نرمافزار طراحی کند تا کاربری تاریخی و نیازهای تخصصی هر بخش را پوشش دهد.
– مقادیر مالی قرارداد منتشر نشده است، اما رسانهها از این توافق بهعنوان بزرگترین استقرار سازمانی انتروپیک یاد کردهاند.
زمینه گستردهتر و نمونههای مشابه
این مورد تنها نمونه استفاده از محتوای تولیدشده نادرست توسط AI نیست. نمونههایی مانند فهرست کتابهای تابستانی تولیدشده توسط هوش مصنوعی در روزنامه Chicago Sun-Times که شامل عناوین ساختگی بود و مشکلات دقت در ابزارهای داخلی آمازون (Q Business) و حتی گزارشی علیه انتروپیک در مورد ارجاعات نادرست، همه نشان میدهند که تعادل بین بهرهبرداری از توانمندیهای مدلهای زبانی و تضمین صحت خروجیها هنوز بهطور کامل برقرار نشده است.
اقدامات پیشنهادی برای سازمانها
برای کاهش ریسک و افزایش اثربخشی استقرار هوش مصنوعی در سطح سازمانی پیشنهاد میشود:
– حاکمیت و چارچوبهای مسئولیتپذیری AI را تدوین و پیادهسازی کنند.
– لایههای تأیید انسانی و فرآیندهای اعتبارسنجی دادهای را در گردشکاری قرار دهند.
– اثبات مبدأ (provenance) و قابلیت ردیابی خروجیها را افزایش دهند.
– آزمایشهای میدانی و سناریوهای فساد اطلاعاتی (stress tests) پیش از استقرار کامل انجام شود.
– آموزش کارکنان و تیمهای فنی در زمینه مدیریت ریسکهای مدلهای مولد را تقویت کنند.
جمعبندی
قرارداد دلوایت با انتروپیک و همزمانی آن با بازپرداخت برای گزارشی حاوی اشتباهات تولیدشده توسط هوش مصنوعی، یک یادآوری قوی است: شرکتها میتوانند با سرعت بالایی به سمت استفاده از فناوریهای نوین گام بردارند، اما بدون چارچوبهای کنترلی و نظارتی مناسب، احتمال بروز خطاهای پرهزینه و آسیب به شهرت وجود دارد. موفقیت در استقرار سازمانی هوش مصنوعی نیازمند ترکیب نوآوری با مدیریت ریسک، شفافیت و مسئولیتپذیری است.
