در یک بررسی جدید از هزینههای واقعی هوش مصنوعی، به ابعاد مخفی امنیت که میتواند منجر به افزایش بودجه و ریسکهای قانونی برای سازمانها شود، پرداخته شده است. در حالی که هوش مصنوعی وعدههای بسیاری برای بهبود عملکرد و افزایش کارایی کسبوکارها به همراه دارد، خطرات ناشی از حملات به لایه استنتاج یا Inference Layer همچنان سازمانها را تهدید میکند. این حملات میتوانند باعث افزایش قابل توجه هزینهها، تهدید به رعایت قوانین و کاهش اعتماد مشتریان شوند و در نهایت، بازگشت سرمایهگذاری (ROI) اجرای هوش مصنوعی را به خطر اندازند.
به رغم پتانسیل تحولساز هوش مصنوعی، واقعیت خشن در حال پیدایش است. مرحله استنتاج، که در آن سرمایهگذاریها به ارزشهای واقعی تجاری تبدیل میشوند، تحت فشار قرار دارد. مدیران امنیت و مدیران مالی، که پروژههای هوش مصنوعی را به دلیل مزایای بالقوه آنها تصویب کردهاند، اکنون با هزینههای پنهانی برای دفاع از این سیستمها مواجه هستند. رقبای تجارتی دریافتهاند که آسیبپذیری در مرحله استنتاج میتواند بیشترین آسیب را به کسبوکارها وارد کند و این موضوع به طور مستقیم بر هزینه کل مالکیت (TCO) تأثیر میگذارد.
طبق گفته کریستیان رودریگز، مدیر فناوری CrowdStrike در آمریکای شمالی، این مرحله به سرعت در حال تبدیل شدن به “ریسکهای درونی جدید” است. بسیاری از رهبران فناوری بر این باورند که شرکتها باید توجه بیشتری به حفاظت از استنتاجها داشته باشند. وینیت آرو را، مدیر فناوری WinWire، هشدار میدهد که این غفلت میتواند منجر به برآورد هزینههای کمتر در زمینههای نظارت مستمر و تجزیه و تحلیل تهدیدات در زمان واقعی شود.
در این زمینه، استفن شرایر، عضو ارشد Telesign، به یک نقطه کور دیگر اشاره میکند: فرض اینکه مدلهای شخص ثالث به طور کامل مورد بررسی قرار گرفته و ایمن هستند. وی تأکید میکند که این مدلها اغلب به دلیل نداشتن ارزیابی مناسب در برابر مدل تهدید خاص سازمانها، میتوانند به تولید خروجیهای خطرناک و غیرقابل انطباق منجر شوند که به اعتبار برند آسیب میزند.
افزایش هزینهها در مرحله استنتاج به وضوح مشهود است. مثلاً خسارتهای ناشی از نفوذ میتواند برای هر حادثه در بخشهای قانونمند به بیش از ۵ میلیون دلار برسد. در همین حال، این نگرانیها با نتایج نظرسنجیهای اخیر نشان میدهد تنها ۳۹ درصد از پاسخدهندگان احساس میکنند که مزایای هوش مصنوعی نسل جدید واضحتر از خطرات آن است.
با افزایش تواناییهای هوش مصنوعی، نیاز به مدلهای امنیتی قویتر و سازگارتر با این پدیده فناوری بیشتر احساس میشود. سازمانها باید اقداماتی مؤثر برای جلوگیری از آسیبپذیریها، حفاظت از دادههای حساس و مدیریت هزینهها انجام دهند. به عنوان مثال، تخصیص بهینه بودجه برای امنیت در مرحله استنتاج باید از پایشهای عملکردی و شبیهسازیهای تهاجمی آغاز شود.
خط راهبردی برای سازمانها، شامل ایجاد سیاستهای شفاف، آموزش کارمندان و استفاده از ابزارهای مدیریت وضعیت امنیت هوش مصنوعی (AI-SPM) برای اطمینان از تأمین امنیت همه داراییهای هوش مصنوعی است. در نهایت، این اقدامات نه تنها به حفاظت از سرمایهگذاریهای هوش مصنوعی بلکه به ایجاد یک سازوکار پایدار برای بهرهوری در آیندهای نزدیک کمک میکند. شورای امنیت اطلاعات سازمانها باید با همکاری مدیران فناوری، فضای امنیتی مؤثری را بنا کنند تا بتوانند هزینههای ناشی از روبهرو شدن با تهدیدات را به حداقل برسانند.