عنوان: چالشها و فرصتهای هوش مصنوعی مولد در محیطهای کاری
آخرین تحولات در زمینه هوش مصنوعی مولد (GenAI) نشان میدهد که این فناوری به سرعت به بخشهای مختلف سازمانها نفوذ کرده و عادات کاری جدیدی را ایجاد کرده است. هرچند که این تحولات موجب افزایش بهرهوری در محیطهای کاری شده، اما همچنین ما را با چالشهای امنیتی جدی روبرو کردهاند. در این میان، دادههای حساس شرکتها به طور غیرمستقیم یا عمدی به سیستمهای عمومی هوش مصنوعی راه پیدا کرده و گاهی اوقات به یک معضل برای رهبران IT و امنیت سایبری تبدیل میشود.
مثال بارز این موضوع، حادثهای است که در مارس 2023 برای یک تولیدکننده بزرگ الکترونیک رخ داد؛ جایی که گزارش شده بود کارکنان بهطور ناخواسته اطلاعات محرمانه شامل کدهای منبع محصولات را در ChatGPT وارد کردهاند. برنامههای هوش مصنوعی مولد، به ویژه مدلهای زبانی بزرگ، به گونهای طراحی شدهاند که از تعاملات یاد بگیرند و هیچ شرکتی تمایل ندارد که دادههای اختصاصی خود را برای آموزش این ابزارها مورد استفاده قرار دهد. در نتیجه، بسیاری از سازمانها به رویکردی پیشگیرانه روی آورده و دسترسی به ابزارهای هوش مصنوعی مولد را مسدود کردهاند. اما این اقدام نهتنها تأثیری نداشته، بلکه رفتارهای پرریسکی را به شیوهای پنهانتر سوق داده و به پدیدهای به نام “هوش مصنوعی سایهای” منجر شده است.
کارکنان برای دور زدن این محدودیتها از دستگاههای شخصی استفاده میکنند، دادهها را به حسابهای خصوصی خود ارسال میکنند یا از طریق اسکرینشاتها اطلاعات را به خارج از سیستمهای تحت نظارت آپلود میکنند. این وضعیت باعث میشود که رهبران IT و امنیت دیگر اطلاعاتی از رویهها و رفتارهای انجام شده نداشته باشند و درManage کردن ریسکهای امنیت دادهها دچار چالش شوند. در عوض، این محدودیتها نوآوری و دستاوردهای بهرهوری را مختل میکند.
برای کاهش مؤثر ریسکهای ناشی از استفاده کارمندان از هوش مصنوعی، نیازمند یک رویکرد چندوجهی هستیم که بر روی دیدهبانی، حاکمیت و توانمندسازی کارکنان متمرکز باشد. نخستین گام به دست آوردن یک تصویر کامل از نحوه استفاده از ابزارهای هوش مصنوعی در سرتاسر سازمان است. با داشتن این اطلاعات، رهبران IT میتوانند الگوهای رفتار کارکنان را شناسایی کرده و اقداماتی مانند شناسایی تلاشها برای ارسال دادههای حساس را انجام دهند.
توسعه سیاستهای متناسب با نیازهای سازمان گام بعدی مهم است. سازمانها باید از ایجاد ممنوعیتهای عمومی پرهیز کرده و بهجای آن، سیاستها را بر مبنای کنترلهای آگاه از متن ایجاد کنند. برای استفاده از ابزارهای هوش مصنوعی عمومی، میتوان از تکنیکهای جداسازی مرورگر بهره برد که به کارمندان اجازه میدهد تا بدون توانایی بارگذاری برخی از دادههای شرکتی، از این برنامهها استفاده کنند. راهکار دیگر، هدایت کارکنان به سمت پلتفرمهای هوش مصنوعی تایید شده و سازمانی است که قابلیتهای مقایسهپذیری را ارائه میدهند.
در نهایت، آموزش کارکنان در خصوص ریسکهای ذاتی هوش مصنوعی و سیاستهای موجود برای کاهش این ریسکها بسیار حائز اهمیت است. آموزشها باید بهطور عملی راهنمایی کنند که چه کارهایی میتوانند با ایمنی انجام شوند و چه اقداماتی میتواند خطرناک باشد. افزایش آگاهی و مسئولیتپذیری در کنار حفاظتهای تکنولوژیک، استراتژی دفاعی کاملی را شکل میدهد.
هوش مصنوعی مولد به شکل بنیادی روند کار کارکنان و عملکرد سازمانها را تغییر داده و فرصتهای تحولآفرینی را به همراه دارد. بنابراین، پاسخ درست به این چالشها، نه تنها در انکار این تکنولوژی، بلکه در پذیرش مسئولانه آن نهفته است. سازمانهایی که بر روی دیدهبانی و ایجاد سیاستهای مبتنی بر حاکمیت تمرکز میکنند و کارکنان خود را آموزش میدهند، میتوانند تعادلی را بین نوآوری و حفاظت از دادههای حساس ایجاد کنند. هدف باید ایجاد محیطی باشد که امنیت و بهرهوری بهطور همزمان وجود داشته باشند و این organizations که به این تعادل دست یابند، خود را در صدر یک چشمانداز دیجیتالی در حال تحول قرار میدهند.
بهواسطه کاهش ریسکهای هوش مصنوعی سایهای و توانمندسازی پذیرش ایمن و مؤثر هوش مصنوعی، شرکتها میتوانند GenAI را به یک فرصت تبدیل کرده و موفقیت خود را در آینده تضمین کنند.