افزایش نگرانی‌ها درباره کیفیت گزارش‌های امنیتی ناشی از هوش مصنوعی در صنعت سایبری

در سال‌های اخیر، اصطلاح «هرج و مرج هوش مصنوعی» (AI slop) به طور فزاینده‌ای در دنیای مجازی رایج شده است. این واژه به محتوای کم‌کیفیت نظیر تصاویر، ویدیوها و متون تولیدشده توسط مدل‌های زبانی بزرگ (LLM) اشاره دارد که به سایت‌ها، شبکه‌های اجتماعی و حتی رویدادهای واقعی آسیب می‌زند. به تازگی، این مشکل در حوزه امنیت سایبری نیز به شکل قابل توجهی نمایان شده است.

در یک سال گذشته، فعالان صنعت امنیت سایبری هشدارهایی درباره گزارش‌های باگ بونتی تولیدشده توسط هوش مصنوعی مطرح کرده‌اند. این گزارش‌ها ادعا می‌کنند که حاوی آسیب‌پذیری‌هایی هستند که عملاً وجود ندارند و به طور کلی با استفاده از مدل‌های زبانی بزرگ، اطلاعات نادرستی تولید شده‌اند و در قالب گزارش‌های حرفه‌ای ارائه می‌گردند. ولاد ایونسکو، یکی از بنیان‌گذاران و CTO شرکت RunSybil که در زمینه کاوش آسیب‌پذیری‌های مبتنی بر هوش مصنوعی فعالیت می‌کند، به نشریه TechCrunch گفت: «افراد گزارش‌هایی دریافت می‌کنند که به نظر منطقی و از لحاظ فنی درست می‌آید. اما پس از بررسی دقیق متوجه می‌شوند که آسیب‌پذیری وجود ندارد و فقط تصورات نادرستی بوده است که توسط مدل‌های زبانی بزرگ ساخته شده‌اند.»

ایونسکو به این نکته اشاره کرد که مشکلات ناشی از این موضوع در اینجا نهفته است که مدل‌های زبانی بزرگ به گونه‌ای طراحی شده‌اند که پاسخ‌های مثبت و مفیدی ارائه دهند. «اگر از این مدل‌ها برای یک گزارش درخواست کنید، به شما یک گزارش ارائه می‌دهند. و سپس افراد این گزارش‌ها را به پلتفرم‌های باگ بونتی کپی و پیست می‌کنند و این موضوع منجر به اشباع این پلتفرم‌ها می‌شود.»

تجربه‌های واقعی نشان می‌دهند که این مشکل تا چه اندازه جدی است. هری سینتونن، یکی از پژوهشگران امنیتی، گزارشی مبنی بر دریافت یک گزارش جعلی از پروژه امنیتی متن‌باز Curl ارائه کرد و گفت: «Curl می‌تواند هرج و مرج هوش مصنوعی را از فاصله‌ی زیادی شناسایی کند.»

سایر فعالان این حوزه نیز از این مشکل شکایت می‌کنند. بنجامین پیوفل از Open Collective، که پلتفرمی فناوری برای سازمان‌های غیر انتفاعی است، اعلام کرد که آنها نیز با همین مشکل مواجه‌ هستند و صندوق پستی‌ آنها «پر از زباله‌های هوش مصنوعی» است.

طبق اطلاعات به‌دست‌آمده از TechCrunch، پلتفرم‌های برتر باگ بونتی که به‌عنوان واسطه‌ای بین هکرها و شرکت‌ها عمل می‌کنند، با افزایش چشمگیری در گزارش‌های تولیدشده توسط هوش مصنوعی روبرو شده‌اند. در همین راستا، میشیل پرینس، یکی از بنیان‌گذاران و مدیر ارشد محصول در HackerOne، تاکید کرد که این شرکت با افزایش گزارش‌های نادرست مواجه شده است.

ایونسکو پیش‌بینی می‌کند که یکی از راه‌حل‌های این مشکل، سرمایه‌گذاری در سیستم‌های هوش مصنوعی پیشرفته خواهد بود که قادر به انجام بررسی‌های اولیه و فیلتر کردن گزارش‌ها برای دقت بیشتر هستند. به تازگی، HackerOne سیستم جدیدی به نام Hai Triage را راه‌اندازی کرد که ترکیبی از انسان و هوش مصنوعی را برای بررسی و طبقه‌بندی تهدیدات واقعی به کار می‌گیرد.

با افزایش استفاده از مدل‌های زبانی بزرگ از سوی هکرها و اتکای شرکت‌ها به هوش مصنوعی برای دسته‌بندی گزارش‌ها، آینده‌ی این تعامل و تأثیرات آن بر کیفیت گزارش‌ها همچنان در هاله‌ای از ابهام باقی مانده است.

دستیار صوتی هوش مصنوعی

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا