ربات‌های وب‌خزنده هوش مصنوعی به‌عنوان “سوسک‌های اینترنت” شناخته می‌شوند؛ این دیدگاه بسیاری از توسعه‌دهندگان نرم‌افزار است. برخی از آن‌ها به روش‌های خلاقانه و بعضاً طنزآمیز به مقابله با این ربات‌ها روی آورده‌اند. در حالی که هر وب‌سایتی ممکن است مورد هدف رفتار نامطلوب خزنده‌ها قرار گیرد و حتی گاهی باعث اختلال در سایت شود، توسعه‌دهندگان منبع‌باز بیش از بقیه تحت تأثیر قرار می‌گیرند. نیکولو ونراندی، توسعه‌دهنده محیط دسکتاپ لینوکس معروف به پلما و مالک وبلاگ لیبرنیوز، می‌گوید: سایت‌های میزبانی پروژه‌های منبع‌باز (FOSS) به دلیل ماهیتشان زیرساخت‌های خود را به‌صورت عمومی به اشتراک می‌گذارند و به علاوه، منابع کمتری نسبت به محصولات تجاری دارند.

مشکل اصلی این است که بسیاری از ربات‌های هوش مصنوعی پروتکل استثنای ربات‌ها (robot.txt) را نادیده می‌گیرند؛ ابزاری که جهت راهنمایی ربات‌ها برای خزیدن یا نخزیدن در سایت‌ها ایجاد شده است. در یک پست بلاگی در ژانویه، توسعه‌دهنده منبع‌باز Xe Iaso اعلام کرد که چگونه ربات AmazonBot به‌طور مداوم به یک سایت سرور Git حمله کرد و باعث ایجاد اختلال‌های DDoS شد. سرورهای Git پروژه‌های FOSS را برای دانلود و یا مشارکت در آن‌ها میزبانی می‌کنند. این ربات، فایل robot.txt Iaso را نادیده گرفت، پشت دیگر آدرس‌های IP پنهان شد و خود را به‌عنوان کاربران دیگر جا زد. Iaso اظهار داشت: “مسدود کردن ربات‌های خزنده هوش مصنوعی بیهوده است زیرا آن‌ها دروغ می‌گویند، شناسه کاربری خود را تغییر می‌دهند، از IP‌های مسکونی به‌عنوان پروکسی استفاده می‌کنند و موارد دیگر.”

Iaso با استفاده از هوشمندی خود به مقابله پرداخت و ابزاری به نام Anubis ایجاد کرد. Anubis یک پروکسی معکوس با چک کردن اثبات کار است که قبل از دریافت درخواست‌ها توسط سرور Git، آن را بررسی می‌کند. این ابزار ربات‌ها را مسدود می‌کند اما مرورگرهای انسانی را مجاز می‌شمارد. جالب اینکه، Anubis نام خدای مصری است که مردگان را به قضاوت می‌برد. اگر یک درخواست وب همان گونه که باید بشری باشد، تصویری جذاب از انیمه موفقیت را نشان می‌دهد. اگر ربات باشد، درخواست رد می‌شود.

پروژه با نام خنده‌دار Anubis چنان در جامعه FOSS محبوبیت پیدا کرده که به باد می‌پیچید. Iaso آن را در ۱۹ مارس در GitHub منتشر کرد و تنها در چند روز، ۲۰۰۰ ستاره، ۲۰ مشارکت‌کننده و ۳۹ فورک جمع‌آوری کرد. محبوبیت فوری Anubis نشان می‌دهد که مشکل Iaso منحصر به فرد نیست. ونراندی داستان‌های مشابه دیگری نیز دارد؛ او به تک‌کرانچ می‌گوید که می‌داند پروژه‌های متعددی با همین مسائل روبرو هستند.

فراتر از اندازه‌گیری روح درخواست‌کننده‌های وب، برخی دیگر از توسعه‌دهندگان معتقدند که انتقام بهترین دفاع است. چند روز پیش، یک کاربر در Hacker News پیشنهاد داد که صفحات ممنوعه robot.txt را با مقالات نامربوط و بی‌ارزش پر کنند. هدف این است که خزنده‌ها در تله‌هایی با ارزش منفی گیر بیفتند. به عنوان مثال، یک ابزار ناشناخته توسط “آرون” به نام Nepenthes طراحی شده که خزنده‌ها را در یک هزارتوی محتوای جعلی به دام می‌اندازد.

کلودفلر، به عنوان یک شرکت تجاری بزرگ که ابزارهای متعددی برای مقابله با خزنده‌ها فراهم می‌کند، اخیراً ابزاری مشابه به نام “هزارتوی هوش مصنوعی” ارائه داده است. این ابزار به منظور “کاهش سرعت، گیج کردن و تلف کردن منابع خزنده‌های هوش مصنوعی و ربات‌هایی که دستورات ‘عدم خزیدن’ را رعایت نمی‌کنند” طراحی شده است.

اگرچه Anubis همچنان به عنوان یک راه‌حل کارآمد شناخته می‌شود، DeVault از SourceHut از یک اصلاح مستقیم و فراگیر تقاضا دارد: “لطفاً از تأیید LLMها، یا تولیدکننده‌های تصویر هوش مصنوعی یا GitHub Copilot یا هر چیز دیگری دست بردارید. خواهش می‌کنم آن‌ها را متوقف کنید، درباره آن‌ها صحبت نکنید، چیز جدیدی نسازید، فقط متوقف شوید.”

با وجود این که احتمال تحقق این درخواست تقریباً صفر است، توسعه‌دهندگان، به ویژه در زمینه FOSS، با ذکاوت و کمی طنز به مبارزه با ربات‌های خزنده هوش مصنوعی می‌پردازند.

تبدیل صوت به متن با هوش مصنوعی

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا