چین با استفاده از هوش مصنوعی، ماشین سانسور پیشرفته خود را تقویت می‌کند

به تازگی اطلاعات محرمانه‌ای فاش شده است که نشان می‌دهد دولت چین در حال استفاده از یک مدل زبان پیشرفته (LLM) برای سانسور گسترده محتواهای حساس در فضای آنلاین است. این سیستم هوش مصنوعی، با بهره‌گیری از ۱۳۳ هزار نمونه داده، توانایی تشخیص و مسدودسازی خودکار مطالبی را دارد که توسط حکومت چین حساس یا خطرناک تلقی می‌شوند. این اقدام، نشان‌دهنده تلاش‌های گسترده چین برای کنترل افکار عمومی و جلوگیری از انتشار دیدگاه‌های مخالف است.

سیستمی برای سانسور کارآمدتر

بر اساس گزارش پایگاه خبری TechCrunch، این مدل هوش مصنوعی که مبتنی بر یادگیری عمیق طراحی شده است، بسیار فراتر از سانسور سنتی عمل می‌کند. در حالی که روش‌های پیشین سانسور در چین عمدتاً بر فیلترینگ واژه‌های کلیدی و بررسی‌های انسانی متکی بودند، استفاده از مدل‌های زبان بزرگ باعث افزایش بازدهی و دقت در شناسایی محتواهای حساس شده است. حتی محتوای ظریف یا استعاری، مانند استفاده از ضرب‌المثل‌ها یا تمثیل‌های سیاسی، اکنون به راحتی توسط این هوش مصنوعی قابل شناسایی است.

شیائو چیانگ، پژوهشگر دانشگاه برکلی و متخصص در حوزه سانسور چین، در مصاحبه‌ای با TechCrunch گفته است: «این پیشرفت، شواهد آشکار از تلاش‌های دولت چین برای استفاده از هوش مصنوعی در سرکوب اطلاعات است. این سیستم می‌تواند به طور چشمگیری کارایی مکانیزم‌های کنترلی دولت را ارتقا دهد.»

اهداف حساس: از فساد مالی تا مسائل نظامی

بررسی نمونه داده‌های این مدل نشان می‌دهد که هدف اصلی، مطالب مرتبط با مسائل سیاسی، اجتماعی و نظامی است. از جمله موارد اولویت‌دار می‌توان به گزارش فساد مالی، مشکلات ایمنی غذایی، اعتراضات کارگری، و اعتراضات زیست‌محیطی اشاره کرد. علاوه بر این، مسائلی همچون سیاست‌های تایوان، طنز سیاسی و حتی اخبار مرتبط با تحرکات نظامی و تجهیزات جنگی نیز به‌طور ویژه تحت نظارت قرار دارند.

نقشی کلیدی در تقویت مدل‌های هوش مصنوعی چین

این سیستم جدید همچنین به نظر می‌رسد که به طور غیرمستقیم در توسعه مدل‌های هوش مصنوعی چینی نقش ایفا می‌کند. با تغذیه داده‌های گسترده به مدل‌های زبان بزرگ، دولت چین می‌تواند این فناوری را نه تنها برای سانسور، بلکه برای بهبود توانایی‌های هوش مصنوعی خود مورد استفاده قرار دهد. این موضوع می‌تواند زمینه‌ساز کاربردهای آتی این فناوری در حوزه‌های مختلف باشد.

داده‌های افشا شده: پشت‌پرده‌ها و اهداف

داده‌های استفاده شده توسط این سیستم در پایگاه داده‌ای ناامن در یک سرور متعلق به شرکت بایدو کشف شده‌اند. این پایگاه داده توسط پژوهشگری به نام NetAskari فاش شده و نمونه‌هایی از آن در اختیار TechCrunch قرار گرفته است. با این حال، هنوز مشخص نیست که چه نهادی دقیقاً مسئول ایجاد این مدل و مجموعه داده‌ها بوده است. یک تحلیل اولیه نشان می‌دهد که اطلاعات موجود در این پایگاه داده به تازگی به‌روز شده و جدیدترین ورودی‌ها به دسامبر ۲۰۲۴ بازمی‌گردند.

ابعاد اخلاقی استفاده از هوش مصنوعی در دولت‌های اقتدارگرا

این نمونه، یکی دیگر از شواهد در حال پیدایش درباره استفاده دولت‌های اقتدارگرا از فناوری‌های هوش مصنوعی برای کنترل و سرکوب اطلاعات است. ماه گذشته نیز شرکت OpenAI گزارشی منتشر کرد که نشان داد یک نهاد ناشناس، احتمالاً از داخل چین، از مدل‌های هوش مصنوعی برای نظارت بر شبکه‌های اجتماعی و شناسایی مطالب ضدحکومتی استفاده کرده است.

چالش‌های پیش رو

با گسترش سریع کاربردهای هوش مصنوعی در زمینه‌های مختلف، اهمیت بررسی مسائل اخلاقی و قانونی این فناوری بیش از پیش آشکار شده است. سانسور مبتنی بر هوش مصنوعی می‌تواند آزادی بیان را به شدت محدود کند و ابزارهای پیشرفته‌ای به دولت‌ها بدهد تا اطلاعات را دستکاری و کنترل کنند.

برای اطلاعات بیشتر و ارائه نظرات خود درباره این موضوع، می‌توانید از طریق سیگنال یا سایر روش‌های ارتباطی امن با خبرنگاران TechCrunch تماس بگیرید.

این پرسش اساسی مطرح است: آیا استفاده از هوش مصنوعی تنها باید به حوزه‌های علمی و تحولی محدود شود، یا اینکه باید نظارت‌های جدی‌تری بر سوءاستفاده دولت‌ها از این فناوری اعمال شود؟

چت با هوش مصنوعی

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا