چین با استفاده از هوش مصنوعی، ماشین سانسور پیشرفته خود را تقویت میکند
به تازگی اطلاعات محرمانهای فاش شده است که نشان میدهد دولت چین در حال استفاده از یک مدل زبان پیشرفته (LLM) برای سانسور گسترده محتواهای حساس در فضای آنلاین است. این سیستم هوش مصنوعی، با بهرهگیری از ۱۳۳ هزار نمونه داده، توانایی تشخیص و مسدودسازی خودکار مطالبی را دارد که توسط حکومت چین حساس یا خطرناک تلقی میشوند. این اقدام، نشاندهنده تلاشهای گسترده چین برای کنترل افکار عمومی و جلوگیری از انتشار دیدگاههای مخالف است.
سیستمی برای سانسور کارآمدتر
بر اساس گزارش پایگاه خبری TechCrunch، این مدل هوش مصنوعی که مبتنی بر یادگیری عمیق طراحی شده است، بسیار فراتر از سانسور سنتی عمل میکند. در حالی که روشهای پیشین سانسور در چین عمدتاً بر فیلترینگ واژههای کلیدی و بررسیهای انسانی متکی بودند، استفاده از مدلهای زبان بزرگ باعث افزایش بازدهی و دقت در شناسایی محتواهای حساس شده است. حتی محتوای ظریف یا استعاری، مانند استفاده از ضربالمثلها یا تمثیلهای سیاسی، اکنون به راحتی توسط این هوش مصنوعی قابل شناسایی است.
شیائو چیانگ، پژوهشگر دانشگاه برکلی و متخصص در حوزه سانسور چین، در مصاحبهای با TechCrunch گفته است: «این پیشرفت، شواهد آشکار از تلاشهای دولت چین برای استفاده از هوش مصنوعی در سرکوب اطلاعات است. این سیستم میتواند به طور چشمگیری کارایی مکانیزمهای کنترلی دولت را ارتقا دهد.»
اهداف حساس: از فساد مالی تا مسائل نظامی
بررسی نمونه دادههای این مدل نشان میدهد که هدف اصلی، مطالب مرتبط با مسائل سیاسی، اجتماعی و نظامی است. از جمله موارد اولویتدار میتوان به گزارش فساد مالی، مشکلات ایمنی غذایی، اعتراضات کارگری، و اعتراضات زیستمحیطی اشاره کرد. علاوه بر این، مسائلی همچون سیاستهای تایوان، طنز سیاسی و حتی اخبار مرتبط با تحرکات نظامی و تجهیزات جنگی نیز بهطور ویژه تحت نظارت قرار دارند.
نقشی کلیدی در تقویت مدلهای هوش مصنوعی چین
این سیستم جدید همچنین به نظر میرسد که به طور غیرمستقیم در توسعه مدلهای هوش مصنوعی چینی نقش ایفا میکند. با تغذیه دادههای گسترده به مدلهای زبان بزرگ، دولت چین میتواند این فناوری را نه تنها برای سانسور، بلکه برای بهبود تواناییهای هوش مصنوعی خود مورد استفاده قرار دهد. این موضوع میتواند زمینهساز کاربردهای آتی این فناوری در حوزههای مختلف باشد.
دادههای افشا شده: پشتپردهها و اهداف
دادههای استفاده شده توسط این سیستم در پایگاه دادهای ناامن در یک سرور متعلق به شرکت بایدو کشف شدهاند. این پایگاه داده توسط پژوهشگری به نام NetAskari فاش شده و نمونههایی از آن در اختیار TechCrunch قرار گرفته است. با این حال، هنوز مشخص نیست که چه نهادی دقیقاً مسئول ایجاد این مدل و مجموعه دادهها بوده است. یک تحلیل اولیه نشان میدهد که اطلاعات موجود در این پایگاه داده به تازگی بهروز شده و جدیدترین ورودیها به دسامبر ۲۰۲۴ بازمیگردند.
ابعاد اخلاقی استفاده از هوش مصنوعی در دولتهای اقتدارگرا
این نمونه، یکی دیگر از شواهد در حال پیدایش درباره استفاده دولتهای اقتدارگرا از فناوریهای هوش مصنوعی برای کنترل و سرکوب اطلاعات است. ماه گذشته نیز شرکت OpenAI گزارشی منتشر کرد که نشان داد یک نهاد ناشناس، احتمالاً از داخل چین، از مدلهای هوش مصنوعی برای نظارت بر شبکههای اجتماعی و شناسایی مطالب ضدحکومتی استفاده کرده است.
چالشهای پیش رو
با گسترش سریع کاربردهای هوش مصنوعی در زمینههای مختلف، اهمیت بررسی مسائل اخلاقی و قانونی این فناوری بیش از پیش آشکار شده است. سانسور مبتنی بر هوش مصنوعی میتواند آزادی بیان را به شدت محدود کند و ابزارهای پیشرفتهای به دولتها بدهد تا اطلاعات را دستکاری و کنترل کنند.
برای اطلاعات بیشتر و ارائه نظرات خود درباره این موضوع، میتوانید از طریق سیگنال یا سایر روشهای ارتباطی امن با خبرنگاران TechCrunch تماس بگیرید.
این پرسش اساسی مطرح است: آیا استفاده از هوش مصنوعی تنها باید به حوزههای علمی و تحولی محدود شود، یا اینکه باید نظارتهای جدیتری بر سوءاستفاده دولتها از این فناوری اعمال شود؟