به گزارش سایت بینا ویرا و بر اساس اسناد داخلی که به نقل از NPR منتشر شده است، یک سیستم هوش مصنوعی در آینده نزدیک مسئول ارزیابی خطرات احتمالی و ریسک‌های حریم خصوصی تا 90% از به‌روزرسانی‌های انجام شده به برنامه‌های متا، نظیر اینستاگرام و واتس‌اپ، خواهد بود. بر اساس توافق‌نامه‌ای که در سال 2012 میان فیس‌بوک (اکنون متا) و کمیسیون تجارت فدرال آمریکا امضا شده، این شرکت موظف به انجام ارزیابی‌های حریم خصوصی برای محصولات خود است تا خطرات ناشی از هر به‌روزرسانی را بررسی کند. تا به امروز، این ارزیابی‌ها عمدتاً توسط ارزیابان انسانی انجام می‌شدند.

طبق اطلاعات منتشر شده، در سیستم جدید متا، تیم‌های محصول باید یک پرسش‌نامه در مورد کار خود پر کنند و سپس معمولاً یک “تصمیم فوری” دریافت خواهند کرد که شامل شناسایی ریسک‌های ناشی از هوش مصنوعی و الزامات لازم برای به‌روزرسانی یا ویژگی قبل از عرضه آن می‌باشد. این رویکرد محوریت هوش مصنوعی به متا این امکان را می‌دهد که محصولات خود را سریع‌تر به‌روزرسانی کند؛ اما یک مقام اجرایی سابق به NPR گفت که این مسأله همچنین “ریسک‌های بالاتری” ایجاد می‌کند، چرا که “نتایج منفی تغییرات محصول کمتر احتمال دارد قبل از ایجاد مشکلات در جامعه پیشگیری شود.”

در بیانیه‌ای، متا به‌عنوان تأییدکننده تغییرات در سیستم بررسی خود، اعلام کرد که تنها “تصمیمات با ریسک پایین” به‌صورت خودکار پردازش خواهند شد و در عین حال، “تخصص انسانی” همچنان برای بررسی “موضوعات جدید و پیچیده” مورد استفاده قرار خواهد گرفت. این تغییرات در رویکرد متا می‌تواند نشان‌دهنده تحولی در فرآیندهای ارزیابی حریم خصوصی در عصر دیجیتال باشد که لازم است با دقت بیشتری مورد توجه قرار گیرد.

ایجاد تصاویر خلاقانه با هوش مصنوعی

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا