پلتفرم اجتماعی ایکس (X) در حال آزمایش ویژگی جدیدی است که به ربات‌های گفتگوی هوش مصنوعی این امکان را می‌دهد تا یادداشت‌های اجتماعی (Community Notes) را تولید کنند. این ویژگی که در دوران توییتر به وجود آمده و با مالکیت ایلان ماسک گسترش یافته، به کاربران اجازه می‌دهد تا به عنوان بخشی از برنامه تأیید حقایق، نظراتی را اضافه کنند که به پست‌های خاصی زمینه‌سازی می‌کند. این نظرات پس از بررسی توسط کاربران دیگر به پست‌ها متصل خواهند شد.

به عنوان مثال، یک یادداشت اجتماعی ممکن است روی پست یک ویدیوی تولید شده توسط هوش مصنوعی که منشأ مصنوعی آن چندان واضح نیست، یا به عنوان توضیحی برای یک پست گمراه‌کننده از یک سیاستمدار ظاهر شود. این یادداشت‌ها زمانی عمومی می‌شوند که در میان گروه‌هایی که در ارزیابی‌های قبلی اختلاف نظر داشته‌اند، توافق حاصل شود.

یادداشت‌های اجتماعی بر روی ایکس به قدری موفق بوده‌اند که الهام‌بخش متا، تیک‌تاک و یوتیوب برای پیگیری ابتکارات مشابه شده‌اند. متا به‌طور کامل برنامه‌های بررسی حقایق شخص ثالث خود را حذف کرده و به جای آن به کارگیری این نیروی انسانی به‌عنوان منبعی کم‌هزینه روی آورده است. با این حال، هنوز مشخص نیست که استفاده از ربات‌های چت هوش مصنوعی به عنوان بررسی‌کنندگان حقایق می‌تواند مفید یا مضر باشد.

این یادداشت‌های هوش مصنوعی می‌توانند با استفاده از ابزارهای هوش مصنوعی دیگر یا از طریق API به ایکس متصل شوند. هر یادداشتی که توسط یک هوش مصنوعی ارسال شود، به همان صورت که یک انسان ارسال کرده، مورد بررسی قرار خواهد گرفت تا دقت آن مورد تأیید قرار گیرد. با این حال، نگرانی‌هایی در مورد استفاده از هوش مصنوعی در این زمینه وجود دارد، به‌ویژه با توجه به اینکه این سیستم‌ها ممکن است مطالبی را که واقعیت ندارند، تولید کنند.

مطالعه‌ای که اخیراً توسط محققان فعال در پروژه یادداشت‌های اجتماعی ایکس منتشر شده، توصیه می‌کند که انسان‌ها و مدل‌های زبان بزرگ (LLMs) به‌طور همزمان فعالیت کنند. بازخورد انسانی می‌تواند تولید یادداشت‌های هوش مصنوعی را از طریق یادگیری تقویتی بهبود بخشد و ارزیاب‌های انسانی باید به‌عنوان آخرین مقیاس قبل از انتشار یادداشت‌ها عمل کنند. “هدف این نیست که یک دستیار هوش مصنوعی ایجاد کنیم که به کاربران بگوید چه فکری بکنند، بلکه ایجاد یک اکوسیستم است که به انسان‌ها امکان تفکر انتقادی و درک بهتر از جهان را می‌دهد”، در این تحقیق آمده است.

اگرچه نظارت انسانی به کار می‌رود، اما هنوز خطر وابستگی بیش از حد به هوش مصنوعی وجود دارد، به ویژه از آنجا که کاربران قادر خواهند بود مدل‌های زبان از شرکت‌های ثالث را در نظر بگیرند. به عنوان مثال، چت‌جی‌پی‌تی شرکت OpenAI به تازگی با مشکلاتی روبرو شده که مدل آن به نحو افراطی به کاربران تمایل نشان می‌دهد. اگر یک مدل زبان “کمک به دیگران” را بر انجام دقیق بررسی حقایق اولویت دهد، نظرات تولید شده توسط هوش مصنوعی ممکن است به‌شدت نادرست باشند.

همچنین نگرانی‌هایی وجود دارد که ارزیاب‌های انسانی ممکن است با حجم زیاد نظرات تولید شده توسط هوش مصنوعی مواجه شوند، که ممکن است انگیزه آن‌ها را برای انجام مناسب این کار داوطلبانه کاهش دهد. کاربران نباید انتظار داشته باشند که به زودی یادداشت‌های اجتماعی تولید شده توسط هوش مصنوعی را مشاهده کنند؛ زیرا ایکس برنامه‌ دارد که این مشارکت‌های هوش مصنوعی را برای چند هفته آزمایش کند و در صورت موفقیت، آن‌ها را به‌طور گسترده‌تر به کار گیرد.

گفتگوی هوشمند آنلاین

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا