پلتفرم اجتماعی ایکس (X) در حال آزمایش ویژگی جدیدی است که به رباتهای گفتگوی هوش مصنوعی این امکان را میدهد تا یادداشتهای اجتماعی (Community Notes) را تولید کنند. این ویژگی که در دوران توییتر به وجود آمده و با مالکیت ایلان ماسک گسترش یافته، به کاربران اجازه میدهد تا به عنوان بخشی از برنامه تأیید حقایق، نظراتی را اضافه کنند که به پستهای خاصی زمینهسازی میکند. این نظرات پس از بررسی توسط کاربران دیگر به پستها متصل خواهند شد.
به عنوان مثال، یک یادداشت اجتماعی ممکن است روی پست یک ویدیوی تولید شده توسط هوش مصنوعی که منشأ مصنوعی آن چندان واضح نیست، یا به عنوان توضیحی برای یک پست گمراهکننده از یک سیاستمدار ظاهر شود. این یادداشتها زمانی عمومی میشوند که در میان گروههایی که در ارزیابیهای قبلی اختلاف نظر داشتهاند، توافق حاصل شود.
یادداشتهای اجتماعی بر روی ایکس به قدری موفق بودهاند که الهامبخش متا، تیکتاک و یوتیوب برای پیگیری ابتکارات مشابه شدهاند. متا بهطور کامل برنامههای بررسی حقایق شخص ثالث خود را حذف کرده و به جای آن به کارگیری این نیروی انسانی بهعنوان منبعی کمهزینه روی آورده است. با این حال، هنوز مشخص نیست که استفاده از رباتهای چت هوش مصنوعی به عنوان بررسیکنندگان حقایق میتواند مفید یا مضر باشد.
این یادداشتهای هوش مصنوعی میتوانند با استفاده از ابزارهای هوش مصنوعی دیگر یا از طریق API به ایکس متصل شوند. هر یادداشتی که توسط یک هوش مصنوعی ارسال شود، به همان صورت که یک انسان ارسال کرده، مورد بررسی قرار خواهد گرفت تا دقت آن مورد تأیید قرار گیرد. با این حال، نگرانیهایی در مورد استفاده از هوش مصنوعی در این زمینه وجود دارد، بهویژه با توجه به اینکه این سیستمها ممکن است مطالبی را که واقعیت ندارند، تولید کنند.
مطالعهای که اخیراً توسط محققان فعال در پروژه یادداشتهای اجتماعی ایکس منتشر شده، توصیه میکند که انسانها و مدلهای زبان بزرگ (LLMs) بهطور همزمان فعالیت کنند. بازخورد انسانی میتواند تولید یادداشتهای هوش مصنوعی را از طریق یادگیری تقویتی بهبود بخشد و ارزیابهای انسانی باید بهعنوان آخرین مقیاس قبل از انتشار یادداشتها عمل کنند. “هدف این نیست که یک دستیار هوش مصنوعی ایجاد کنیم که به کاربران بگوید چه فکری بکنند، بلکه ایجاد یک اکوسیستم است که به انسانها امکان تفکر انتقادی و درک بهتر از جهان را میدهد”، در این تحقیق آمده است.
اگرچه نظارت انسانی به کار میرود، اما هنوز خطر وابستگی بیش از حد به هوش مصنوعی وجود دارد، به ویژه از آنجا که کاربران قادر خواهند بود مدلهای زبان از شرکتهای ثالث را در نظر بگیرند. به عنوان مثال، چتجیپیتی شرکت OpenAI به تازگی با مشکلاتی روبرو شده که مدل آن به نحو افراطی به کاربران تمایل نشان میدهد. اگر یک مدل زبان “کمک به دیگران” را بر انجام دقیق بررسی حقایق اولویت دهد، نظرات تولید شده توسط هوش مصنوعی ممکن است بهشدت نادرست باشند.
همچنین نگرانیهایی وجود دارد که ارزیابهای انسانی ممکن است با حجم زیاد نظرات تولید شده توسط هوش مصنوعی مواجه شوند، که ممکن است انگیزه آنها را برای انجام مناسب این کار داوطلبانه کاهش دهد. کاربران نباید انتظار داشته باشند که به زودی یادداشتهای اجتماعی تولید شده توسط هوش مصنوعی را مشاهده کنند؛ زیرا ایکس برنامه دارد که این مشارکتهای هوش مصنوعی را برای چند هفته آزمایش کند و در صورت موفقیت، آنها را بهطور گستردهتر به کار گیرد.