دانشمندان از شرکتهای معروف هوش مصنوعی از جمله OpenAI، Google DeepMind، Anthropic و Meta به منظور هشدار مشترکی درباره ایمنی هوش مصنوعی همکاری کردهاند. بیش از 40 پژوهشگر از این شرکتهای رقیب، در یک مقاله علمی که امروز منتشر کردند، نگرانی خود را درباره این موضوع ابراز کرده و تأکید کردند که ممکن است فرصت نظارت بر فرآیندهای تفکر هوش مصنوعی به زودی از دست برود.
این همکاری غیرمعمول در حالی صورت میگیرد که سیستمهای هوش مصنوعی قابلیتهای جدیدی برای «تفکر به زبان انسان» پیدا کردهاند. این امر فرصتی را برای نگاهی به درون فرآیندهای تصمیمگیری این سیستمها ایجاد میکند و میتواند به شناسایی نیتهای مضر قبل از اینکه به اقدامات خطرناک منجر شوند، کمک کند. با این حال، پژوهشگران نسبت به شکنندگی این شفافیت هشدار داده و بیان کردند که با پیشرفتهای فناوری ممکن است این قابلیت از بین برود.
این مقاله مورد تأیید شخصیتهای برجستهای در این حوزه قرار گرفته است، از جمله جفری هینتون، برنده جایزه نوبل و معروف به «پدر علم هوش مصنوعی»، ایلیا ساتسکیور، یکی از بنیانگذاران OpenAI، و ساموئل باومن از Anthropic. پژوهشگران معتقدند که مدلهای تفکر مدرن این امکان را فراهم میآورند که بتوانیم زنجیرههای تفکر آنها را برای شناسایی نیتهای نامطلوب زیر نظر بگیریم. با این حال، آنها تأکید میکنند که این قابلیت نظارتی ممکن است به دلیل تحولات فناوری تغییر کند و از بین برود.
محققان در این مقاله به هشدار درباره این موضوع پرداختهاند که سیستمهای هوش مصنوعی که به زبان انسان «تفکر» میکنند، فرصتی منحصر به فرد برای ایمنی هوش مصنوعی فراهم میآورند. آنها همچنین از چالشهای احتمالی و نیاز به تحقیقات بیشتر برای شناسایی زمانهای قابل اعتماد بودن این نظارت به عنوان یک ابزار ایمنی صحبت میکنند.
این مقاله فراخوانی برای همگرایی در صنعت هوش مصنوعی برای حفظ و تقویت قابلیتهای نظارتی است. پژوهشگران پیشنهاد میکنند که توسعهدهندگان هوش مصنوعی باید ارزیابیهای استانداردی برای اندازهگیری شفافیت مدلهای خود ایجاد کنند و این ارزیابیها را در تصمیمات مربوط به آموزش و پیادهسازی لحاظ کنند.
این همکاری بین شرکتهای رقیب، نشاندهنده جدیت صنعت در خصوص ایمنی هوش مصنوعی است. پژوهشگران تأکید میکنند که باید به طور جدی به حفظ شفافیت در فرآیندهای تفکر هوش مصنوعی پرداخته شود تا مشکلات آنها پیش از بروز رفتارهای مضر شناسایی و حل شوند. این مقاله میتواند آثار عمیقی بر روندهای آینده سیاستگذاری در زمینه هوش مصنوعی و نظارت بر توسعه این فناوریها داشته باشد.