انتشار مقالهای جامع از DeepMind درباره ایمنی هوش مصنوعی عمومی (AGI)
شرکت DeepMind، یکی از پیشتازان عرصه هوش مصنوعی، اخیراً مقالهای جامع پیرامون رویکرد ایمنی برای هوش مصنوعی عمومی (AGI) منتشر کرده است. هوش مصنوعی عمومی به طور کلی به سیستمی تعریف میشود که قادر به انجام تمامی وظایف انسانی است، اما این موضوع همچنان در میان محققان هوش مصنوعی بحثبرانگیز است. برخی منتقدان آن را صرفاً یک رؤیای دور از دسترس میدانند، در حالی که برخی دیگر از جمله آزمایشگاههای برجستهای نظیر Anthropic هشدار میدهند که این فناوری در آستانه ظهور است و ممکن است پیامدهای مخربی در صورت عدم اعمال تمهیدات ایمنی مناسب در پی داشته باشد.
پیشبینی DeepMind از ظهور AGI تا پایان دهه جاری
در این مقاله ۱۴۵ صفحهای که توسط شین لگ، یکی از بنیانگذاران DeepMind، نیز تألیف شده است، پیشبینی میشود که AGI تا سال ۲۰۳۰ ممکن است به واقعیت تبدیل شود. نویسندگان این مقاله اشاره میکنند که احتمال دارد این فناوری به خسارتهای شدید منجر شود و به خطراتی از نوع “ریسکهای وجودی” اشاره میکنند که میتواند به نابودی دائمی بشریت بیانجامد. همچنین، این مقاله به تعریف “هوش مصنوعی استثنایی” میپردازد که مطابق آن سیستمی با توانایی عملکردی معادل ۹۹ درصد افراد بالغ ماهر در طیف گستردهای از وظایف غیر فیزیکی، از جمله یادگیری مهارتهای جدید، شناخته میشود.
مقایسه رویکرد DeepMind با سایر آزمایشگاههای هوش مصنوعی
این مقاله رویکرد DeepMind در زمینه کاهش ریسکهای مرتبط با AGI را در مقایسه با Anthropic و OpenAI بررسی میکند. طبق این مقاله، Anthropic کمتر بر آموزش مقاوم، پایش و امنیت تمرکز دارد، در حالی که OpenAI بیش از حد به “اتوماسیون تحقیق ایمنی هوش مصنوعی” که به آن تحقیق همراستایی (alignment research) گفته میشود، اعتماد دارد. با این حال، نویسندگان مقاله نسبت به ظهور سامانههای فوقهوشمند (superintelligence) که میتوانند بهتر از انسانها وظایف را انجام دهند، ابراز تردید کردهاند. در عین حال، آنها به احتمال توسعه سیستمهایی اشاره میکنند که قادر به “بهبود خودکار هوش مصنوعی” از طریق تحقیقات مبتنی بر هوش مصنوعی باشند؛ فرایندی که میتوانند منجر به تولید سیستمهای پیچیدهتر شود، اما همچنین با خطراتی جدی همراه خواهد بود.
راهحلهایی برای ایمنی AGI
در سطح کلان، این مقاله توسعه تکنیکهایی برای جلوگیری از دسترسی عوامل مخرب به AGI، بهبود درک عملکرد سیستمهای هوش مصنوعی، و تقویت محیطهایی که این سیستمها در آن فعالیت میکنند را پیشنهاد میدهد. با این حال، نویسندگان اذعان میکنند که بسیاری از این تکنیکها هنوز در مراحل اولیه هستند و مسائل تحقیقاتی حلنشدهای دارند. این مقاله تأکید میکند که برای توسعه مسئولانه AGI، ضروری است که توسعهدهندگان پیشرفته هوش مصنوعی به طور فعالانه برای کاهش خطرات شدید برنامهریزی کنند.
دیدگاههای مخالف درباره AGI و ایمنی آن
در حالی که مقاله DeepMind درباره پیامدهای AGI هشدار میدهد، برخی کارشناسان با دیدگاههای بیانشده در این مقاله موافق نیستند. هایدی خلاف، دانشمند ارشد هوش مصنوعی در موسسه AI Now، بر این باور است که مفهوم AGI بیش از حد نامشخص است که بتوان آن را به طور علمی ارزیابی کرد. متیو گوزدیال، استاد دانشگاه آلبرتا، نیز معتقد است که فرایند “بهبود خودکار هوش مصنوعی” در شرایط فعلی غیرواقعی است و شواهدی از عملی بودن آن وجود ندارد.
همچنین، ساندرا واچر، محقق حوزه فناوری و مقررات در دانشگاه آکسفورد، نگرانیهای دیگری را مطرح میکند. او هشدار میدهد که با گسترش خروجیهای تولیدی هوش مصنوعی و جایگزینی دادههای معتبر با اطلاعات نادرست، مدلهای هوش مصنوعی ممکن است از دادههایی یاد بگیرند که خود مملو از خطا و ابهامند. این موضوع میتواند خطر انتشار اطلاعات نادرست را افزایش دهد و کاربران را به اشتباه بیندازد.
جمعبندی
با وجود جامعیت مقاله DeepMind، مباحث پیرامون واقعیتپذیری AGI و اقدامات ایمنی ضروری همچنان باقی است. با توجه به طبیعت تحولآفرین این فناوری، کارشناسان و توسعهدهندگان باید برای مقابله با چالشهای احتمالی در جهت ایمنی و استفاده مسئولانه از AGI تلاش کنند.