انتشار مقاله‌ای جامع از DeepMind درباره ایمنی هوش مصنوعی عمومی (AGI)

شرکت DeepMind، یکی از پیشتازان عرصه هوش مصنوعی، اخیراً مقاله‌ای جامع پیرامون رویکرد ایمنی برای هوش مصنوعی عمومی (AGI) منتشر کرده است. هوش مصنوعی عمومی به طور کلی به سیستمی تعریف می‌شود که قادر به انجام تمامی وظایف انسانی است، اما این موضوع همچنان در میان محققان هوش مصنوعی بحث‌برانگیز است. برخی منتقدان آن را صرفاً یک رؤیای دور از دسترس می‌دانند، در حالی که برخی دیگر از جمله آزمایشگاه‌های برجسته‌ای نظیر Anthropic هشدار می‌دهند که این فناوری در آستانه ظهور است و ممکن است پیامدهای مخربی در صورت عدم اعمال تمهیدات ایمنی مناسب در پی داشته باشد.

پیش‌بینی DeepMind از ظهور AGI تا پایان دهه جاری

در این مقاله ۱۴۵ صفحه‌ای که توسط شین لگ، یکی از بنیان‌گذاران DeepMind، نیز تألیف شده است، پیش‌بینی می‌شود که AGI تا سال ۲۰۳۰ ممکن است به واقعیت تبدیل شود. نویسندگان این مقاله اشاره می‌کنند که احتمال دارد این فناوری به خسارت‌های شدید منجر شود و به خطراتی از نوع “ریسک‌های وجودی” اشاره می‌کنند که می‌تواند به نابودی دائمی بشریت بیانجامد. همچنین، این مقاله به تعریف “هوش مصنوعی استثنایی” می‌پردازد که مطابق آن سیستمی با توانایی عملکردی معادل ۹۹ درصد افراد بالغ ماهر در طیف گسترده‌ای از وظایف غیر فیزیکی، از جمله یادگیری مهارت‌های جدید، شناخته می‌شود.

مقایسه رویکرد DeepMind با سایر آزمایشگاه‌های هوش مصنوعی

این مقاله رویکرد DeepMind در زمینه کاهش ریسک‌های مرتبط با AGI را در مقایسه با Anthropic و OpenAI بررسی می‌کند. طبق این مقاله، Anthropic کمتر بر آموزش مقاوم، پایش و امنیت تمرکز دارد، در حالی که OpenAI بیش از حد به “اتوماسیون تحقیق ایمنی هوش مصنوعی” که به آن تحقیق هم‌راستایی (alignment research) گفته می‌شود، اعتماد دارد. با این حال، نویسندگان مقاله نسبت به ظهور سامانه‌های فوق‌هوشمند (superintelligence) که می‌توانند بهتر از انسان‌ها وظایف را انجام دهند، ابراز تردید کرده‌اند. در عین حال، آنها به احتمال توسعه سیستم‌هایی اشاره می‌کنند که قادر به “بهبود خودکار هوش مصنوعی” از طریق تحقیقات مبتنی بر هوش مصنوعی باشند؛ فرایندی که می‌توانند منجر به تولید سیستم‌های پیچیده‌تر شود، اما همچنین با خطراتی جدی همراه خواهد بود.

راه‌حل‌هایی برای ایمنی AGI

در سطح کلان، این مقاله توسعه تکنیک‌هایی برای جلوگیری از دسترسی عوامل مخرب به AGI، بهبود درک عملکرد سیستم‌های هوش مصنوعی، و تقویت محیط‌هایی که این سیستم‌ها در آن فعالیت می‌کنند را پیشنهاد می‌دهد. با این حال، نویسندگان اذعان می‌کنند که بسیاری از این تکنیک‌ها هنوز در مراحل اولیه هستند و مسائل تحقیقاتی حل‌نشده‌ای دارند. این مقاله تأکید می‌کند که برای توسعه مسئولانه AGI، ضروری است که توسعه‌دهندگان پیشرفته هوش مصنوعی به طور فعالانه برای کاهش خطرات شدید برنامه‌ریزی کنند.

دیدگاه‌های مخالف درباره AGI و ایمنی آن

در حالی که مقاله DeepMind درباره پیامدهای AGI هشدار می‌دهد، برخی کارشناسان با دیدگاه‌های بیان‌شده در این مقاله موافق نیستند. هایدی خلاف، دانشمند ارشد هوش مصنوعی در موسسه AI Now، بر این باور است که مفهوم AGI بیش از حد نامشخص است که بتوان آن را به طور علمی ارزیابی کرد. متیو گوزدیال، استاد دانشگاه آلبرتا، نیز معتقد است که فرایند “بهبود خودکار هوش مصنوعی” در شرایط فعلی غیرواقعی است و شواهدی از عملی بودن آن وجود ندارد.

همچنین، ساندرا واچر، محقق حوزه فناوری و مقررات در دانشگاه آکسفورد، نگرانی‌های دیگری را مطرح می‌کند. او هشدار می‌دهد که با گسترش خروجی‌های تولیدی هوش مصنوعی و جایگزینی داده‌های معتبر با اطلاعات نادرست، مدل‌های هوش مصنوعی ممکن است از داده‌هایی یاد بگیرند که خود مملو از خطا و ابهامند. این موضوع می‌تواند خطر انتشار اطلاعات نادرست را افزایش دهد و کاربران را به‌ اشتباه بیندازد.

جمع‌بندی

با وجود جامعیت مقاله DeepMind، مباحث پیرامون واقعیت‌پذیری AGI و اقدامات ایمنی ضروری همچنان باقی است. با توجه به طبیعت تحول‌آفرین این فناوری، کارشناسان و توسعه‌دهندگان باید برای مقابله با چالش‌های احتمالی در جهت ایمنی و استفاده مسئولانه از AGI تلاش کنند.

تولید تصویر با هوش مصنوعی

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا