مدیرعامل OpenAI، سم آلتمن، در یک رویداد علمی هوش مصنوعی که اوایل ماه جاری توسط شرکت سرمایه‌گذاری Sequoia برگزار شد، چشم‌انداز قابل توجهی برای آینده ChatGPT ارائه داد. وقتی یکی از حاضران از آلتمن پرسید که چگونه می‌توان ChatGPT را شخصی‌سازی کرد، او به این نکته اشاره کرد که به دنبال این است که مدل یاد بگیرد و همه جزئیات زندگی فرد را به ثبت برساند. آلتمن به این ایده اشاره کرد که این مدل باید شامل “یک مدل استدلالی بسیار کوچک با یک تریلیون توکن متن” باشد که تمام زندگی افراد را در خود جای دهد.

او ادامه داد: “این مدل می‌تواند بر اساس کل زمینه شما استدلال کند و این کار را به‌طور مؤثر انجام دهد. هر گفتگویی که در زندگی‌تان داشته‌اید، هر کتابی که خوانده‌اید، هر ایمیلی که بررسی کرده‌اید و هر چیزی که دیده‌اید، در آنجا موجود است و به تمام داده‌های شما از منابع دیگر متصل است. و زندگی شما به طور مداوم به این زمینه افزوده می‌شود.” آلتمن افزود: “شرکت شما نیز همین کار را برای تمام داده‌های شرکت خود انجام می‌دهد.”

به نظر می‌رسد آلتمن بر اساس داده‌ها به این نتیجه رسیده است که این آینده طبیعی ChatGPT است. او در ادامه گفت، وقتی از او خواسته شد که روش‌های جالبی که جوانان از ChatGPT استفاده می‌کنند را معرفی کند، اظهار کرد: “دانشجویان از آن به عنوان یک سیستم‌عامل استفاده می‌کنند.” آنها فایل‌ها را بارگذاری کرده و منابع داده را متصل می‌کنند و سپس از “پرسش‌های پیچیده” علیه آن داده‌ها استفاده می‌کنند. با گزینه‌های حافظه‌ی ChatGPT – که می‌تواند از گفتگوهای قبلی و حقایق به یاد سپرده شده به عنوان زمینه استفاده کند – آلتمن گفت که یکی از روندهایی که مشاهده کرده این است که جوانان “واقعاً تصمیمات زندگی‌شان را بدون مشورت با ChatGPT نمی‌گیرند.”

او تصریح کرد: “یک ساده‌سازی بزرگ این است که: افراد مسن‌تر از ChatGPT به عنوان یک جانشین Google استفاده می‌کنند، در حالی که افراد در دهه ۲۰ و ۳۰ زندگی‌شان آن را به عنوان مشاور زندگی‌شان استفاده می‌کنند.” دیدن این که چگونه ChatGPT می‌تواند به یک سیستم هوش مصنوعی همه‌دان تبدیل شود، چندان دور از ذهن نیست.

تصور کنید که هوش مصنوعی شما به طور خودکار زمان تعویض روغن خودرو را برنامه‌ریزی می‌کند و به شما یادآوری می‌کند، سفر لازم برای یک مراسم عروسی خارج از شهر را برنامه‌ریزی کرده و هدیه‌ای از فهرست را سفارش می‌دهد، یا جلد بعدی سری کتاب‌هایی که سال‌هاست می‌خوانید را پیش‌خرید می‌کند. اما بخش نگران‌کننده کجاست؟ چقدر باید به یک شرکت بزرگ فناوری برای دانستن همه چیز درباره زندگی‌مان اعتماد کنیم؟ این شرکت‌ها همواره به روش‌های مدل رفتار نمی‌کنند. به عنوان مثال، گوگل که با شعار “بد نباشید” آغاز به کار کرد، در یک دعاوی حقوقی در ایالات متحده به رفتارهای ضد رقابتی و انحصاری متهم شد.

همچنین، چت‌بات‌ها می‌توانند به روش‌های سیاسی تحریک‌آمیز پاسخ دهند. گزارش‌ها نشان می‌دهد که چت‌بات‌های چینی با الزامات سانسور کشورشان سازگار هستند. به تازگی، چت‌بات Grok متعلق به xAI در پاسخ به سؤالات کاملاً غیرمرتبط، به‌طور تصادفی درباره “نسل‌کشی سفیدپوستان” در آفریقای جنوبی بحث می‌کرد، که بسیاری این رفتار را به دستکاری عمدی موتور پاسخ‌دهی آن به دستور بنیان‌گذار آفریقای جنوبی‌اش، ایلان ماسک، نسبت دادند.

ماه گذشته، ChatGPT به قدری با توافق رفتار می‌کرد که به‌طور غیرقابل باوری تحسین کننده‌ی تصمیمات و ایده‌های مشکل‌ساز و حتی خطرناک بود. آلتمن به سرعت اعلام کرد که تیم او مشکل مربوط به تغییراتی که این رفتار را ایجاد کرد، برطرف کرده است. با وجود این، حتی بهترین و قابل اعتمادترین مدل‌ها نیز گاهی اوقات به طور کامل اشتباه می‌کنند.

بنابراین، داشتن یک دستیار هوش مصنوعی همه‌دان می‌تواند به روش‌هایی به زندگی ما کمک کند که هنوز تنها شروع به مشاهده آنها کرده‌ایم. با این حال، با توجه به تاریخچه‌ای که فناوری‌های بزرگ دارند، این وضعیت می‌تواند برای استفاده‌های نادرست نیز آماده باشد.

راهنمای هوش مصنوعی

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا