مدیرعامل OpenAI، سم آلتمن، در یک رویداد علمی هوش مصنوعی که اوایل ماه جاری توسط شرکت سرمایهگذاری Sequoia برگزار شد، چشمانداز قابل توجهی برای آینده ChatGPT ارائه داد. وقتی یکی از حاضران از آلتمن پرسید که چگونه میتوان ChatGPT را شخصیسازی کرد، او به این نکته اشاره کرد که به دنبال این است که مدل یاد بگیرد و همه جزئیات زندگی فرد را به ثبت برساند. آلتمن به این ایده اشاره کرد که این مدل باید شامل “یک مدل استدلالی بسیار کوچک با یک تریلیون توکن متن” باشد که تمام زندگی افراد را در خود جای دهد.
او ادامه داد: “این مدل میتواند بر اساس کل زمینه شما استدلال کند و این کار را بهطور مؤثر انجام دهد. هر گفتگویی که در زندگیتان داشتهاید، هر کتابی که خواندهاید، هر ایمیلی که بررسی کردهاید و هر چیزی که دیدهاید، در آنجا موجود است و به تمام دادههای شما از منابع دیگر متصل است. و زندگی شما به طور مداوم به این زمینه افزوده میشود.” آلتمن افزود: “شرکت شما نیز همین کار را برای تمام دادههای شرکت خود انجام میدهد.”
به نظر میرسد آلتمن بر اساس دادهها به این نتیجه رسیده است که این آینده طبیعی ChatGPT است. او در ادامه گفت، وقتی از او خواسته شد که روشهای جالبی که جوانان از ChatGPT استفاده میکنند را معرفی کند، اظهار کرد: “دانشجویان از آن به عنوان یک سیستمعامل استفاده میکنند.” آنها فایلها را بارگذاری کرده و منابع داده را متصل میکنند و سپس از “پرسشهای پیچیده” علیه آن دادهها استفاده میکنند. با گزینههای حافظهی ChatGPT – که میتواند از گفتگوهای قبلی و حقایق به یاد سپرده شده به عنوان زمینه استفاده کند – آلتمن گفت که یکی از روندهایی که مشاهده کرده این است که جوانان “واقعاً تصمیمات زندگیشان را بدون مشورت با ChatGPT نمیگیرند.”
او تصریح کرد: “یک سادهسازی بزرگ این است که: افراد مسنتر از ChatGPT به عنوان یک جانشین Google استفاده میکنند، در حالی که افراد در دهه ۲۰ و ۳۰ زندگیشان آن را به عنوان مشاور زندگیشان استفاده میکنند.” دیدن این که چگونه ChatGPT میتواند به یک سیستم هوش مصنوعی همهدان تبدیل شود، چندان دور از ذهن نیست.
تصور کنید که هوش مصنوعی شما به طور خودکار زمان تعویض روغن خودرو را برنامهریزی میکند و به شما یادآوری میکند، سفر لازم برای یک مراسم عروسی خارج از شهر را برنامهریزی کرده و هدیهای از فهرست را سفارش میدهد، یا جلد بعدی سری کتابهایی که سالهاست میخوانید را پیشخرید میکند. اما بخش نگرانکننده کجاست؟ چقدر باید به یک شرکت بزرگ فناوری برای دانستن همه چیز درباره زندگیمان اعتماد کنیم؟ این شرکتها همواره به روشهای مدل رفتار نمیکنند. به عنوان مثال، گوگل که با شعار “بد نباشید” آغاز به کار کرد، در یک دعاوی حقوقی در ایالات متحده به رفتارهای ضد رقابتی و انحصاری متهم شد.
همچنین، چتباتها میتوانند به روشهای سیاسی تحریکآمیز پاسخ دهند. گزارشها نشان میدهد که چتباتهای چینی با الزامات سانسور کشورشان سازگار هستند. به تازگی، چتبات Grok متعلق به xAI در پاسخ به سؤالات کاملاً غیرمرتبط، بهطور تصادفی درباره “نسلکشی سفیدپوستان” در آفریقای جنوبی بحث میکرد، که بسیاری این رفتار را به دستکاری عمدی موتور پاسخدهی آن به دستور بنیانگذار آفریقای جنوبیاش، ایلان ماسک، نسبت دادند.
ماه گذشته، ChatGPT به قدری با توافق رفتار میکرد که بهطور غیرقابل باوری تحسین کنندهی تصمیمات و ایدههای مشکلساز و حتی خطرناک بود. آلتمن به سرعت اعلام کرد که تیم او مشکل مربوط به تغییراتی که این رفتار را ایجاد کرد، برطرف کرده است. با وجود این، حتی بهترین و قابل اعتمادترین مدلها نیز گاهی اوقات به طور کامل اشتباه میکنند.
بنابراین، داشتن یک دستیار هوش مصنوعی همهدان میتواند به روشهایی به زندگی ما کمک کند که هنوز تنها شروع به مشاهده آنها کردهایم. با این حال، با توجه به تاریخچهای که فناوریهای بزرگ دارند، این وضعیت میتواند برای استفادههای نادرست نیز آماده باشد.