واژهنامه هوش مصنوعی؛ اصطلاحات کلیدی که باید بشناسید
هوش مصنوعی سرعت تغییرات زیادی را در جهان ایجاد کرده و همزمان زبانی فنی و جدید برای شرح این تغییرات پدید آورده است. در این مقاله مختصر و کاربردی، اصطلاحات مهم در حوزه هوش مصنوعی، یادگیری ماشین و مدلهای زبانی بزرگ (LLM) را بهزبان ساده و قابلفهم توضیح میدهیم. این راهنما بهطور مداوم بهروزرسانی میشود تا با تکامل میدان هماهنگ باشد.
هوش عمومی مصنوعی (AGI)
AGI بهطور کلی به سامانهای اطلاق میشود که در بسیاری از وظایف، توانایی برابر یا فراتر از میانگین انسان داشته باشد. تعاریف متفاوت است؛ برخی آن را معادل نیروی کاری انسانی میدانند که قابل استخدام است و بعضی دیگر آن را سامانهای مینامند که در بیشتر کارهای با ارزش اقتصادی از انسان جلو میزند. هنوز میان پژوهشگران توافق کامل وجود ندارد.
عامل هوش مصنوعی (AI agent)
عامل یا agent برنامهای است که بهصورت خودگردان میتواند مجموعهای از کارها را برای شما انجام دهد؛ کاری فراتر از یک چتبات ساده، مثل ثبت هزینهها، رزرو بلیت یا حتی نوشتن و نگهداری کد. بسته به پیادهسازی، یک عامل ممکن است از چند مدل هوش مصنوعی و سرویسهای مختلف استفاده کند تا وظایف چندمرحلهای را تکمیل نماید.
API endpoints (نقاط پایانی API)
نقاط پایانی API را میتوان بهعنوان «دکمههای پشتصحنه» نرمافزار تصور کرد که برنامههای دیگر میتوانند آنها را فشار دهند تا عملیات خاصی انجام شود. توسعهدهندگان از این رابطها برای یکپارچهسازیها استفاده میکنند؛ مثلاً اجازه میدهند یک اپلیکیشن دادهای از اپلیکیشن دیگر بگیرد یا یک عامل هوش مصنوعی بدون دخالت انسانی به خدمات شخص ثالث متصل شود.
استدلال زنجیرهای (Chain-of-thought)
استدلال زنجیرهای به معنی شکستن مسئله به مراحل میانی برای رسیدن به پاسخ بهتر است. همانطور که انسان برای مسألهای ریاضی قلم و کاغذ لازم دارد، مدلهای زبانی با یک فرایند گامبهگام نتایج دقیقتری در مسائل منطقی و برنامهنویسی ارائه میدهند.
عاملهای برنامهنویسی (Coding agents)
اینها نسخههای تخصصی عاملها برای توسعه نرمافزار هستند؛ بهجای پیشنهاد کد برای انسان، میتوانند کد بنویسند، تست کنند و اشکالزدایی نمایند. این عاملها میتوانند در سراسر یک کدبیس کار کنند و اصلاحات را با نظارت محدود انسانی اعمال کنند.
محاسبات (Compute)
«محاسبات» اغلب به توان محاسباتی مورد نیاز برای آموزش و اجرای مدلهای هوش مصنوعی اشاره دارد؛ شامل سختافزارهایی مانند GPU، CPU و TPU. ظرفیت محاسباتی یکی از پایههای صنعت هوش مصنوعی است و تعیینکننده سرعت و مقیاسپذیری مدلهاست.
یادگیری عمیق (Deep Learning)
یادگیری عمیق زیرمجموعهای از یادگیری ماشین است که از شبکههای عصبی چندلایه استفاده میکند تا ارتباطات پیچیده را از دادهها کشف کند. این رویکرد برای پردازش تصاویر، صدا، زبان و بسیاری کاربردهای دیگر مؤثر است اما معمولاً به داده و هزینهٔ آموزشی بیشتری نیاز دارد.
دیفیوژن (Diffusion)
دیفیوژن فناوری اصلی در بسیاری از مدلهای تولید تصویر، صدا و متن است. در این روش مدل یاد میگیرد داده را با افزودن نویز تدریجی «از بین ببرد» و سپس فرایند معکوس را برای بازیابی یا تولید محتوای جدید از نویز بیاموزد.
دیاستیلاسیون (Distillation)
دیاستیلاسیون روشی است برای استخراج دانش از یک مدل بزرگ («معلم») و آموزش یک مدل کوچکتر («شاگرد») بر پایه خروجیهای معلم. این تکنیک برای تولید مدلهای سریعتر و سبکتر با کاهش افت کارایی کاربرد دارد.
فاینتیونینگ (Fine-tuning)
فاینتیونینگ به آموزش بیشتر یک مدل از پیشآموزشدیده برای بهینهسازی آن در یک وظیفه یا حوزهٔ خاص گفته میشود. این روش به کسبوکارها کمک میکند از مدلهای عمومی بهسرعت برای کاربردهای تخصصی خود استفاده کنند.
شبکههای متخاصم مولد (GAN)
GANها از دو شبکه عصبی تشکیل شدهاند: یک مولد که تلاش میکند خروجی واقعی تولید کند و یک ممیّز که تلاش میکند آن را تشخیص دهد. این رقابت منجر به تولید دادههای بسیار واقعگرایانه، خصوصاً در تصاویر و ویدئو، میشود.
توهمسازی (Hallucination)
توهمسازی زمانی رخ میدهد که مدلهای هوش مصنوعی اطلاعات ساختگی یا نادرست تولید کنند. این مسأله میتواند ریسکهای عملی ایجاد کند، بنابراین کاهش توهمسازی یکی از اهداف توسعه مدلهای تخصصی و روشهای نظارتی است.
استنتاج (Inference)
استنتاج فرایند اجرای یک مدل برای تولید پیشبینی یا پاسخ است. مدل ابتدا باید آموزش دیده باشد؛ سپس میتوان آن را در دستگاههای مختلف (از گوشی همراه تا سرورهای قدرتمند) برای استنتاج بهکار برد.
مدلهای زبانی بزرگ (LLM)
LLMها شبکههای عصبی عمیقی با میلیاردها پارامتر هستند که الگوهای زبان را از مجموعههای عظیم متنی یاد میگیرند. بسیاری از دستیارهای هوش مصنوعی معروف مبتنی بر این مدلها هستند و برای تولید متن، ترجمه، خلاصهسازی و بسیاری کاربردهای دیگر بهکار میروند.
حافظه کش (Memory cache / KV caching)
حافظه کش به ذخیره موقت محاسبات یا نتایج میگویند تا استنتاج سریعتر انجام شود. KV (key-value) caching در مدلهای مبتنی بر ترنسفورمر جهت افزایش سرعت و کاهش محاسبات تکراری کاربرد فراوان دارد.
شبکه عصبی (Neural Network)
شبکه عصبی ساختاری چندلایه است که از الهام از ارتباطات نورونی مغز برای پردازش دادهها استفاده میکند. رشد این معماری همراه با پیشرفتهای سختافزاری (بهخصوص GPU) موجب جهشهای بزرگ در تواناییهای مدلهای هوش مصنوعی شده است.
متنباز و متنبسته (Open source vs Closed source)
متنباز به نرمافزار یا مدلهایی گفته میشود که کد یا وزنهایشان در دسترس عموم است، درحالیکه متنبسته کد داخلی را محفوظ نگه میدارد. هر دو رویکرد مزایا و معایب خود را دارند؛ متنباز برای شفافیت و بررسیهای مستقل مفید است و متنبسته ممکن است حفظ منافع تجاری را تسهیل کند.
موازیسازی (Parallelization)
موازیسازی یعنی انجام همزمان چند کار بهجای اجرای ترتیبی آنها. در آموزش و استنتاج مدلها، توانایی تقسیم کار بین چیپها و ماشینها کلیدی برای سرعت و مقیاسپذیری است.
کمبود RAM یا RAMageddon
افزایش نیازهای حافظه برای مراکز دادهٔ هوش مصنوعی باعث کمبود RAM در بازار شده که روی صنعت بازی، گوشیهای هوشمند و سایر بخشها اثر میگذارد. این فشار تقاضا میتواند هزینهها را بالا برده و عرضه را محدود کند.
یادگیری تقویتی و RLHF
یادگیری تقویتی (Reinforcement Learning) مدلی است که بر پایه تجربه و دریافت «پاداش» برای اقدامات درست یاد میگیرد. RLHF (یادگیری تقویتی از بازخورد انسانی) یکی از روشهای کلیدی برای تعدیل رفتار مدلها و افزایش مفیدبودن، دقت و ایمنی آنها است.
توکنها (Tokens)
توکنها واحدهای پردازشی در مدلهای زبان هستند؛ معمولاً بخشهایی از کلمه یا کلمات کامل که مدل با آنها کار میکند. قیمت بسیاری از سرویسهای LLM بر اساس تعداد توکنها محاسبه میشود، بنابراین بهینهسازی مصرف توکن برای کاربردهای تجاری مهم است.
توان عملیاتی (Throughput)
توان عملیاتی معیاری از مقدار کاری است که سیستم میتواند در زمان مشخصی پردازش کند؛ برای مدلهای زبانی، معمولاً به تعداد توکنهایی که میتوانند همزمان تولید یا دریافت شوند اشاره دارد. افزایش throughput باعث سرویسدهی سریعتر و پشتیبانی از تعداد بیشتری کاربر میشود.
آموزش (Training)
آموزش فرایندی است که در آن مدل با عبور دادهها و تنظیم پارامترها الگوها را یاد میگیرد. این مرحله میتواند پرهزینه باشد و به حجم بالایی از داده و محاسبات نیاز دارد؛ به همین دلیل ترکیب روشها مانند فاینتیونینگ و انتقال یادگیری برای صرفهجویی رایج است.
انتقال یادگیری (Transfer learning)
در انتقال یادگیری، از یک مدل آموزشدیده بهعنوان نقطه شروع برای یک وظیفهٔ مرتبط دیگر استفاده میشود تا توسعه مدل جدید سریعتر و کمهزینهتر شود. این روش بهویژه وقتی دادهٔ برچسبخوردهٔ هدف محدود است مفید است.
وزنها (Weights)
وزنها پارامترهای عددی در شبکههای عصبی هستند که میزان تأثیر هر ورودی را تعیین میکنند. در جریان آموزش وزنها تنظیم میشوند تا خروجی مدل به هدف مورد نظر نزدیکتر گردد.
خطای اعتبارسنجی (Validation loss)
خطای اعتبارسنجی عددی است که نشان میدهد مدل چگونه بر روی دادهای که برای آموزش مستقیم استفاده نشدهاست عمل میکند؛ کاهش این مقدار نشاندهندهٔ یادگیری بهتر است. این معیار به تشخیص پدیدهٔ overfitting (بیشبرازش) کمک میکند.
این مطلب بهصورت دورهای بهروزرسانی میشود تا با تحولات سریع حوزهٔ هوش مصنوعی هماهنگ بماند.
