واژه‌نامه هوش مصنوعی؛ اصطلاحات کلیدی که باید بشناسید

هوش مصنوعی سرعت تغییرات زیادی را در جهان ایجاد کرده و هم‌زمان زبانی فنی و جدید برای شرح این تغییرات پدید آورده است. در این مقاله مختصر و کاربردی، اصطلاحات مهم در حوزه هوش مصنوعی، یادگیری ماشین و مدل‌های زبانی بزرگ (LLM) را به‌زبان ساده و قابل‌فهم توضیح می‌دهیم. این راهنما به‌طور مداوم به‌روزرسانی می‌شود تا با تکامل میدان هماهنگ باشد.

هوش عمومی مصنوعی (AGI)
AGI به‌طور کلی به سامانه‌ای اطلاق می‌شود که در بسیاری از وظایف، توانایی برابر یا فراتر از میانگین انسان داشته باشد. تعاریف متفاوت است؛ برخی آن را معادل نیروی کاری انسانی می‌دانند که قابل استخدام است و بعضی دیگر آن را سامانه‌ای می‌نامند که در بیشتر کارهای با ارزش اقتصادی از انسان جلو می‌زند. هنوز میان پژوهشگران توافق کامل وجود ندارد.

عامل هوش مصنوعی (AI agent)
عامل یا agent برنامه‌ای است که به‌صورت خودگردان می‌تواند مجموعه‌ای از کارها را برای شما انجام دهد؛ کاری فراتر از یک چت‌بات ساده، مثل ثبت هزینه‌ها، رزرو بلیت یا حتی نوشتن و نگهداری کد. بسته به پیاده‌سازی، یک عامل ممکن است از چند مدل هوش مصنوعی و سرویس‌های مختلف استفاده کند تا وظایف چندمرحله‌ای را تکمیل نماید.

API endpoints (نقاط پایانی API)
نقاط پایانی API را می‌توان به‌عنوان «دکمه‌های پشت‌صحنه» نرم‌افزار تصور کرد که برنامه‌های دیگر می‌توانند آن‌ها را فشار دهند تا عملیات خاصی انجام شود. توسعه‌دهندگان از این رابط‌ها برای یکپارچه‌سازی‌ها استفاده می‌کنند؛ مثلاً اجازه می‌دهند یک اپلیکیشن داده‌ای از اپلیکیشن دیگر بگیرد یا یک عامل هوش مصنوعی بدون دخالت انسانی به خدمات شخص ثالث متصل شود.

استدلال زنجیره‌ای (Chain-of-thought)
استدلال زنجیره‌ای به معنی شکستن مسئله به مراحل میانی برای رسیدن به پاسخ بهتر است. همان‌طور که انسان برای مسأله‌ای ریاضی قلم و کاغذ لازم دارد، مدل‌های زبانی با یک فرایند گام‌به‌گام نتایج دقیق‌تری در مسائل منطقی و برنامه‌نویسی ارائه می‌دهند.

عامل‌های برنامه‌نویسی (Coding agents)
این‌ها نسخه‌های تخصصی عامل‌ها برای توسعه نرم‌افزار هستند؛ به‌جای پیشنهاد کد برای انسان، می‌توانند کد بنویسند، تست کنند و اشکال‌زدایی نمایند. این عامل‌ها می‌توانند در سراسر یک کدبیس کار کنند و اصلاحات را با نظارت محدود انسانی اعمال کنند.

محاسبات (Compute)
«محاسبات» اغلب به توان محاسباتی مورد نیاز برای آموزش و اجرای مدل‌های هوش مصنوعی اشاره دارد؛ شامل سخت‌افزارهایی مانند GPU، CPU و TPU. ظرفیت محاسباتی یکی از پایه‌های صنعت هوش مصنوعی است و تعیین‌کننده سرعت و مقیاس‌پذیری مدل‌هاست.

یادگیری عمیق (Deep Learning)
یادگیری عمیق زیرمجموعه‌ای از یادگیری ماشین است که از شبکه‌های عصبی چندلایه استفاده می‌کند تا ارتباطات پیچیده را از داده‌ها کشف کند. این رویکرد برای پردازش تصاویر، صدا، زبان و بسیاری کاربردهای دیگر مؤثر است اما معمولاً به داده و هزینهٔ آموزشی بیشتری نیاز دارد.

دیفیوژن (Diffusion)
دیفیوژن فناوری اصلی در بسیاری از مدل‌های تولید تصویر، صدا و متن است. در این روش مدل یاد می‌گیرد داده را با افزودن نویز تدریجی «از بین ببرد» و سپس فرایند معکوس را برای بازیابی یا تولید محتوای جدید از نویز بیاموزد.

دیاستیلاسیون (Distillation)
دیاستیلاسیون روشی است برای استخراج دانش از یک مدل بزرگ («معلم») و آموزش یک مدل کوچک‌تر («شاگرد») بر پایه خروجی‌های معلم. این تکنیک برای تولید مدل‌های سریع‌تر و سبک‌تر با کاهش افت کارایی کاربرد دارد.

فاین‌تیونینگ (Fine-tuning)
فاین‌تیونینگ به آموزش بیشتر یک مدل از پیش‌آموزش‌دیده برای بهینه‌سازی آن در یک وظیفه یا حوزهٔ خاص گفته می‌شود. این روش به کسب‌وکارها کمک می‌کند از مدل‌های عمومی به‌سرعت برای کاربردهای تخصصی خود استفاده کنند.

شبکه‌های متخاصم مولد (GAN)
GANها از دو شبکه عصبی تشکیل شده‌اند: یک مولد که تلاش می‌کند خروجی واقعی تولید کند و یک ممیّز که تلاش می‌کند آن را تشخیص دهد. این رقابت منجر به تولید داده‌های بسیار واقع‌گرایانه، خصوصاً در تصاویر و ویدئو، می‌شود.

توهم‌سازی (Hallucination)
توهم‌سازی زمانی رخ می‌دهد که مدل‌های هوش مصنوعی اطلاعات ساختگی یا نادرست تولید کنند. این مسأله می‌تواند ریسک‌های عملی ایجاد کند، بنابراین کاهش توهم‌سازی یکی از اهداف توسعه مدل‌های تخصصی و روش‌های نظارتی است.

استنتاج (Inference)
استنتاج فرایند اجرای یک مدل برای تولید پیش‌بینی یا پاسخ است. مدل ابتدا باید آموزش دیده باشد؛ سپس می‌توان آن را در دستگاه‌های مختلف (از گوشی همراه تا سرورهای قدرتمند) برای استنتاج به‌کار برد.

مدل‌های زبانی بزرگ (LLM)
LLMها شبکه‌های عصبی عمیقی با میلیاردها پارامتر هستند که الگوهای زبان را از مجموعه‌های عظیم متنی یاد می‌گیرند. بسیاری از دستیارهای هوش مصنوعی معروف مبتنی بر این مدل‌ها هستند و برای تولید متن، ترجمه، خلاصه‌سازی و بسیاری کاربردهای دیگر به‌کار می‌روند.

حافظه کش (Memory cache / KV caching)
حافظه کش به ذخیره موقت محاسبات یا نتایج می‌گویند تا استنتاج سریع‌تر انجام شود. KV (key-value) caching در مدل‌های مبتنی بر ترنسفورمر جهت افزایش سرعت و کاهش محاسبات تکراری کاربرد فراوان دارد.

شبکه عصبی (Neural Network)
شبکه عصبی ساختاری چندلایه است که از الهام از ارتباطات نورونی مغز برای پردازش داده‌ها استفاده می‌کند. رشد این معماری همراه با پیشرفت‌های سخت‌افزاری (به‌خصوص GPU) موجب جهش‌های بزرگ در توانایی‌های مدل‌های هوش مصنوعی شده است.

متن‌باز و متن‌بسته (Open source vs Closed source)
متن‌باز به نرم‌افزار یا مدل‌هایی گفته می‌شود که کد یا وزن‌هایشان در دسترس عموم است، درحالی‌که متن‌بسته کد داخلی را محفوظ نگه می‌دارد. هر دو رویکرد مزایا و معایب خود را دارند؛ متن‌باز برای شفافیت و بررسی‌های مستقل مفید است و متن‌بسته ممکن است حفظ منافع تجاری را تسهیل کند.

موازی‌سازی (Parallelization)
موازی‌سازی یعنی انجام هم‌زمان چند کار به‌جای اجرای ترتیبی آن‌ها. در آموزش و استنتاج مدل‌ها، توانایی تقسیم کار بین چیپ‌ها و ماشین‌ها کلیدی برای سرعت و مقیاس‌پذیری است.

کمبود RAM یا RAMageddon
افزایش نیازهای حافظه برای مراکز دادهٔ هوش مصنوعی باعث کمبود RAM در بازار شده که روی صنعت بازی، گوشی‌های هوشمند و سایر بخش‌ها اثر می‌گذارد. این فشار تقاضا می‌تواند هزینه‌ها را بالا برده و عرضه را محدود کند.

یادگیری تقویتی و RLHF
یادگیری تقویتی (Reinforcement Learning) مدلی است که بر پایه تجربه و دریافت «پاداش» برای اقدامات درست یاد می‌گیرد. RLHF (یادگیری تقویتی از بازخورد انسانی) یکی از روش‌های کلیدی برای تعدیل رفتار مدل‌ها و افزایش مفیدبودن، دقت و ایمنی آن‌ها است.

توکن‌ها (Tokens)
توکن‌ها واحدهای پردازشی در مدل‌های زبان هستند؛ معمولاً بخش‌هایی از کلمه یا کلمات کامل که مدل با آن‌ها کار می‌کند. قیمت بسیاری از سرویس‌های LLM بر اساس تعداد توکن‌ها محاسبه می‌شود، بنابراین بهینه‌سازی مصرف توکن برای کاربردهای تجاری مهم است.

توان عملیاتی (Throughput)
توان عملیاتی معیاری از مقدار کاری است که سیستم می‌تواند در زمان مشخصی پردازش کند؛ برای مدل‌های زبانی، معمولاً به تعداد توکن‌هایی که می‌توانند هم‌زمان تولید یا دریافت شوند اشاره دارد. افزایش throughput باعث سرویس‌دهی سریع‌تر و پشتیبانی از تعداد بیشتری کاربر می‌شود.

آموزش (Training)
آموزش فرایندی است که در آن مدل با عبور داده‌ها و تنظیم پارامترها الگوها را یاد می‌گیرد. این مرحله می‌تواند پرهزینه باشد و به حجم بالایی از داده و محاسبات نیاز دارد؛ به همین دلیل ترکیب روش‌ها مانند فاین‌تیونینگ و انتقال یادگیری برای صرفه‌جویی رایج است.

انتقال یادگیری (Transfer learning)
در انتقال یادگیری، از یک مدل آموزش‌دیده به‌عنوان نقطه شروع برای یک وظیفهٔ مرتبط دیگر استفاده می‌شود تا توسعه مدل جدید سریع‌تر و کم‌هزینه‌تر شود. این روش به‌ویژه وقتی دادهٔ برچسب‌خوردهٔ هدف محدود است مفید است.

وزن‌ها (Weights)
وزن‌ها پارامترهای عددی در شبکه‌های عصبی هستند که میزان تأثیر هر ورودی را تعیین می‌کنند. در جریان آموزش وزن‌ها تنظیم می‌شوند تا خروجی مدل به هدف مورد نظر نزدیک‌تر گردد.

خطای اعتبارسنجی (Validation loss)
خطای اعتبارسنجی عددی است که نشان می‌دهد مدل چگونه بر روی داده‌ای که برای آموزش مستقیم استفاده نشده‌است عمل می‌کند؛ کاهش این مقدار نشان‌دهندهٔ یادگیری بهتر است. این معیار به تشخیص پدیدهٔ overfitting (بیش‌برازش) کمک می‌کند.

این مطلب به‌صورت دوره‌ای به‌روزرسانی می‌شود تا با تحولات سریع حوزهٔ هوش مصنوعی هماهنگ بماند.

ابزار آنلاین ویرایش تصویر با هوش مصنوعی

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اسکرول به بالا