این صفحه شامل اصطلاحات واژه نامه هوش مصنوعی مولد است. برای همه اصطلاحات واژه نامه، اینجا را کلیک کنید .
الف
ارزیابی خودکار
استفاده از نرم افزار برای قضاوت در مورد کیفیت خروجی یک مدل.
وقتی خروجی مدل نسبتاً ساده باشد، یک اسکریپت یا برنامه میتواند خروجی مدل را با یک پاسخ طلایی مقایسه کند. این نوع ارزیابی خودکار گاهی اوقات ارزیابی برنامه ای نامیده می شود. معیارهایی مانند ROUGE یا BLEU اغلب برای ارزیابی برنامه ای مفید هستند.
هنگامی که خروجی مدل پیچیده است یا پاسخ درستی ندارد ، یک برنامه ML جداگانه به نام autorater گاهی اوقات ارزیابی خودکار را انجام می دهد.
در مقابل ارزیابی انسانی .
ارزیابی نویسنده
مکانیزم ترکیبی برای قضاوت در مورد کیفیت خروجی یک مدل هوش مصنوعی مولد که ارزیابی انسانی را با ارزیابی خودکار ترکیب میکند. autorater یک مدل ML است که بر روی داده های ایجاد شده توسط ارزیابی انسانی آموزش دیده است. در حالت ایده آل، یک autorater یاد می گیرد که از یک ارزیاب انسانی تقلید کند.Autoraters از پیش ساخته شده در دسترس هستند، اما بهترین autorater ها به طور خاص برای وظیفه ای که شما ارزیابی می کنید تنظیم شده اند.
مدل خود رگرسیون
مدلی که پیش بینی را بر اساس پیش بینی های قبلی خود استنباط می کند. برای مثال، مدلهای زبان رگرسیون خودکار ، نشانههای بعدی را بر اساس نشانههای پیشبینیشده قبلی پیشبینی میکنند. همه مدلهای زبان بزرگ مبتنی بر Transformer دارای رگرسیون خودکار هستند.
در مقابل، مدلهای تصویر مبتنی بر GAN معمولاً رگرسیون خودکار نیستند، زیرا آنها یک تصویر را در یک گذر به جلو و نه به صورت تکراری در مراحل تولید میکنند. با این حال، برخی از مدلهای تولید تصویر دارای رگرسیون خودکار هستند ، زیرا آنها یک تصویر را در مراحل تولید میکنند.
سی
تحریک زنجیره ای از فکر
یک تکنیک مهندسی سریع که یک مدل زبان بزرگ (LLM) را تشویق می کند تا استدلال خود را گام به گام توضیح دهد. به عنوان مثال، با توجه خاص به جمله دوم، دستور زیر را در نظر بگیرید:
یک راننده چند گرم نیرو را در اتومبیلی که از 0 تا 60 مایل در ساعت در 7 ثانیه طی می کند تجربه می کند؟ در پاسخ، تمام محاسبات مربوطه را نشان دهید.
پاسخ LLM به احتمال زیاد:
- دنباله ای از فرمول های فیزیک را نشان دهید و مقادیر 0، 60 و 7 را در مکان های مناسب وصل کنید.
- توضیح دهید که چرا آن فرمول ها را انتخاب کرده است و معنی متغیرهای مختلف چیست.
تحریک زنجیرهای از فکر، LLM را مجبور میکند همه محاسبات را انجام دهد، که ممکن است به پاسخ صحیحتری منجر شود. علاوه بر این، تحریک زنجیرهای از فکر، کاربر را قادر میسازد تا مراحل LLM را برای تعیین اینکه آیا پاسخ منطقی است یا نه، بررسی کند.
چت کردن
محتویات یک گفتگوی رفت و برگشت با یک سیستم ML، معمولاً یک مدل زبان بزرگ . تعامل قبلی در یک چت (آنچه تایپ کردید و مدل زبان بزرگ چگونه پاسخ داد) زمینه ای برای بخش های بعدی گپ می شود.
چت بات یک برنامه کاربردی از یک مدل زبان بزرگ است.
جاسازی زبان متنی
تعبیهای که به «درک» واژهها و عبارات به شیوههایی نزدیک میشود که گویشوران بومی انسان میتوانند. تعبیههای زبان متنی میتوانند نحو، معناشناسی و زمینه پیچیده را درک کنند.
برای مثال، تعبیههای کلمه انگلیسی cow را در نظر بگیرید. جاسازیهای قدیمیتر مانند word2vec میتوانند کلمات انگلیسی را نشان دهند به طوری که فاصله در فضای جاسازی از گاو تا گاو مشابه فاصله میش (گوسفند ماده) تا قوچ (گوسفند نر) یا از ماده تا نر است. تعبیههای زبانی متنی میتواند با درک این موضوع که انگلیسی زبانان گاهی اوقات به طور تصادفی از کلمه cow به معنای گاو یا گاو نر استفاده میکنند، قدمی فراتر بگذارند.
پنجره زمینه
تعداد نشانه هایی که یک مدل می تواند در یک دستور داده شده پردازش کند. هرچه پنجره زمینه بزرگتر باشد، مدل می تواند از اطلاعات بیشتری برای ارائه پاسخ های منسجم و منسجم به درخواست استفاده کند.
D
تحریک مستقیم
مترادف عبارت zero-shot prompting .
تقطیر
فرآیند کاهش اندازه یک مدل (معروف به معلم ) به یک مدل کوچکتر (معروف به دانش آموز ) که پیش بینی های مدل اصلی را تا حد امکان صادقانه تقلید می کند. تقطیر مفید است زیرا مدل کوچکتر دو مزیت کلیدی نسبت به مدل بزرگتر (معلم) دارد:
- زمان استنتاج سریعتر
- کاهش حافظه و مصرف انرژی
با این حال، پیشبینیهای دانشآموز معمولاً به خوبی پیشبینیهای معلم نیست.
تقطیر، مدل دانشآموز را آموزش میدهد تا تابع ضرر را بر اساس تفاوت بین خروجیهای پیشبینیهای مدل دانشآموز و معلم به حداقل برساند.
تقطیر را با اصطلاحات زیر مقایسه و مقایسه کنید:
برای اطلاعات بیشتر به LLMs: Fine-tuning, distillation, and prompt engineering در Machine Learning Crash Course مراجعه کنید.
E
ارزیابی می کند
در درجه اول به عنوان مخفف ارزیابی های LLM استفاده می شود. به طور گسترده تر، evals مخفف هر شکلی از ارزیابی است.
ارزیابی
فرآیند اندازه گیری کیفیت یک مدل یا مقایسه مدل های مختلف با یکدیگر.
برای ارزیابی یک مدل یادگیری ماشینی نظارت شده ، معمولاً آن را بر اساس یک مجموعه اعتبار سنجی و یک مجموعه آزمایش قضاوت می کنید. ارزیابی LLM معمولاً شامل ارزیابیهای کیفی و ایمنی گستردهتری است.
اف
واقعیت
در دنیای ML، یک ویژگی که مدلی را توصیف می کند که خروجی آن بر اساس واقعیت است. واقعیت یک مفهوم است تا یک معیار. به عنوان مثال، فرض کنید دستور زیر را به یک مدل زبان بزرگ ارسال می کنید:
فرمول شیمیایی نمک خوراکی چیست؟
یک مدل بهینه سازی واقعیت پاسخ می دهد:
NaCl
این وسوسه انگیز است که فرض کنیم همه مدل ها باید بر اساس واقعیت باشند. با این حال، برخی از اعلانها، مانند موارد زیر، باید باعث شود که یک مدل هوش مصنوعی مولد، خلاقیت را بهجای واقعیت بهینه کند.
در مورد یک فضانورد و یک کاترپیلار به من بگویید.
بعید به نظر می رسد که لیمریک حاصل بر اساس واقعیت باشد.
تقابل با زمین گرایی .
چند شات تحریک
درخواستی که حاوی بیش از یک («چند») مثال است که نشان میدهد مدل زبان بزرگ چگونه باید پاسخ دهد. برای مثال، دستور طولانی زیر حاوی دو مثال است که یک مدل زبان بزرگ را نشان می دهد که چگونه به یک پرس و جو پاسخ دهد.
بخش هایی از یک فرمان | یادداشت ها |
---|---|
واحد پول رسمی کشور مشخص شده چیست؟ | سوالی که می خواهید LLM به آن پاسخ دهد. |
فرانسه: یورو | یک مثال. |
بریتانیا: GBP | مثال دیگر. |
هند: | پرس و جو واقعی |
درخواستهای چند شات معمولاً نتایج مطلوبتری نسبت به درخواستهای صفر و یک شات ایجاد میکنند. با این حال، درخواست چند شات به یک اعلان طولانیتر نیاز دارد.
درخواست چند شات شکلی از یادگیری چند شات است که برای یادگیری مبتنی بر سریع اعمال می شود.
برای اطلاعات بیشتر به مهندسی سریع در دوره تصادف یادگیری ماشین مراجعه کنید.
تنظیم دقیق
دومین پاس آموزشی ویژه کار بر روی یک مدل از پیش آموزش دیده انجام شد تا پارامترهای آن را برای یک مورد استفاده خاص اصلاح کند. به عنوان مثال، دنباله آموزش کامل برای برخی از مدل های زبان بزرگ به شرح زیر است:
- قبل از آموزش: یک مدل زبان بزرگ را بر روی یک مجموعه داده کلی گسترده، مانند تمام صفحات ویکی پدیا به زبان انگلیسی، آموزش دهید.
- تنظیم دقیق: مدل از پیش آموزش دیده را برای انجام یک کار خاص ، مانند پاسخ به سؤالات پزشکی، آموزش دهید. تنظیم دقیق معمولاً شامل صدها یا هزاران مثال متمرکز بر یک کار خاص است.
به عنوان مثال دیگر، دنباله آموزش کامل برای یک مدل تصویر بزرگ به شرح زیر است:
- قبل از آموزش: یک مدل تصویر بزرگ را بر روی یک مجموعه داده کلی تصویری گسترده، مانند تمام تصاویر موجود در Wikimedia Commons آموزش دهید.
- تنظیم دقیق: مدل از پیش آموزش دیده را برای انجام یک کار خاص ، مانند تولید تصاویر اورکا، آموزش دهید.
تنظیم دقیق می تواند شامل هر ترکیبی از استراتژی های زیر باشد:
- اصلاح تمام پارامترهای موجود مدل از پیش آموزش دیده. گاهی اوقات به آن تنظیم دقیق کامل می گویند.
- اصلاح تنها برخی از پارامترهای موجود مدل از قبل آموزش دیده (معمولاً، نزدیکترین لایه ها به لایه خروجی )، در حالی که سایر پارامترهای موجود را بدون تغییر نگه می دارد (معمولاً، لایه های نزدیک به لایه ورودی ). تنظیم کارآمد پارامتر را ببینید.
- افزودن لایههای بیشتر، معمولاً در بالای لایههای موجود که نزدیکترین لایه به لایه خروجی است.
تنظیم دقیق شکلی از یادگیری انتقالی است. به این ترتیب، تنظیم دقیق ممکن است از یک تابع تلفات متفاوت یا نوع مدل متفاوتی نسبت به مواردی که برای آموزش مدل از پیش آموزش دیده استفاده میشود، استفاده کند. به عنوان مثال، میتوانید یک مدل تصویر بزرگ از قبل آموزشدیده را برای تولید یک مدل رگرسیونی تنظیم کنید که تعداد پرندگان در یک تصویر ورودی را برمیگرداند.
تنظیم دقیق را با عبارات زیر مقایسه و مقایسه کنید:
برای اطلاعات بیشتر به تنظیم دقیق در دوره تصادف یادگیری ماشین مراجعه کنید.
کسری از موفقیت ها
معیاری برای ارزیابی متن تولید شده در مدل ML. کسری از موفقیت ها تعداد خروجی های متن تولید شده "موفق" تقسیم بر تعداد کل خروجی های متن تولید شده است. به عنوان مثال، اگر یک مدل زبان بزرگ 10 بلوک کد تولید کند که پنج بلوک آن موفق بوده است، کسری از موفقیت ها 50 درصد خواهد بود.
اگرچه کسری از موفقیت ها به طور گسترده در سراسر آمار مفید است، اما در ML، این معیار در درجه اول برای اندازه گیری وظایف قابل تأیید مانند تولید کد یا مسائل ریاضی مفید است.
جی
جوزا
این اکوسیستم شامل پیشرفته ترین هوش مصنوعی گوگل است. عناصر این اکوسیستم عبارتند از:
- مدل های مختلف جمینی .
- رابط مکالمه تعاملی به مدل Gemini . کاربران دستورات را تایپ می کنند و Gemini به آن درخواست ها پاسخ می دهد.
- API های مختلف Gemini.
- محصولات تجاری مختلف بر اساس مدل های جمینی؛ به عنوان مثال، Gemini برای Google Cloud .
مدل های جمینی
پیشرفته ترین مدل های چندوجهی مبتنی بر ترانسفورماتور گوگل. مدل های Gemini به طور خاص برای ادغام با عوامل طراحی شده اند.
کاربران می توانند با مدل های Gemini به روش های مختلفی از جمله از طریق یک رابط گفتگوی تعاملی و از طریق SDK تعامل داشته باشند.
متن تولید شده
به طور کلی، متنی که یک مدل ML خروجی می دهد. هنگام ارزیابی مدلهای زبان بزرگ، برخی از معیارها متن تولید شده را با متن مرجع مقایسه میکنند. برای مثال، فرض کنید میخواهید تعیین کنید که چگونه یک مدل ML از فرانسوی به هلندی ترجمه میشود. در این مورد:
- متن تولید شده ترجمه هلندی است که مدل ML خروجی می دهد.
- متن مرجع ترجمه هلندی است که یک مترجم انسانی (یا نرم افزار) ایجاد می کند.
توجه داشته باشید که برخی از استراتژی های ارزیابی شامل متن مرجع نیستند.
هوش مصنوعی مولد
یک میدان تحولآفرین در حال ظهور بدون تعریف رسمی. گفته میشود، اکثر کارشناسان موافق هستند که مدلهای هوش مصنوعی تولیدی میتوانند محتوایی را ایجاد کنند ("تولید") که همه موارد زیر باشد:
- مجتمع
- منسجم
- اصلی
به عنوان مثال، یک مدل هوش مصنوعی مولد می تواند مقالات یا تصاویر پیچیده ای ایجاد کند.
برخی از فناوریهای قبلی، از جمله LSTM و RNN ، میتوانند محتوای اصلی و منسجم تولید کنند. برخی از کارشناسان این فناوری های قبلی را به عنوان هوش مصنوعی مولد می دانند، در حالی که برخی دیگر احساس می کنند که هوش مصنوعی مولد واقعی به خروجی پیچیده تری نسبت به فناوری های قبلی نیاز دارد.
در مقابل ML پیش بینی .
پاسخ طلایی
پاسخی که به خوبی شناخته شده است. به عنوان مثال، با توجه به دستور زیر:
2 + 2
پاسخ طلایی امیدوارم:
4
اچ
ارزیابی انسانی
فرآیندی که در آن افراد کیفیت خروجی مدل ML را قضاوت می کنند. برای مثال، داشتن افراد دوزبانه در مورد کیفیت مدل ترجمه ML قضاوت می کنند. ارزیابی انسانی به ویژه برای قضاوت در مورد مدل هایی که پاسخ درستی ندارند مفید است.
در تضاد با ارزیابی خودکار و ارزیابی autorater .
انسان در حلقه (HITL)
یک اصطلاح با تعریف ضعیف که می تواند به معنای یکی از موارد زیر باشد:
- سیاستی برای مشاهده انتقادی یا شکاکانه خروجی هوش مصنوعی مولد. به عنوان مثال، افرادی که این واژه نامه ML را می نویسند از کارهایی که مدل های زبان بزرگ می توانند انجام دهند شگفت زده می شوند، اما به اشتباهاتی که مدل های زبان بزرگ مرتکب می شوند، توجه دارند.
- استراتژی یا سیستمی برای حصول اطمینان از اینکه افراد به شکلدهی، ارزیابی و اصلاح رفتار یک مدل کمک میکنند. نگه داشتن یک انسان در حلقه، هوش مصنوعی را قادر می سازد از هوش ماشینی و هوش انسانی بهره مند شود. به عنوان مثال، سیستمی که در آن یک هوش مصنوعی کدی را تولید می کند که مهندسان نرم افزار سپس آن را بررسی می کنند، یک سیستم انسان در حلقه است.
من
یادگیری درون متنی
مترادف اعلان چند شات .
تنظیم دستورالعمل
نوعی تنظیم دقیق که توانایی مدل هوش مصنوعی مولد را برای پیروی از دستورالعمل ها بهبود می بخشد. تنظیم دستورالعمل شامل آموزش یک مدل بر روی یک سری از دستورات است که معمولاً طیف گسترده ای از وظایف را پوشش می دهد. سپس مدل تنظیمشده توسط دستورالعملها، پاسخهای مفیدی به درخواستهای صفر شات در انواع وظایف ایجاد میکند.
مقایسه و مقایسه با:
L
LLM
مخفف مدل زبان بزرگ .
ارزیابی های LLM (ارزیابی)
مجموعهای از معیارها و معیارها برای ارزیابی عملکرد مدلهای زبان بزرگ (LLM). در سطح بالا، ارزیابی های LLM:
- به محققان کمک کنید مناطقی را که LLM نیاز به بهبود دارند شناسایی کنند.
- در مقایسه LLM های مختلف و شناسایی بهترین LLM برای یک کار خاص مفید هستند.
- کمک کنید تا مطمئن شوید که LLM ها برای استفاده ایمن و اخلاقی هستند.
LoRA
مخفف عبارت Low-Rank Adaptability .
سازگاری با رتبه پایین (LoRA)
یک تکنیک کارآمد از نظر پارامتر برای تنظیم دقیق که وزنهای از پیش آموزشدیدهشده مدل را منجمد میکند (به طوری که دیگر نمیتوان آنها را اصلاح کرد) و سپس مجموعه کوچکی از وزنههای قابل آموزش را در مدل قرار میدهد. این مجموعه از وزنه های قابل تمرین (همچنین به عنوان "ماتریس های به روز رسانی" شناخته می شود) به طور قابل توجهی کوچکتر از مدل پایه است و بنابراین برای تمرین بسیار سریعتر است.
LoRA مزایای زیر را ارائه می دهد:
- کیفیت پیشبینیهای مدل را برای دامنهای که تنظیم دقیق در آن اعمال میشود، بهبود میبخشد.
- تنظیم دقیقتر از تکنیکهایی که نیاز به تنظیم دقیق همه پارامترهای مدل دارند.
- هزینه محاسباتی استنتاج را با فعال کردن سرویس دهی همزمان چندین مدل تخصصی که یک مدل پایه را به اشتراک می گذارند، کاهش می دهد.
م
ترجمه ماشینی
استفاده از نرم افزار (معمولاً یک مدل یادگیری ماشینی) برای تبدیل متن از یک زبان انسانی به زبان انسانی دیگر، به عنوان مثال، از انگلیسی به ژاپنی.
میانگین دقت متوسط در k (mAP@k)
میانگین آماری تمام میانگین دقت در نمره های k در یک مجموعه داده اعتبار سنجی. یکی از کاربردهای میانگین دقت در k قضاوت در مورد کیفیت توصیه های تولید شده توسط یک سیستم توصیه می باشد.
اگرچه عبارت "میانگین متوسط" اضافی به نظر می رسد، نام متریک مناسب است. از این گذشته، این متریک میانگین دقت میانگین چندگانه را در مقادیر k پیدا می کند.
مخلوطی از متخصصان
طرحی برای افزایش کارایی شبکه عصبی با استفاده از تنها زیرمجموعه ای از پارامترهای آن (معروف به متخصص ) برای پردازش یک نشانه یا نمونه ورودی داده شده. یک شبکه گیتینگ هر نشانه یا نمونه ورودی را به متخصص(های) مناسب هدایت می کند.
برای جزئیات، به یکی از مقالات زیر مراجعه کنید:
- شبکههای عصبی فوقالعاده بزرگ: لایه ترکیبی از کارشناسان با دروازههای پراکنده
- ترکیبی از متخصصان با مسیریابی انتخاب خبره
MMIT
مخفف عبارت multimodal instruction-tuned .
مدل آبشاری
سیستمی که مدل ایده آل را برای یک جستار استنتاج خاص انتخاب می کند.
گروهی از مدل ها را تصور کنید که از بسیار بزرگ ( پارامترهای زیاد) تا بسیار کوچکتر (پارامترهای بسیار کمتر) را شامل می شود. مدل های بسیار بزرگ نسبت به مدل های کوچکتر منابع محاسباتی بیشتری را در زمان استنتاج مصرف می کنند. با این حال، مدل های بسیار بزرگ معمولاً می توانند درخواست های پیچیده تری را نسبت به مدل های کوچکتر استنباط کنند. مدل آبشاری پیچیدگی پرس و جو استنتاج را تعیین می کند و سپس مدل مناسب را برای انجام استنتاج انتخاب می کند. انگیزه اصلی برای آبشاری مدل، کاهش هزینههای استنتاج با انتخاب مدلهای کوچکتر و تنها انتخاب مدل بزرگتر برای پرس و جوهای پیچیدهتر است.
تصور کنید که یک مدل کوچک روی یک تلفن اجرا می شود و نسخه بزرگتر آن مدل روی یک سرور راه دور اجرا می شود. آبشاری مدل خوب با فعال کردن مدل کوچکتر برای رسیدگی به درخواست های ساده و تنها فراخوانی مدل راه دور برای رسیدگی به درخواست های پیچیده، هزینه و تأخیر را کاهش می دهد.
همچنین مدل روتر را ببینید.
روتر مدل
الگوریتمی که مدل ایده آل را برای استنتاج در مدل آبشاری تعیین می کند. یک روتر مدل خود معمولاً یک مدل یادگیری ماشینی است که به تدریج یاد می گیرد که چگونه بهترین مدل را برای یک ورودی مشخص انتخاب کند. با این حال، یک روتر مدل گاهی اوقات می تواند یک الگوریتم یادگیری ساده تر و غیر ماشینی باشد.
MOE
مخفف mix of experts .
MT
مخفف ترجمه ماشینی .
ن
هیچ کس پاسخ درستی ندارد (NORA)
اعلانی که چندین پاسخ مناسب دارد. به عنوان مثال، اعلان زیر هیچ پاسخ درستی ندارد:
یک جوک در مورد فیل ها بگو.
ارزیابی درخواستهای بدون پاسخ درست میتواند چالش برانگیز باشد.
نورا
مخفف هیچ کس درست جواب نمی دهد .
O
درخواست تک شات
درخواستی که حاوی یک مثال است که نشان می دهد مدل زبان بزرگ چگونه باید پاسخ دهد. برای مثال، دستور زیر حاوی یک مثال است که یک مدل زبان بزرگ را نشان می دهد که چگونه باید به یک پرس و جو پاسخ دهد.
بخش هایی از یک فرمان | یادداشت ها |
---|---|
واحد پول رسمی کشور مشخص شده چیست؟ | سوالی که می خواهید LLM به آن پاسخ دهد. |
فرانسه: یورو | یک مثال. |
هند: | پرس و جو واقعی |
اعلان یک شات را با عبارات زیر مقایسه و مقایسه کنید:
پ
تنظیم کارآمد از نظر پارامتر
مجموعهای از تکنیکها برای تنظیم دقیق یک مدل زبان بزرگ از پیش آموزشدیده (PLM) با کارآمدی بیشتر از تنظیم دقیق کامل. تنظیم کارآمد پارامتر معمولاً پارامترهای بسیار کمتری را نسبت به تنظیم دقیق کامل تنظیم میکند، اما به طور کلی یک مدل زبان بزرگ تولید میکند که به خوبی (یا تقریباً به همان اندازه) یک مدل زبان بزرگ ساخته شده از تنظیم دقیق کامل عمل میکند.
مقایسه و کنتراست تنظیم کارآمد پارامتر با:
تنظیم کارآمد پارامتر نیز به عنوان تنظیم دقیق پارامتر کارآمد شناخته می شود.
PLM
مخفف مدل زبان از پیش آموزش دیده .
مدل پس از آموزش
اصطلاحی با تعریف ضعیف که معمولاً به یک مدل از پیش آموزش دیده اشاره می کند که برخی از مراحل پس از پردازش را پشت سر گذاشته است، مانند یک یا چند مورد از موارد زیر:
مدل از پیش آموزش دیده
به طور معمول، مدلی که قبلاً آموزش داده شده است. این اصطلاح همچنین میتواند به معنای بردار تعبیهشده قبلی باشد.
اصطلاح مدل زبان از پیش آموزش دیده معمولاً به یک مدل زبان بزرگ قبلاً آموزش دیده اشاره دارد.
قبل از آموزش
آموزش اولیه یک مدل بر روی یک مجموعه داده بزرگ. برخی از مدل های از پیش آموزش دیده غول های دست و پا چلفتی هستند و معمولاً باید از طریق آموزش های اضافی اصلاح شوند. به عنوان مثال، کارشناسان ML ممکن است یک مدل زبان بزرگ را در یک مجموعه داده متنی گسترده، مانند تمام صفحات انگلیسی در ویکیپدیا، از قبل آموزش دهند. پس از پیش آموزش، مدل به دست آمده ممکن است از طریق هر یک از تکنیک های زیر اصلاح شود:
سریع
هر متنی که به عنوان ورودی به یک مدل زبان بزرگ وارد می شود تا مدل به روشی خاص رفتار کند. درخواستها میتوانند به کوتاهی یک عبارت یا دلخواه طولانی باشند (مثلاً کل متن یک رمان). درخواستها به چند دسته تقسیم میشوند، از جمله مواردی که در جدول زیر نشان داده شدهاند:
دسته بندی سریع | مثال | یادداشت ها |
---|---|---|
سوال | یک کبوتر با چه سرعتی می تواند پرواز کند؟ | |
دستورالعمل | یک شعر خنده دار در مورد آربیتراژ بنویسید. | اعلانی که از مدل زبان بزرگ می خواهد کاری انجام دهد . |
مثال | کد Markdown را به HTML ترجمه کنید. به عنوان مثال: علامت گذاری: * آیتم لیست HTML: <ul> <li>مورد فهرست</li> </ul> | اولین جمله در این اعلان مثال یک دستورالعمل است. باقیمانده اعلان مثال است. |
نقش | توضیح دهید که چرا از شیب نزول در آموزش یادگیری ماشین تا مقطع دکتری فیزیک استفاده می شود. | قسمت اول جمله یک دستور است; عبارت "به یک دکترا در فیزیک" بخش نقش است. |
ورودی جزئی برای تکمیل مدل | نخست وزیر بریتانیا در | یک اعلان ورودی جزئی می تواند یا به طور ناگهانی پایان یابد (همانطور که در این مثال انجام می شود) یا با یک خط زیر به پایان برسد. |
یک مدل هوش مصنوعی مولد میتواند به یک درخواست با متن، کد، تصاویر، جاسازیها ، ویدیوها و… تقریباً هر چیزی پاسخ دهد.
یادگیری مبتنی بر سریع
قابلیتی از مدلهای خاص که آنها را قادر میسازد رفتار خود را در پاسخ به ورودی متن دلخواه ( اعلانها ) تطبیق دهند. در یک الگوی یادگیری معمولی مبتنی بر سریع، یک مدل زبان بزرگ با تولید متن به یک درخواست پاسخ می دهد. به عنوان مثال، فرض کنید یک کاربر دستور زیر را وارد می کند:
قانون سوم حرکت نیوتن را خلاصه کنید.
مدلی که قادر به یادگیری مبتنی بر سریع باشد به طور خاص برای پاسخ دادن به درخواست قبلی آموزش داده نشده است. در عوض، مدل حقایق زیادی در مورد فیزیک، چیزهای زیادی در مورد قواعد عمومی زبان، و چیزهای زیادی در مورد آنچه پاسخهای به طور کلی مفید است، میداند. این دانش برای ارائه یک پاسخ مفید (امیدوارم) کافی است. بازخورد اضافی انسانی ("آن پاسخ خیلی پیچیده بود." یا "واکنش چیست؟") برخی از سیستم های یادگیری مبتنی بر فوری را قادر می سازد تا به تدریج سودمندی پاسخ های خود را بهبود بخشند.
طراحی سریع
مترادف کلمه مهندسی سریع .
مهندسی سریع
هنر ایجاد اعلانهایی که پاسخهای مورد نظر را از یک مدل زبان بزرگ استخراج میکنند. انسان ها مهندسی سریع انجام می دهند. نوشتن اعلانهای با ساختار مناسب، بخش مهمی از حصول اطمینان از پاسخهای مفید از یک مدل زبان بزرگ است. مهندسی سریع به عوامل زیادی بستگی دارد، از جمله:
- مجموعه داده برای پیشآموزش و احتمالاً تنظیم دقیق مدل زبان بزرگ استفاده میشود.
- دما و سایر پارامترهای رمزگشایی که مدل برای تولید پاسخ استفاده می کند.
برای جزئیات بیشتر در مورد نوشتن اعلان های مفید به مقدمه طراحی اعلان مراجعه کنید.
طراحی سریع مترادف مهندسی سریع است.
تنظیم سریع
یک مکانیسم تنظیم کارآمد پارامتری که یک "پیشوند" را می آموزد که سیستم آن را به اعلان واقعی نشان می دهد.
یکی از انواع تنظیم سریع - که گاهی اوقات تنظیم پیشوند نامیده می شود - این است که پیشوند را در هر لایه قرار دهید. در مقابل، بیشتر تنظیم سریع فقط یک پیشوند به لایه ورودی اضافه می کند.
آر
متن مرجع
پاسخ یک متخصص به یک درخواست به عنوان مثال، با توجه به دستور زیر:
ترجمه سوال "نام تو چیست؟" از انگلیسی به فرانسوی
پاسخ یک متخصص ممکن است این باشد:
نظر دهید vous appeles-vous؟
معیارهای مختلف (مانند ROUGE ) درجه مطابقت متن مرجع با متن تولید شده مدل ML را اندازه گیری می کند.
یادگیری تقویتی از بازخورد انسانی (RLHF)
استفاده از بازخورد ارزیابیکنندگان انسانی برای بهبود کیفیت پاسخهای یک مدل. به عنوان مثال، یک مکانیسم RLHF می تواند از کاربران بخواهد که کیفیت پاسخ یک مدل را با یک ایموجی 👍 یا 👎 ارزیابی کنند. سپس سیستم می تواند پاسخ های آینده خود را بر اساس آن بازخورد تنظیم کند.
تحریک نقش
بخشی اختیاری از یک درخواست که مخاطب هدف را برای پاسخ یک مدل هوش مصنوعی مولد شناسایی می کند. بدون اعلان نقش، یک مدل زبان بزرگ پاسخی را ارائه می دهد که ممکن است برای شخصی که سؤال می کند مفید باشد یا نباشد. با یک اعلان نقش، یک مدل زبان بزرگ می تواند به روشی پاسخ دهد که برای یک مخاطب هدف خاص مناسب تر و مفیدتر باشد. به عنوان مثال، بخش اعلانهای نقش به صورت پررنگ هستند:
- این مقاله را برای دکتری اقتصاد خلاصه کنید.
- نحوه عملکرد جزر و مد برای یک کودک ده ساله را شرح دهید.
- بحران مالی 2008 را توضیح دهید. همانطور که ممکن است با یک کودک خردسال یا یک گلدن رتریور صحبت کنید.
اس
تنظیم سریع نرم
تکنیکی برای تنظیم یک مدل زبان بزرگ برای یک کار خاص، بدون تنظیم دقیق منابع. به جای آموزش مجدد همه وزنه ها در مدل، تنظیم اعلان نرم به طور خودکار یک اعلان را برای رسیدن به همان هدف تنظیم می کند.
با توجه به یک اعلان متنی، تنظیم اعلان نرم معمولاً جاسازیهای توکن اضافی را به اعلان اضافه میکند و از پس انتشار برای بهینهسازی ورودی استفاده میکند.
یک اعلان "سخت" به جای جاسازی توکن حاوی نشانه های واقعی است.
تی
دما
یک فراپارامتر که درجه تصادفی بودن خروجی یک مدل را کنترل می کند. دماهای بالاتر منجر به خروجی تصادفی بیشتر می شود، در حالی که دمای پایین تر منجر به خروجی تصادفی کمتر می شود.
انتخاب بهترین دما به کاربرد خاص و خواص ترجیحی خروجی مدل بستگی دارد. برای مثال، احتمالاً هنگام ایجاد برنامهای که خروجی خلاقانه ایجاد میکند، دما را افزایش میدهید. برعکس، احتمالاً هنگام ساخت مدلی که تصاویر یا متن را طبقه بندی می کند، دما را کاهش می دهید تا دقت و سازگاری مدل را بهبود بخشد.
دما اغلب با softmax استفاده می شود.
ز
درخواست ضربه صفر
درخواستی که مثالی از نحوه پاسخگویی مدل زبان بزرگ ارائه نمی دهد. به عنوان مثال:
بخش هایی از یک فرمان | یادداشت ها |
---|---|
واحد پول رسمی کشور مشخص شده چیست؟ | سوالی که می خواهید LLM به آن پاسخ دهد. |
هند: | پرس و جو واقعی |
مدل زبان بزرگ ممکن است با یکی از موارد زیر پاسخ دهد:
- روپیه
- INR
- ₹
- روپیه هند
- روپیه
- روپیه هند
همه پاسخ ها صحیح هستند، اگرچه ممکن است فرمت خاصی را ترجیح دهید.
اعلان صفر شات را با عبارات زیر مقایسه و کنتراست کنید: