Ta strona zawiera hasła z glosariusza dotyczące generatywnej AI. Aby poznać wszystkie terminy z glosariusza, kliknij tutaj.
A
automatyczna ocena
Korzystanie z oprogramowania do oceny jakości danych wyjściowych modelu.
Gdy dane wyjściowe modelu są stosunkowo proste, skrypt lub program może porównać je z złotą odpowiedzią. Ten typ automatycznej oceny jest czasem nazywany automatyczną oceną. Dane takie jak ROUGE lub BLEU są często przydatne do automatycznej oceny.
Gdy dane wyjściowe modelu są złożone lub nie ma jednej prawidłowej odpowiedzi, automatyczna ocena jest czasami wykonywana przez oddzielny program ML o nazwie autorater.
Porównaj z weryfikacją manualną.
autorater evaluation
Hybrydowy mechanizm oceny jakości danych wyjściowych modelu generatywnej AI, który łączy ocenę manualną z oceną automatyczną. Autor tekstów to model ML trenowany na podstawie danych utworzonych przez ludzi. W idealnej sytuacji narzędzie automatyczne uczy się naśladować ludzkiego weryfikatora.Dostępne są gotowe autory, ale najlepsze autory są dopasowywane do konkretnego zadania, które oceniasz.
model autoregresyjny
model, który wyprowadza prognozę na podstawie swoich poprzednich prognoz. Na przykład autoregresyjne modele językowe przewidują następny token na podstawie wcześniej przewidzianych tokenów. Wszystkie duże modele językowe oparte na transformerach są autoregresyjne.
Z kolei modele obrazów oparte na GAN zwykle nie są autoregresyjne, ponieważ generują obraz w jednym przejeździe do przodu, a nie w kolejnych krokach. Jednak niektóre modele do generowania obrazów są autoregresyjne, ponieważ generują obraz krok po kroku.
C
wykorzystanie w prompcie łańcucha myśli
Technika zastosowania prompta, która zachęca duży model językowy (LLM) do wyjaśniania krok po kroku swojego rozumowania. Weź pod uwagę tę prośbę, zwracając szczególną uwagę na drugie zdanie:
Ile g siły przyspieszenia odczuwa kierowca w samochodzie, który przyspiesza z 0 do 60 mil na godzinę w 7 sekund? W odpowiedzi podaj wszystkie istotne obliczenia.
Odpowiedź LLM:
- Wyświetl sekwencję wzorów fizycznych, podając w odpowiednich miejscach wartości 0, 60 i 7.
- Wyjaśnij, dlaczego wybrano te wzory i co oznaczają poszczególne zmienne.
Prompty typu „ciąg myśli” zmuszają LLM do wykonania wszystkich obliczeń, co może skutkować bardziej poprawną odpowiedzią. Ponadto prompt łańcucha myślenia umożliwia użytkownikowi sprawdzenie kroków LLM, aby określić, czy odpowiedź ma sens.
czat
Treść dialogu z systemem ML, zwykle z dużym modelem językowym. Poprzednia interakcja w czacie (to, co wpisujesz i jak duży model językowy reaguje) staje się kontekstem dla kolejnych części czatu.
Czatbot to aplikacja oparta na dużym modelu językowym.
kontekstowy wektor dystrybucyjny języka
Wyraźnie, które zbliża się do „rozumienia” słów i wyrażeń w sposób zbliżony do tego, w jaki robią to użytkownicy będący rodzimymi użytkownikami języka. Umieszczanie w kontekście za pomocą wektorów osadzonych w języku pozwala zrozumieć złożoną składnię, semantykę i kontekst.
Rozważmy na przykład wektory zastępcze słowa cow (ang. „krowa”). Starsze wektory zanurzeniowe, takie jak word2vec, mogą reprezentować angielskie słowa w taki sposób, że odległość w przestrzeni wektorów zanurzeniowych od cow do bull jest podobna do odległości od ewe do ram (samiec owcy) lub od female do male (samiec). Umieszczanie w kontekście zasobów danych językowych może być jeszcze bardziej przydatne, ponieważ pozwala rozpoznać, że użytkownicy języka angielskiego czasami używają słowa cow (krowa) w oznaczaniu zarówno krowy, jak i byka.
okno kontekstu
Liczba tokenów, które model może przetworzyć w danym promptzie. Im większe okno kontekstu, tym więcej informacji może wykorzystać model, aby udzielić spójnych i konsekwentnych odpowiedzi na prompt.
D
bezpośrednie prompty
Synonim promptów „zero-shot”.
destylacja
Proces zmniejszania rozmiaru jednego modelu (nazywanego nauczycielem) do mniejszego modelu (nazywanego uczniem), który emuluje prognozy oryginalnego modelu w jak najbardziej wierny sposób. Distillation jest przydatna, ponieważ mniejszy model ma 2 kluczowe zalety w porównaniu z większym modelem (nauczycielem):
- Krótszy czas wnioskowania
- Zmniejszone zużycie pamięci i energii
Prognozy ucznia są jednak zwykle gorsze niż prognozy nauczyciela.
Destylacja trenuje model ucznia, aby zminimalizować funkcję straty na podstawie różnicy między wynikami przewidywań modelu ucznia i nauczyciela.
Porównaj destylację z tymi pojęciami:
Więcej informacji znajdziesz w artykule LLMs: Fine-tuning, distillation, and prompt engineering z szybkiego szkolenia z uczenia maszynowego.
E
evals
Jest to głównie skrót od oceny LLM. Ogólnie rzecz biorąc, evals to skrót od dowolnej formy oceny.
ocena
Proces pomiaru jakości modelu lub porównywania różnych modeli.
Aby ocenić nadzorowany model uczenia maszynowego, zwykle porównujemy go z zestawami danych i zestawami danych testowych. Ocena modelu LLMzazwyczaj obejmuje szerszą ocenę jakości i bezpieczeństwa.
F
zgodność z prawdą
W świecie ML: właściwość opisująca model, którego dane wyjściowe są oparte na rzeczywistości. Rzetelność to pojęcie, a nie rodzaj danych. Załóżmy na przykład, że wysyłasz do dużego modelu językowego ten prompt:
Jaka jest formuła chemiczna soli kuchennej?
Model optymalizujący trafność odpowiedzi:
NaCl
Kuszące jest założenie, że wszystkie modele powinny opierać się na faktach. Jednak niektóre prompty, takie jak te, powinny powodować, że model generatywnej AI będzie optymalizował kreatywność, a nie rzeczywistość.
Powiedz mi limericka o astronaucie i gąsienicy.
Jest mało prawdopodobne, aby powstały limerick był oparty na rzeczywistości.
Kontrastuje z uziemieniem.
prompty „few-shot”
prompt zawierający więcej niż 1 (czyli „kilka”) przykładów pokazujących, jak duży model językowy powinien odpowiadać. Na przykład poniższy długi prompt zawiera 2 przykłady, które pokazują dużemu modelowi językowemu, jak odpowiadać na zapytanie.
Części jednego promptu | Uwagi |
---|---|
Jaka jest oficjalna waluta w wybranym kraju? | Pytanie, na które chcesz uzyskać odpowiedź od modelu LLM. |
Francja: EUR | Przykład: |
Wielka Brytania: GBP | Inny przykład |
Indie: | rzeczywiste zapytanie, |
Prompty „few-shot” zwykle przynoszą lepsze wyniki niż prompty „zero-shot” i „one-shot”. Prompty „few-shot” wymagają jednak dłuższego promptu.
Prompty „few-shot” to forma uczenia się typu „few-shot”, która wykorzystuje uczenie się na podstawie promptów.
Więcej informacji znajdziesz w sekcji Projektowanie promptów w szybkim szkoleniu z uczenia maszynowego.
dostrojenie
Drugi przejazd treningowy, który dotyczy konkretnego zadania i jest wykonywany na wytrenowanym wcześniej modelu w celu dostosowania jego parametrów do konkretnego zastosowania. Przykładowa pełna sekwencja trenowania niektórych dużych modeli językowych:
- Wstępne trenowanie: trenowanie dużego modelu językowego na ogromnym ogólnym zbiorze danych, takim jak wszystkie strony Wikipedii w języku angielskim.
- Dostosowywanie: wytrenowanie wstępnie wytrenowanego modelu do wykonywania konkretnego zadania, np. odpowiadania na pytania medyczne. Dostrojenie polega zwykle na wykorzystaniu setek lub tysięcy przykładów dotyczących konkretnego zadania.
Innym przykładem jest pełna sekwencja trenowania dużego modelu obrazu:
- Wstępne trenowanie: trenowanie dużego modelu obrazów na olbrzymim ogólnym zbiorze danych, takim jak wszystkie obrazy w Wikimedia Commons.
- Dostrojenie: wytrenowanie wstępnie przeszkolonego modelu do wykonywania konkretnego zadania, np. generowania obrazów orek.
Dostosowanie dokładne może obejmować dowolną kombinację tych strategii:
- zmodyfikować wszystkie istniejące parametry wytrenowanego wcześniej modelu; Czasami nazywa się to pełnym dostrojeniem.
- Modyfikowanie tylko niektórych istniejących parametrów wstępnie wytrenowanego modelu (zazwyczaj warstw najbliżej warstwy wyjściowej), przy zachowaniu innych istniejących parametrów (zazwyczaj warstw najbliżej wejściowej warstwy). Zapoznaj się z artykułem Optymalizacja pod kątem wydajności parametrów.
- Dodawanie kolejnych warstw, zwykle na wierzchu istniejących warstw najbliżej warstwy wyjściowej.
Dostrojenie to forma uczenia się przez przenoszenie. W ramach dostrojenia można użyć innej funkcji utraty lub innego typu modelu niż te, które zostały użyte do trenowania wstępnie wytrenowanego modelu. Możesz na przykład dostosować wstępnie wytrenowany model dużych obrazów, aby uzyskać model regresji zwracający liczbę ptaków na obrazie wejściowym.
Porównaj dostosowanie do tych terminów:
Więcej informacji znajdziesz w części Dostrojenie w Szybkim szkoleniu z uczenia maszynowego.
ułamek sukcesów
Dane służące do oceny wygenerowanego tekstu przez model ML. Ułamek sukcesów to liczba „udanych” wygenerowanych tekstów wyjściowych podzielona przez łączną liczbę wygenerowanych tekstów wyjściowych. Jeśli na przykład duży model językowy wygenerował 10 bloków kodu, z których 5 było pomyślnych, odsetek sukcesów wyniesie 50%.
Chociaż odsetek sukcesów jest przydatny w różnych statystykach, w ML ten wskaźnik jest przydatny głównie do pomiaru weryfikowalnych zadań, takich jak generowanie kodu czy rozwiązywanie problemów matematycznych.
G
Gemini
Ekosystem obejmujący najbardziej zaawansowaną AI od Google. Elementy tego ekosystemu to:
- różne modele Gemini.
- Interaktywny interfejs konwersacyjny do modelu Gemini. Użytkownicy wpisują prompty, a Gemini na nie odpowiada.
- różne interfejsy Gemini API.
- różne usługi biznesowe oparte na modelach Gemini, np. Gemini dla Google Cloud.
Modele Gemini
Najnowocześniejsze modele multimodalne oparte na Transformerze od Google. Modele Gemini zostały zaprojektowane specjalnie do integracji z agentami.
Użytkownicy mogą wchodzić w interakcje z modelami Gemini na różne sposoby, m.in. za pomocą interaktywnego interfejsu dialogowego i pakietów SDK.
wygenerowany tekst
Ogólnie tekst generowany przez model ML. Podczas oceny dużych modeli językowych niektóre dane porównują wygenerowany tekst z tekstem odniesienia. Załóżmy na przykład, że chcesz sprawdzić, jak skutecznie model ML tłumaczy z języka francuskiego na holenderski. W tym przypadku:
- Wygenerowany tekst to tłumaczenie na język niderlandzki, które generuje model uczenia maszynowego.
- Tekst referencyjny to tłumaczenie na język niderlandzki, które zostało utworzone przez tłumacza (lub oprogramowanie).
Pamiętaj, że niektóre strategie oceny nie uwzględniają tekstu odniesienia.
generatywnej AI
Nowe, rewolucyjne pole, które nie ma formalnej definicji. Większość ekspertów zgadza się jednak, że modele generatywnej AI mogą tworzyć („generować”) treści, które:
- złożone
- spójny
- oryginał
Na przykład model generatywnej AI może tworzyć zaawansowane eseje lub obrazy.
Niektóre starsze technologie, w tym sieci LSTM i sieci RNN, również mogą generować oryginalne i spójne treści. Niektórzy eksperci uważają, że te wcześniejsze technologie są generatywną AI, podczas gdy inni uważają, że prawdziwa generatywna AI wymaga bardziej złożonego wyjścia niż te wcześniejsze technologie.
W przeciwieństwie do systemów ML prognozujących.
złota odpowiedź
Odpowiedź, która jest uznana za dobrą. Na przykład w przypadku tego prompta:
2 + 2
Najlepszą odpowiedzią jest:
4
H
sprawdzenie przez weryfikatora
Proces, w którym ludzie oceniają jakość danych wyjściowych modelu AI; na przykład dwujęzyczne osoby oceniają jakość modelu tłumaczenia maszynowego. Weryfikacja manualna jest szczególnie przydatna do oceny modeli, które nie mają jednej prawidłowej odpowiedzi.
Porównaj z automatyczną oceną i ocenianiem przez autoratera.
z udziałem człowieka (HITL),
luźno zdefiniowany idiom, który może oznaczać jedno z tych wyrażeń:
- Zasady dotyczące krytycznego lub sceptycznego podejścia do wyników generatywnej AI. Na przykład autorzy tego słownika ML są pod wrażeniem tego, co potrafią duże modele językowe, ale zdają sobie sprawę z błędów, które popełniają.
- Strategia lub system zapewniający, że ludzie pomagają kształtować, oceniać i ulepszać zachowanie modelu. Dzięki temu, że człowiek jest w ciągły sposób informowany o działaniach AI, system może korzystać zarówno z inteligencji maszynowej, jak i ludzkiej. Na przykład system, w którym AI generuje kod, który następnie jest sprawdzany przez inżynierów oprogramowania, jest systemem z ludzkim udziałem.
I
uczenie się w kontekście
Synonim promptów „few-shot”.
dostrajanie przy użyciu instrukcji
Forma dostrojenia, która zwiększa zdolność modelu generatywnej AI do wykonywania poleceń. Dostrajanie przy użyciu instrukcji polega na trenowaniu modelu na podstawie serii promptów instrukcji, które zwykle obejmują wiele różnych zadań. Powstały w ten sposób model dostosowany do instrukcji zwykle generuje przydatne odpowiedzi na prompty bez przykładów w różnych zadaniach.
Porównaj z:
L
LLM
Skrót od duży model językowy.
Oceny LLM (evals)
Zestaw danych i punktów odniesienia do oceny skuteczności dużych modeli językowych (LLM). Ogólnie oceny LLM:
- Pomagać badaczom w określaniu obszarów, w których modele LLM wymagają poprawy.
- przydają się do porównywania różnych modeli LLM i określania, który z nich najlepiej nadaje się do danego zadania;
- pomagać w zapewnieniu bezpieczeństwa i zgody z zasadami etycznymi w przypadku modeli LLM.
LoRA
Skrót od Low-Rank Adaptation.
Adaptacja niskiego rzędu (LoRA)
Techniczne zagadnienia dotyczące parametrów dotyczące dokładnego dostrojenia, które polega na „zamrożeniu” wstępnie wytrenowanych wag modelu (aby nie można ich było już modyfikować), a następnie wstawianiu do modelu małego zestawu wag do trenowania. Ten zbiór trenowanych wag (znany też jako „macierze aktualizacji”) jest znacznie mniejszy niż model podstawowy, a więc jego trenowanie przebiega znacznie szybciej.
LoRA zapewnia te korzyści:
- Poprawia jakość prognoz modelu w przypadku domeny, w której zastosowano dostrajanie.
- Szybciej dostosowuje model niż techniki, które wymagają dostosowania wszystkich jego parametrów.
- Zmniejsza koszt obliczeń wywnioskowania przez umożliwienie jednoczesnego obsługiwania wielu wyspecjalizowanych modeli, które mają ten sam model podstawowy.
M
tłumaczenie maszynowe
Korzystanie z oprogramowania (zazwyczaj modelu systemów uczących się) do konwertowania tekstu z jednego języka na inny, np. z angielskiego na japoński.
średnia średnia precyzja w k (mAP@k)
Statystyczna średnia wszystkich wyników średniej precyzji na k w przypadku zbioru danych do weryfikacji. Średnia średnia dokładność w k służy m.in. do oceny jakości rekomendacji generowanych przez system rekomendacji.
Chociaż wyrażenie „średnia średnia” brzmi niepotrzebnie, nazwa tego wskaźnika jest odpowiednia. Ten wskaźnik oblicza średnią średnią dokładność w przypadku k wartości.
mieszanka ekspertów
Schemat zwiększania wydajności sieci neuronowej przez wykorzystanie tylko podzbioru jej parametrów (zwanego ekspertem) do przetwarzania danego wejściowego tokena lub przykładu. Gating network kieruje każdy token wejściowy lub przykład do odpowiednich ekspertów.
Szczegółowe informacje znajdziesz w tych artykułach:
- Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer
- Mieszanie ekspertów z wyborem eksperta – kierowanie
MMIT
Skrót od multimodal instruction-tuned.
model kaskadowy
System, który wybiera idealny model do konkretnego zapytania o wyznaczanie wniosków.
Wyobraź sobie grupę modeli, od bardzo dużych (wiele parametrów) do znacznie mniejszych (znacznie mniej parametrów). Bardzo duże modele zużywają więcej zasobów obliczeniowych na etapie wyciągania wniosków niż mniejsze modele. Jednak bardzo duże modele mogą zwykle wyciągać wnioski na podstawie bardziej złożonych żądań niż mniejsze modele. Modele kaskadowe określają złożoność zapytania wnioskowania, a następnie wybierają odpowiedni model do wykonania wnioskowania. Głównym powodem stosowania kaskadowego modelowania jest obniżenie kosztów wnioskowania przez wybieranie zazwyczaj mniejszych modeli i tylko większych modeli w przypadku bardziej złożonych zapytań.
Załóżmy, że mały model działa na telefonie, a większa wersja tego modelu działa na zdalnym serwerze. Dobre kaskadowe stosowanie modeli zmniejsza koszty i opóźnienia, ponieważ umożliwia mniejszym modelom obsługę prostych żądań i wywoływanie tylko modelu zdalnego do obsługi złożonych żądań.
Zobacz też model routera.
model routera
Algorytm, który określa idealny model do wykorzystywania w kaskadowaniu modeli. Przekaźnik modeli to zwykle model systemów uczących się, który stopniowo uczy się, jak wybrać najlepszy model dla danego wejścia. Model routera może jednak czasami być prostszym algorytmem, który nie wykorzystuje uczenia maszynowego.
MOE
Skrót od mixture of experts.
MT
Skrót od tłumaczenia maszynowego.
N
no one right answer (NORA)
prompt zawierający kilka odpowiednich odpowiedzi. Na przykład ten prompt nie ma jednej prawidłowej odpowiedzi:
Opowiedz mi kawał o słoniach.
Ocenianie promptów z brakiem jednoznacznej odpowiedzi może być trudne.
NORA
Skrót od brak prawidłowej odpowiedzi.
O
prompty „one-shot”
prompt zawierający jeden przykład pokazujący, jak duży model językowy powinien odpowiadać. Na przykład poniższy prompt zawiera jeden przykład pokazujący dużemu modelowi językowemu, jak powinien odpowiedzieć na zapytanie.
Części jednego promptu | Uwagi |
---|---|
Jaka jest oficjalna waluta w wybranym kraju? | Pytanie, na które chcesz uzyskać odpowiedź od modelu LLM. |
Francja: EUR | Przykład: |
Indie: | rzeczywiste zapytanie, |
Porównaj promptowanie jednorazowe z tymi terminami:
P
dostrajanie z optymalnym wykorzystaniem parametrów
Zestaw technik dostrajania dużego wstępnie wytrenowanego modelu językowego (PLM) w bardziej efektywny sposób niż pełne dostrajanie. Dostrajanie konkretnych parametrów zwykle dotyczy znacznie mniejszej liczby parametrów niż pełne dostrajanie, ale ogólnie tworzy duży model językowy, który działa tak samo dobrze (lub prawie tak samo dobrze) jak duży model językowy utworzony na podstawie pełnego dostrajania.
Porównaj dostrajanie z uwzględnieniem wydajności parametrów z:
Dostrajanie z uwzględnieniem wydajności parametrów to także dostrajanie z uwzględnieniem wydajności parametrów.
PLM
Skrót od wytrenowanego modelu językowego.
model po trenowaniu
Luźno zdefiniowany termin, który zwykle odnosi się do wytrenowanego wstępnie modelu, który przeszedł pewien proces przetwarzania w treningu, np. jeden lub więcej z tych elementów:
wytrenowany model
Zwykle jest to model, który został już wytrenowany. Termin ten może też oznaczać wcześniej wytrenowany wektor zanurzeniowy.
Termin wstępnie wytrenowany model językowy zwykle odnosi się do już wytrenowanego dużego modelu językowego.
przed treningiem
Wstępne trenowanie modelu na dużym zbiorze danych. Niektóre wytrenowane wstępnie modele są niezgrabnymi olbrzymami i zwykle trzeba je dopracować, przeprowadzając dodatkowe szkolenie. Na przykład eksperci od uczenia maszynowego mogą wstępnie wytrenować duży model językowy na podstawie ogromnego zbioru danych tekstowych, takiego jak wszystkie strony w języku angielskim w Wikipedii. Po wstępnym trenowaniu model może zostać dopracowany za pomocą jednej z tych technik:
- distillation
- dokładne dopasowanie,
- dostrajanie instrukcji
- dostrajanie z optymalnym wykorzystaniem parametrów
- prompt-tuning
prompt
dowolny tekst wprowadzony jako dane wejściowe do dużego modelu językowego, aby model zachowywał się w określony sposób. Prompty mogą być krótkie (wyrażenie) lub dowolnie długie (np. cały tekst powieści). Prompty dzielą się na kilka kategorii, m.in. te wymienione w tabeli poniżej:
Kategoria promptu | Przykład | Uwagi |
---|---|---|
Pytanie | Jak szybko potrafi latać gołąb? | |
Instrukcja | Napisz zabawny wiersz o arbitrażu. | Prompt, który prosi duży model językowy o coś zrobienie. |
Przykład | Przekształcaj kod Markdown w kod HTML. Na przykład: Markdown: * element listy HTML: <ul> <li>element listy</li> </ul> |
Pierwsze zdanie w tym przykładowym promptu to instrukcja. Pozostała część promptu to przykład. |
Rola | Wyjaśnij, dlaczego w przypadku osób z doktoratem z fizyki stosuje się w uczeniu maszynowym metodę gradientu prostego. | Pierwsza część zdania to instrukcja, a wyrażenie „doktorat z fizyki” to część dotycząca roli. |
Częściowe dane wejściowe dla modelu | Premier Wielkiej Brytanii mieszka pod adresem | Prompt dotyczący częściowego wprowadzania danych może kończyć się nagle (jak w tym przykładzie) lub podkreśleniem. |
Model generatywnej AI może odpowiadać na prompt tekstem, kodem, obrazami, embeddingami, filmami... prawie wszystkim.
nauka oparta na promptach,
Umiejętność niektórych modeli, która umożliwia im dostosowanie ich zachowania w odpowiedzi na dowolny tekst wejściowy (prompty). W ramach typowej paradygmatu uczenia się na podstawie promptów duży model językowy odpowiada na prompt, generując tekst. Załóżmy na przykład, że użytkownik wpisuje ten prompt:
Opisz trzecią zasadę dynamiki Newtona.
Model zdolny do uczenia się na podstawie promptów nie jest specjalnie trenowany do odpowiadania na poprzedni prompt. Model „zna” wiele faktów z fizyki, wiele o ogólnych regułach językowych i wiele o tym, co stanowi ogólnie przydatne odpowiedzi. Ta wiedza wystarczy, aby udzielić (miejmy nadzieję) przydatnej odpowiedzi. Dodatkowe opinie użytkowników (np. „Ta odpowiedź była zbyt skomplikowana” lub „Co sądzisz?”) umożliwiają niektórym systemom uczącym się na podstawie promptów stopniowe polepszanie przydatności odpowiedzi.
projektowanie promptów
Synonim tworzenia promptów.
tworzenie promptów
Sztuka tworzenia promptów, które wywołują pożądane odpowiedzi dużych modeli językowych. prompty są tworzone przez ludzi. Pisanie dobrze sformatowanych promptów jest kluczowe, aby uzyskać przydatne odpowiedzi od dużego modelu językowego. Projektowanie promptów zależy od wielu czynników, w tym:
- Zbiór danych użyty do wstępnego trenowania i ewentualnego dostrajania dużego modelu językowego.
- temperaturę i inne parametry dekodowania, których model używa do generowania odpowiedzi.
Więcej informacji o tworzeniu przydatnych promptów znajdziesz w artykule Wprowadzenie do projektowania promptów.
Projektowanie promptów to synonim tworzenia promptów.
dostrajanie promptów
Mechanizm skutecznego doboru parametrów, który uczy się „prefiksu”, który system dołącza do rzeczywistego promptu.
Jedną z wariacji dostrajania promptu – czasami nazywanego dostrajaniem prefiksu – jest dodawanie prefiksu do każdej warstwy. Większość ustawień prompta dodaje tylko prefiks do warstwy wejściowej.
R
tekst referencyjny
odpowiedź eksperta na prompt. Na przykład:
Przetłumacz pytanie „Jak masz na imię?” z angielskiego na francuski.
Odpowiedź eksperta może wyglądać tak:
Comment vous appelez-vous ?
Różne wskaźniki (np. ROUGE) mierzą stopień, w jakim tekst referencyjny pasuje do tekstu wygenerowanego przez model AI.
Uczenie przez wzmacnianie na podstawie opinii użytkowników (RLHF)
Korzystanie z opinii weryfikatorów, aby poprawić jakość odpowiedzi modelu. Na przykład mechanizm RLHF może prosić użytkowników o ocena jakości odpowiedzi modelu za pomocą emotikonów 👍 lub 👎. System może następnie dostosować swoje przyszłe odpowiedzi na podstawie tych informacji.
prompty dotyczące ról
Opcjonalna część prompta, która identyfikuje odbiorców docelowych odpowiedzi modelu generatywnej AI. Bez promptu duży model językowy podaje odpowiedź, która może być przydatna dla osoby zadającej pytanie, a może nie. Za pomocą prompta o roli duży model językowy może udzielać odpowiedzi w sposób bardziej odpowiedni i przydatny dla konkretnej grupy odbiorców. Na przykład w tych promptach pogrubiliśmy fragmenty dotyczące ról:
- Streść ten artykuł dla osoby z doktoratem z ekonomii.
- Opisz, jak działają pływy dziecku w wieku 10 lat.
- Wyjaśnij kryzys finansowy z 2008 r. Mów tak, jak do małego dziecka lub złotego retrievera.
S
dostosowanie promptów,
Technika dostosowywania dużego modelu językowego do konkretnego zadania bez korzystania z wielu zasobów w ramach dokładnego dostrajania. Zamiast ponownego trenowania wszystkich wag w modelu, dostrajanie za pomocą promptów miękkich automatycznie dostosowuje prompt, aby osiągnąć ten sam cel.
W przypadku promptu tekstowego dostosowanie promptu zwykle polega na dołączeniu do promptu dodatkowych zaszyfrowanych tokenów i użyciu odwrotnej propagacji do optymalizacji danych wejściowych.
„Twardy” prompt zawiera tokeny zamiast ich zaimplementowania.
T
temperatura
parametr nadrzędny, który kontroluje stopień losowości danych wyjściowych modelu. Wyższe temperatury powodują bardziej losowe wyniki, a niższe – mniej losowe.
Wybór najlepszej temperatury zależy od konkretnego zastosowania i preferowanych właściwości wyników modelu. Na przykład prawdopodobnie podniesiesz temperaturę, gdy tworzysz aplikację, która generuje kreacje. Z kolei, aby zwiększyć dokładność i spójność modelu, który klasyfikuje obrazy lub tekst, prawdopodobnie obniżysz temperaturę.
Temperatura jest często używana z softmax.
Z
prompty „zero-shot”
prompt, który nie podaje przykładu tego, jak chcesz, aby duży model językowy odpowiadał. Na przykład:
Części jednego promptu | Uwagi |
---|---|
Jaka jest oficjalna waluta w wybranym kraju? | Pytanie, na które chcesz uzyskać odpowiedź od modelu LLM. |
Indie: | rzeczywiste zapytanie, |
Duży model językowy może odpowiedzieć:
- Rupia
- INR
- ₹
- Rupia indyjska
- Rupia
- rupia indyjska,
Wszystkie odpowiedzi są prawidłowe, ale możesz preferować określony format.
Porównaj promptowanie bez przykładów z tymi pojęciami: