Słowniczek systemów uczących się: generatywna AI

Ta strona zawiera hasła z glosariusza dotyczące generatywnej AI. Aby poznać wszystkie terminy z glosariusza, kliknij tutaj.

A

automatyczna ocena

#language
#generativeAI

Korzystanie z oprogramowania do oceny jakości danych wyjściowych modelu.

Gdy dane wyjściowe modelu są stosunkowo proste, skrypt lub program może porównać je z złotą odpowiedzią. Ten typ automatycznej oceny jest czasem nazywany automatyczną oceną. Dane takie jak ROUGE lub BLEU są często przydatne do automatycznej oceny.

Gdy dane wyjściowe modelu są złożone lub nie ma jednej prawidłowej odpowiedzi, automatyczna ocena jest czasami wykonywana przez oddzielny program ML o nazwie autorater.

Porównaj z weryfikacją manualną.

autorater evaluation

#language
#generativeAI
Hybrydowy mechanizm oceny jakości danych wyjściowych modelu generatywnej AI, który łączy ocenę manualną z oceną automatyczną. Autor tekstów to model ML trenowany na podstawie danych utworzonych przez ludzi. W idealnej sytuacji narzędzie automatyczne uczy się naśladować ludzkiego weryfikatora.

Dostępne są gotowe autory, ale najlepsze autory są dopasowywane do konkretnego zadania, które oceniasz.

model autoregresyjny

#language
#image
#generativeAI

model, który wyprowadza prognozę na podstawie swoich poprzednich prognoz. Na przykład autoregresyjne modele językowe przewidują następny token na podstawie wcześniej przewidzianych tokenów. Wszystkie duże modele językowe oparte na transformerach są autoregresyjne.

Z kolei modele obrazów oparte na GAN zwykle nie są autoregresyjne, ponieważ generują obraz w jednym przejeździe do przodu, a nie w kolejnych krokach. Jednak niektóre modele do generowania obrazów autoregresyjne, ponieważ generują obraz krok po kroku.

C

wykorzystanie w prompcie łańcucha myśli

#language
#generativeAI

Technika zastosowania prompta, która zachęca duży model językowy (LLM) do wyjaśniania krok po kroku swojego rozumowania. Weź pod uwagę tę prośbę, zwracając szczególną uwagę na drugie zdanie:

Ile g siły przyspieszenia odczuwa kierowca w samochodzie, który przyspiesza z 0 do 60 mil na godzinę w 7 sekund? W odpowiedzi podaj wszystkie istotne obliczenia.

Odpowiedź LLM:

  • Wyświetl sekwencję wzorów fizycznych, podając w odpowiednich miejscach wartości 0, 60 i 7.
  • Wyjaśnij, dlaczego wybrano te wzory i co oznaczają poszczególne zmienne.

Prompty typu „ciąg myśli” zmuszają LLM do wykonania wszystkich obliczeń, co może skutkować bardziej poprawną odpowiedzią. Ponadto prompt łańcucha myślenia umożliwia użytkownikowi sprawdzenie kroków LLM, aby określić, czy odpowiedź ma sens.

czat

#language
#generativeAI

Treść dialogu z systemem ML, zwykle z dużym modelem językowym. Poprzednia interakcja w czacie (to, co wpisujesz i jak duży model językowy reaguje) staje się kontekstem dla kolejnych części czatu.

Czatbot to aplikacja oparta na dużym modelu językowym.

kontekstowy wektor dystrybucyjny języka

#language
#generativeAI

Wyraźnie, które zbliża się do „rozumienia” słów i wyrażeń w sposób zbliżony do tego, w jaki robią to użytkownicy będący rodzimymi użytkownikami języka. Umieszczanie w kontekście za pomocą wektorów osadzonych w języku pozwala zrozumieć złożoną składnię, semantykę i kontekst.

Rozważmy na przykład wektory zastępcze słowa cow (ang. „krowa”). Starsze wektory zanurzeniowe, takie jak word2vec, mogą reprezentować angielskie słowa w taki sposób, że odległość w przestrzeni wektorów zanurzeniowych od cow do bull jest podobna do odległości od ewe do ram (samiec owcy) lub od female do male (samiec). Umieszczanie w kontekście zasobów danych językowych może być jeszcze bardziej przydatne, ponieważ pozwala rozpoznać, że użytkownicy języka angielskiego czasami używają słowa cow (krowa) w oznaczaniu zarówno krowy, jak i byka.

okno kontekstu

#language
#generativeAI

Liczba tokenów, które model może przetworzyć w danym promptzie. Im większe okno kontekstu, tym więcej informacji może wykorzystać model, aby udzielić spójnych i konsekwentnych odpowiedzi na prompt.

D

bezpośrednie prompty

#language
#generativeAI

Synonim promptów „zero-shot”.

destylacja

#generativeAI

Proces zmniejszania rozmiaru jednego modelu (nazywanego nauczycielem) do mniejszego modelu (nazywanego uczniem), który emuluje prognozy oryginalnego modelu w jak najbardziej wierny sposób. Distillation jest przydatna, ponieważ mniejszy model ma 2 kluczowe zalety w porównaniu z większym modelem (nauczycielem):

  • Krótszy czas wnioskowania
  • Zmniejszone zużycie pamięci i energii

Prognozy ucznia są jednak zwykle gorsze niż prognozy nauczyciela.

Destylacja trenuje model ucznia, aby zminimalizować funkcję straty na podstawie różnicy między wynikami przewidywań modelu ucznia i nauczyciela.

Porównaj destylację z tymi pojęciami:

Więcej informacji znajdziesz w artykule LLMs: Fine-tuning, distillation, and prompt engineering z szybkiego szkolenia z uczenia maszynowego.

E

evals

#language
#generativeAI

Jest to głównie skrót od oceny LLM. Ogólnie rzecz biorąc, evals to skrót od dowolnej formy oceny.

ocena

#language
#generativeAI

Proces pomiaru jakości modelu lub porównywania różnych modeli.

Aby ocenić nadzorowany model uczenia maszynowego, zwykle porównujemy go z zestawami danychzestawami danych testowych. Ocena modelu LLMzazwyczaj obejmuje szerszą ocenę jakości i bezpieczeństwa.

F

zgodność z prawdą

#generativeAI

W świecie ML: właściwość opisująca model, którego dane wyjściowe są oparte na rzeczywistości. Rzetelność to pojęcie, a nie rodzaj danych. Załóżmy na przykład, że wysyłasz do dużego modelu językowego ten prompt:

Jaka jest formuła chemiczna soli kuchennej?

Model optymalizujący trafność odpowiedzi:

NaCl

Kuszące jest założenie, że wszystkie modele powinny opierać się na faktach. Jednak niektóre prompty, takie jak te, powinny powodować, że model generatywnej AI będzie optymalizował kreatywność, a nie rzeczywistość.

Powiedz mi limericka o astronaucie i gąsienicy.

Jest mało prawdopodobne, aby powstały limerick był oparty na rzeczywistości.

Kontrastuje z uziemieniem.

prompty „few-shot”

#language
#generativeAI

prompt zawierający więcej niż 1 (czyli „kilka”) przykładów pokazujących, jak duży model językowy powinien odpowiadać. Na przykład poniższy długi prompt zawiera 2 przykłady, które pokazują dużemu modelowi językowemu, jak odpowiadać na zapytanie.

Części jednego promptu Uwagi
Jaka jest oficjalna waluta w wybranym kraju? Pytanie, na które chcesz uzyskać odpowiedź od modelu LLM.
Francja: EUR Przykład:
Wielka Brytania: GBP Inny przykład
Indie: rzeczywiste zapytanie,

Prompty „few-shot” zwykle przynoszą lepsze wyniki niż prompty „zero-shot” i „one-shot”. Prompty „few-shot” wymagają jednak dłuższego promptu.

Prompty „few-shot” to forma uczenia się typu „few-shot”, która wykorzystuje uczenie się na podstawie promptów.

Więcej informacji znajdziesz w sekcji Projektowanie promptów w szybkim szkoleniu z uczenia maszynowego.

dostrojenie

#language
#image
#generativeAI

Drugi przejazd treningowy, który dotyczy konkretnego zadania i jest wykonywany na wytrenowanym wcześniej modelu w celu dostosowania jego parametrów do konkretnego zastosowania. Przykładowa pełna sekwencja trenowania niektórych dużych modeli językowych:

  1. Wstępne trenowanie: trenowanie dużego modelu językowego na ogromnym ogólnym zbiorze danych, takim jak wszystkie strony Wikipedii w języku angielskim.
  2. Dostosowywanie: wytrenowanie wstępnie wytrenowanego modelu do wykonywania konkretnego zadania, np. odpowiadania na pytania medyczne. Dostrojenie polega zwykle na wykorzystaniu setek lub tysięcy przykładów dotyczących konkretnego zadania.

Innym przykładem jest pełna sekwencja trenowania dużego modelu obrazu:

  1. Wstępne trenowanie: trenowanie dużego modelu obrazów na olbrzymim ogólnym zbiorze danych, takim jak wszystkie obrazy w Wikimedia Commons.
  2. Dostrojenie: wytrenowanie wstępnie przeszkolonego modelu do wykonywania konkretnego zadania, np. generowania obrazów orek.

Dostosowanie dokładne może obejmować dowolną kombinację tych strategii:

  • zmodyfikować wszystkie istniejące parametry wytrenowanego wcześniej modelu; Czasami nazywa się to pełnym dostrojeniem.
  • Modyfikowanie tylko niektórych istniejących parametrów wstępnie wytrenowanego modelu (zazwyczaj warstw najbliżej warstwy wyjściowej), przy zachowaniu innych istniejących parametrów (zazwyczaj warstw najbliżej wejściowej warstwy). Zapoznaj się z artykułem Optymalizacja pod kątem wydajności parametrów.
  • Dodawanie kolejnych warstw, zwykle na wierzchu istniejących warstw najbliżej warstwy wyjściowej.

Dostrojenie to forma uczenia się przez przenoszenie. W ramach dostrojenia można użyć innej funkcji utraty lub innego typu modelu niż te, które zostały użyte do trenowania wstępnie wytrenowanego modelu. Możesz na przykład dostosować wstępnie wytrenowany model dużych obrazów, aby uzyskać model regresji zwracający liczbę ptaków na obrazie wejściowym.

Porównaj dostosowanie do tych terminów:

Więcej informacji znajdziesz w części Dostrojenie w Szybkim szkoleniu z uczenia maszynowego.

ułamek sukcesów

#generativeAI

Dane służące do oceny wygenerowanego tekstu przez model ML. Ułamek sukcesów to liczba „udanych” wygenerowanych tekstów wyjściowych podzielona przez łączną liczbę wygenerowanych tekstów wyjściowych. Jeśli na przykład duży model językowy wygenerował 10 bloków kodu, z których 5 było pomyślnych, odsetek sukcesów wyniesie 50%.

Chociaż odsetek sukcesów jest przydatny w różnych statystykach, w ML ten wskaźnik jest przydatny głównie do pomiaru weryfikowalnych zadań, takich jak generowanie kodu czy rozwiązywanie problemów matematycznych.

G

Gemini

#language
#image
#generativeAI

Ekosystem obejmujący najbardziej zaawansowaną AI od Google. Elementy tego ekosystemu to:

  • różne modele Gemini.
  • Interaktywny interfejs konwersacyjny do modelu Gemini. Użytkownicy wpisują prompty, a Gemini na nie odpowiada.
  • różne interfejsy Gemini API.
  • różne usługi biznesowe oparte na modelach Gemini, np. Gemini dla Google Cloud.

Modele Gemini

#language
#image
#generativeAI

Najnowocześniejsze modele multimodalne oparte na Transformerze od Google. Modele Gemini zostały zaprojektowane specjalnie do integracji z agentami.

Użytkownicy mogą wchodzić w interakcje z modelami Gemini na różne sposoby, m.in. za pomocą interaktywnego interfejsu dialogowego i pakietów SDK.

wygenerowany tekst

#language
#generativeAI

Ogólnie tekst generowany przez model ML. Podczas oceny dużych modeli językowych niektóre dane porównują wygenerowany tekst z tekstem odniesienia. Załóżmy na przykład, że chcesz sprawdzić, jak skutecznie model ML tłumaczy z języka francuskiego na holenderski. W tym przypadku:

  • Wygenerowany tekst to tłumaczenie na język niderlandzki, które generuje model uczenia maszynowego.
  • Tekst referencyjny to tłumaczenie na język niderlandzki, które zostało utworzone przez tłumacza (lub oprogramowanie).

Pamiętaj, że niektóre strategie oceny nie uwzględniają tekstu odniesienia.

generatywnej AI

#language
#image
#generativeAI

Nowe, rewolucyjne pole, które nie ma formalnej definicji. Większość ekspertów zgadza się jednak, że modele generatywnej AI mogą tworzyć („generować”) treści, które:

  • złożone
  • spójny
  • oryginał

Na przykład model generatywnej AI może tworzyć zaawansowane eseje lub obrazy.

Niektóre starsze technologie, w tym sieci LSTMsieci RNN, również mogą generować oryginalne i spójne treści. Niektórzy eksperci uważają, że te wcześniejsze technologie są generatywną AI, podczas gdy inni uważają, że prawdziwa generatywna AI wymaga bardziej złożonego wyjścia niż te wcześniejsze technologie.

W przeciwieństwie do systemów ML prognozujących.

złota odpowiedź

#language
#generativeAI

Odpowiedź, która jest uznana za dobrą. Na przykład w przypadku tego prompta:

2 + 2

Najlepszą odpowiedzią jest:

4

H

sprawdzenie przez weryfikatora

#language
#generativeAI

Proces, w którym ludzie oceniają jakość danych wyjściowych modelu AI; na przykład dwujęzyczne osoby oceniają jakość modelu tłumaczenia maszynowego. Weryfikacja manualna jest szczególnie przydatna do oceny modeli, które nie mają jednej prawidłowej odpowiedzi.

Porównaj z automatyczną ocenąocenianiem przez autoratera.

z udziałem człowieka (HITL),

#generativeAI

luźno zdefiniowany idiom, który może oznaczać jedno z tych wyrażeń:

  • Zasady dotyczące krytycznego lub sceptycznego podejścia do wyników generatywnej AI. Na przykład autorzy tego słownika ML są pod wrażeniem tego, co potrafią duże modele językowe, ale zdają sobie sprawę z błędów, które popełniają.
  • Strategia lub system zapewniający, że ludzie pomagają kształtować, oceniać i ulepszać zachowanie modelu. Dzięki temu, że człowiek jest w ciągły sposób informowany o działaniach AI, system może korzystać zarówno z inteligencji maszynowej, jak i ludzkiej. Na przykład system, w którym AI generuje kod, który następnie jest sprawdzany przez inżynierów oprogramowania, jest systemem z ludzkim udziałem.

I

uczenie się w kontekście

#language
#generativeAI

Synonim promptów „few-shot”.

dostrajanie przy użyciu instrukcji

#generativeAI

Forma dostrojenia, która zwiększa zdolność modelu generatywnej AI do wykonywania poleceń. Dostrajanie przy użyciu instrukcji polega na trenowaniu modelu na podstawie serii promptów instrukcji, które zwykle obejmują wiele różnych zadań. Powstały w ten sposób model dostosowany do instrukcji zwykle generuje przydatne odpowiedzi na prompty bez przykładów w różnych zadaniach.

Porównaj z:

L

LLM

#language
#generativeAI

Skrót od duży model językowy.

Oceny LLM (evals)

#language
#generativeAI

Zestaw danych i punktów odniesienia do oceny skuteczności dużych modeli językowych (LLM). Ogólnie oceny LLM:

  • Pomagać badaczom w określaniu obszarów, w których modele LLM wymagają poprawy.
  • przydają się do porównywania różnych modeli LLM i określania, który z nich najlepiej nadaje się do danego zadania;
  • pomagać w zapewnieniu bezpieczeństwa i zgody z zasadami etycznymi w przypadku modeli LLM.

LoRA

#language
#generativeAI

Skrót od Low-Rank Adaptation.

Adaptacja niskiego rzędu (LoRA)

#language
#generativeAI

Techniczne zagadnienia dotyczące parametrów dotyczące dokładnego dostrojenia, które polega na „zamrożeniu” wstępnie wytrenowanych wag modelu (aby nie można ich było już modyfikować), a następnie wstawianiu do modelu małego zestawu wag do trenowania. Ten zbiór trenowanych wag (znany też jako „macierze aktualizacji”) jest znacznie mniejszy niż model podstawowy, a więc jego trenowanie przebiega znacznie szybciej.

LoRA zapewnia te korzyści:

  • Poprawia jakość prognoz modelu w przypadku domeny, w której zastosowano dostrajanie.
  • Szybciej dostosowuje model niż techniki, które wymagają dostosowania wszystkich jego parametrów.
  • Zmniejsza koszt obliczeń wywnioskowania przez umożliwienie jednoczesnego obsługiwania wielu wyspecjalizowanych modeli, które mają ten sam model podstawowy.

M

tłumaczenie maszynowe

#generativeAI

Korzystanie z oprogramowania (zazwyczaj modelu systemów uczących się) do konwertowania tekstu z jednego języka na inny, np. z angielskiego na japoński.

średnia średnia precyzja w k (mAP@k)

#language
#generativeAI

Statystyczna średnia wszystkich wyników średniej precyzji na k w przypadku zbioru danych do weryfikacji. Średnia średnia dokładność w k służy m.in. do oceny jakości rekomendacji generowanych przez system rekomendacji.

Chociaż wyrażenie „średnia średnia” brzmi niepotrzebnie, nazwa tego wskaźnika jest odpowiednia. Ten wskaźnik oblicza średnią średnią dokładność w przypadku k wartości.

mieszanka ekspertów

#language
#generativeAI

Schemat zwiększania wydajności sieci neuronowej przez wykorzystanie tylko podzbioru jej parametrów (zwanego ekspertem) do przetwarzania danego wejściowego tokena lub przykładu. Gating network kieruje każdy token wejściowy lub przykład do odpowiednich ekspertów.

Szczegółowe informacje znajdziesz w tych artykułach:

MMIT

#language
#image
#generativeAI

Skrót od multimodal instruction-tuned.

model kaskadowy

#generativeAI

System, który wybiera idealny model do konkretnego zapytania o wyznaczanie wniosków.

Wyobraź sobie grupę modeli, od bardzo dużych (wiele parametrów) do znacznie mniejszych (znacznie mniej parametrów). Bardzo duże modele zużywają więcej zasobów obliczeniowych na etapie wyciągania wniosków niż mniejsze modele. Jednak bardzo duże modele mogą zwykle wyciągać wnioski na podstawie bardziej złożonych żądań niż mniejsze modele. Modele kaskadowe określają złożoność zapytania wnioskowania, a następnie wybierają odpowiedni model do wykonania wnioskowania. Głównym powodem stosowania kaskadowego modelowania jest obniżenie kosztów wnioskowania przez wybieranie zazwyczaj mniejszych modeli i tylko większych modeli w przypadku bardziej złożonych zapytań.

Załóżmy, że mały model działa na telefonie, a większa wersja tego modelu działa na zdalnym serwerze. Dobre kaskadowe stosowanie modeli zmniejsza koszty i opóźnienia, ponieważ umożliwia mniejszym modelom obsługę prostych żądań i wywoływanie tylko modelu zdalnego do obsługi złożonych żądań.

Zobacz też model routera.

model routera

#generativeAI

Algorytm, który określa idealny model do wykorzystywaniakaskadowaniu modeli. Przekaźnik modeli to zwykle model systemów uczących się, który stopniowo uczy się, jak wybrać najlepszy model dla danego wejścia. Model routera może jednak czasami być prostszym algorytmem, który nie wykorzystuje uczenia maszynowego.

MOE

#language
#image
#generativeAI

Skrót od mixture of experts.

MT

#generativeAI

Skrót od tłumaczenia maszynowego.

N

no one right answer (NORA)

#language
#generativeAI

prompt zawierający kilka odpowiednich odpowiedzi. Na przykład ten prompt nie ma jednej prawidłowej odpowiedzi:

Opowiedz mi kawał o słoniach.

Ocenianie promptów z brakiem jednoznacznej odpowiedzi może być trudne.

NORA

#language
#generativeAI

Skrót od brak prawidłowej odpowiedzi.

O

prompty „one-shot”

#language
#generativeAI

prompt zawierający jeden przykład pokazujący, jak duży model językowy powinien odpowiadać. Na przykład poniższy prompt zawiera jeden przykład pokazujący dużemu modelowi językowemu, jak powinien odpowiedzieć na zapytanie.

Części jednego promptu Uwagi
Jaka jest oficjalna waluta w wybranym kraju? Pytanie, na które chcesz uzyskać odpowiedź od modelu LLM.
Francja: EUR Przykład:
Indie: rzeczywiste zapytanie,

Porównaj promptowanie jednorazowe z tymi terminami:

P

dostrajanie z optymalnym wykorzystaniem parametrów

#language
#generativeAI

Zestaw technik dostrajania dużego wstępnie wytrenowanego modelu językowego (PLM) w bardziej efektywny sposób niż pełne dostrajanie. Dostrajanie konkretnych parametrów zwykle dotyczy znacznie mniejszej liczby parametrów niż pełne dostrajanie, ale ogólnie tworzy duży model językowy, który działa tak samo dobrze (lub prawie tak samo dobrze) jak duży model językowy utworzony na podstawie pełnego dostrajania.

Porównaj dostrajanie z uwzględnieniem wydajności parametrów z:

Dostrajanie z uwzględnieniem wydajności parametrów to także dostrajanie z uwzględnieniem wydajności parametrów.

PLM

#language
#generativeAI

Skrót od wytrenowanego modelu językowego.

model po trenowaniu

#language
#image
#generativeAI

Luźno zdefiniowany termin, który zwykle odnosi się do wytrenowanego wstępnie modelu, który przeszedł pewien proces przetwarzania w treningu, np. jeden lub więcej z tych elementów:

wytrenowany model

#language
#image
#generativeAI

Zwykle jest to model, który został już wytrenowany. Termin ten może też oznaczać wcześniej wytrenowany wektor zanurzeniowy.

Termin wstępnie wytrenowany model językowy zwykle odnosi się do już wytrenowanego dużego modelu językowego.

przed treningiem

#language
#image
#generativeAI

Wstępne trenowanie modelu na dużym zbiorze danych. Niektóre wytrenowane wstępnie modele są niezgrabnymi olbrzymami i zwykle trzeba je dopracować, przeprowadzając dodatkowe szkolenie. Na przykład eksperci od uczenia maszynowego mogą wstępnie wytrenować duży model językowy na podstawie ogromnego zbioru danych tekstowych, takiego jak wszystkie strony w języku angielskim w Wikipedii. Po wstępnym trenowaniu model może zostać dopracowany za pomocą jednej z tych technik:

prompt

#language
#generativeAI

dowolny tekst wprowadzony jako dane wejściowe do dużego modelu językowego, aby model zachowywał się w określony sposób. Prompty mogą być krótkie (wyrażenie) lub dowolnie długie (np. cały tekst powieści). Prompty dzielą się na kilka kategorii, m.in. te wymienione w tabeli poniżej:

Kategoria promptu Przykład Uwagi
Pytanie Jak szybko potrafi latać gołąb?
Instrukcja Napisz zabawny wiersz o arbitrażu. Prompt, który prosi duży model językowy o coś zrobienie.
Przykład Przekształcaj kod Markdown w kod HTML. Na przykład:
Markdown: * element listy
HTML: <ul> <li>element listy</li> </ul>
Pierwsze zdanie w tym przykładowym promptu to instrukcja. Pozostała część promptu to przykład.
Rola Wyjaśnij, dlaczego w przypadku osób z doktoratem z fizyki stosuje się w uczeniu maszynowym metodę gradientu prostego. Pierwsza część zdania to instrukcja, a wyrażenie „doktorat z fizyki” to część dotycząca roli.
Częściowe dane wejściowe dla modelu Premier Wielkiej Brytanii mieszka pod adresem Prompt dotyczący częściowego wprowadzania danych może kończyć się nagle (jak w tym przykładzie) lub podkreśleniem.

Model generatywnej AI może odpowiadać na prompt tekstem, kodem, obrazami, embeddingami, filmami... prawie wszystkim.

nauka oparta na promptach,

#language
#generativeAI

Umiejętność niektórych modeli, która umożliwia im dostosowanie ich zachowania w odpowiedzi na dowolny tekst wejściowy (prompty). W ramach typowej paradygmatu uczenia się na podstawie promptów duży model językowy odpowiada na prompt, generując tekst. Załóżmy na przykład, że użytkownik wpisuje ten prompt:

Opisz trzecią zasadę dynamiki Newtona.

Model zdolny do uczenia się na podstawie promptów nie jest specjalnie trenowany do odpowiadania na poprzedni prompt. Model „zna” wiele faktów z fizyki, wiele o ogólnych regułach językowych i wiele o tym, co stanowi ogólnie przydatne odpowiedzi. Ta wiedza wystarczy, aby udzielić (miejmy nadzieję) przydatnej odpowiedzi. Dodatkowe opinie użytkowników (np. „Ta odpowiedź była zbyt skomplikowana” lub „Co sądzisz?”) umożliwiają niektórym systemom uczącym się na podstawie promptów stopniowe polepszanie przydatności odpowiedzi.

projektowanie promptów

#language
#generativeAI

Synonim tworzenia promptów.

tworzenie promptów

#language
#generativeAI

Sztuka tworzenia promptów, które wywołują pożądane odpowiedzi dużych modeli językowych. prompty są tworzone przez ludzi. Pisanie dobrze sformatowanych promptów jest kluczowe, aby uzyskać przydatne odpowiedzi od dużego modelu językowego. Projektowanie promptów zależy od wielu czynników, w tym:

Więcej informacji o tworzeniu przydatnych promptów znajdziesz w artykule Wprowadzenie do projektowania promptów.

Projektowanie promptów to synonim tworzenia promptów.

dostrajanie promptów

#language
#generativeAI

Mechanizm skutecznego doboru parametrów, który uczy się „prefiksu”, który system dołącza do rzeczywistego promptu.

Jedną z wariacji dostrajania promptu – czasami nazywanego dostrajaniem prefiksu – jest dodawanie prefiksu do każdej warstwy. Większość ustawień prompta dodaje tylko prefiks do warstwy wejściowej.

R

tekst referencyjny

#language
#generativeAI

odpowiedź eksperta na prompt. Na przykład:

Przetłumacz pytanie „Jak masz na imię?” z angielskiego na francuski.

Odpowiedź eksperta może wyglądać tak:

Comment vous appelez-vous ?

Różne wskaźniki (np. ROUGE) mierzą stopień, w jakim tekst referencyjny pasuje do tekstu wygenerowanego przez model AI.

Uczenie przez wzmacnianie na podstawie opinii użytkowników (RLHF)

#generativeAI
#rl

Korzystanie z opinii weryfikatorów, aby poprawić jakość odpowiedzi modelu. Na przykład mechanizm RLHF może prosić użytkowników o ocena jakości odpowiedzi modelu za pomocą emotikonów 👍 lub 👎. System może następnie dostosować swoje przyszłe odpowiedzi na podstawie tych informacji.

prompty dotyczące ról

#language
#generativeAI

Opcjonalna część prompta, która identyfikuje odbiorców docelowych odpowiedzi modelu generatywnej AI. Bez promptu duży model językowy podaje odpowiedź, która może być przydatna dla osoby zadającej pytanie, a może nie. Za pomocą prompta o roli duży model językowy może udzielać odpowiedzi w sposób bardziej odpowiedni i przydatny dla konkretnej grupy odbiorców. Na przykład w tych promptach pogrubiliśmy fragmenty dotyczące ról:

  • Streść ten artykuł dla osoby z doktoratem z ekonomii.
  • Opisz, jak działają pływy dziecku w wieku 10 lat.
  • Wyjaśnij kryzys finansowy z 2008 r. Mów tak, jak do małego dziecka lub złotego retrievera.

S

dostosowanie promptów,

#language
#generativeAI

Technika dostosowywania dużego modelu językowego do konkretnego zadania bez korzystania z wielu zasobów w ramach dokładnego dostrajania. Zamiast ponownego trenowania wszystkich wag w modelu, dostrajanie za pomocą promptów miękkich automatycznie dostosowuje prompt, aby osiągnąć ten sam cel.

W przypadku promptu tekstowego dostosowanie promptu zwykle polega na dołączeniu do promptu dodatkowych zaszyfrowanych tokenów i użyciu odwrotnej propagacji do optymalizacji danych wejściowych.

„Twardy” prompt zawiera tokeny zamiast ich zaimplementowania.

T

temperatura

#language
#image
#generativeAI

parametr nadrzędny, który kontroluje stopień losowości danych wyjściowych modelu. Wyższe temperatury powodują bardziej losowe wyniki, a niższe – mniej losowe.

Wybór najlepszej temperatury zależy od konkretnego zastosowania i preferowanych właściwości wyników modelu. Na przykład prawdopodobnie podniesiesz temperaturę, gdy tworzysz aplikację, która generuje kreacje. Z kolei, aby zwiększyć dokładność i spójność modelu, który klasyfikuje obrazy lub tekst, prawdopodobnie obniżysz temperaturę.

Temperatura jest często używana z softmax.

Z

prompty „zero-shot”

#language
#generativeAI

prompt, który nie podaje przykładu tego, jak chcesz, aby duży model językowy odpowiadał. Na przykład:

Części jednego promptu Uwagi
Jaka jest oficjalna waluta w wybranym kraju? Pytanie, na które chcesz uzyskać odpowiedź od modelu LLM.
Indie: rzeczywiste zapytanie,

Duży model językowy może odpowiedzieć:

  • Rupia
  • INR
  • Rupia indyjska
  • Rupia
  • rupia indyjska,

Wszystkie odpowiedzi są prawidłowe, ale możesz preferować określony format.

Porównaj promptowanie bez przykładów z tymi pojęciami: