LLM: dostrajanie, oczyszczanie i inżynieria promptów

W poprzedniej części opisaliśmy LLM do ogólnego przeznaczenia na różne sposoby. znane jako:

  • Fundamentalne modele LLM
  • podstawowe modele LLM
  • wytrenowane modele LLM

Podstawowy model LLM został wytrenowany na wystarczającej ilości języka naturalnego, aby wiedzieć niezwykły zawiera dużo informacji o gramatyce, słowach i idiomach. Podstawowy model językowy może generować przydatne zdania dotyczące tematów, na których jest trenowany. Ponadto podstawowy LLM może wykonywać pewne zadania nazywane tradycyjnie „creative”, jak pisanie poezji. Jednak generatywny tekst fundacji LLM dane wyjściowe nie są rozwiązaniem w przypadku innych rodzajów typowych problemów z systemami ML, takich jak regresja lub klasyfikacja. W tych przypadkach podstawowy LLM może służyć jako platformę, a nie rozwiązanie.

Przekształcenie podstawowego LLM w rozwiązanie zgodne z wymaga dostrajania. Dodatkowy proces nazywany destylacja generuje mniejszą (mniej parametrów) wersję dostrojonej wersji. model atrybucji.

Dostrajanie

Badania pokazują, że zdolność do rozpoznawania wzorców ukształtowanych modele językowe są tak potężne, że czasem wymagają szkolenia w celu opanowania konkretnych zadań. To dodatkowe trenowanie pomaga modelowi generować lepsze prognozy przy konkretnym zadaniu. W ramach tego dodatkowego szkolenia, dostrajanie, co pokazuje praktyczną stronę LLM.

Dostrajanie treningów na przykładach dopasowanych do zadania w Twojej aplikacji. . Inżynierowie mogą czasami dostroić podstawowy LLM w zaledwie kilku ze stu czy kilku tysięcy przykładów treningowych.

Pomimo stosunkowo niewielkiej liczby przykładów treningowych standardowe dostrajanie często wiąże się z kosztami obliczeniowymi. Dzieje się tak, ponieważ standardowe dostrajanie obejmuje aktualizowania wagi i odchylenia każdego parametru w każdym iteracji backpropagation. Na szczęście inteligentniejszy proces o nazwie oszczędności parametrów dostrajanie można dostroić LLM, dostosowując tylko podzbiór parametrów lub iteracji wstecznej.

Prognozy dostrojonego modelu są zwykle lepsze niż podstawowe LLM i generowanie prognoz. Jednak dostrojony model zawiera tę samą liczbę jako podstawowy model LLM. Jeśli podstawowy LLM zawiera więc 10 miliardów to dostrojona wersja będzie zawierać 10 miliardów parametrów .

Destylacja

Większość dostrojonych modeli LLM zawiera ogromną liczbę parametrów. W związku z tym podstawowe modele LLM wymagają ogromnych zasobów obliczeniowych i środowiskowych aby generować prognozy. Zwróć uwagę, że duża część tych parametrów jest zwykle nie mają związku z konkretną aplikacją.

Oczyszczanie utworzy mniejszą wersję LLM. Oczyszczony LLM generuje prognozy znacznie szybsze i wymaga mniejszej liczby zasobów obliczeniowych i środowiskowych niż pełną wersję LLM. Jednak prognozy oczyszczonego modelu zwykle nie są tak dobry, jak prognozy oryginalnego LLM. Pamiętaj, że LLM mają więcej funkcji W porównaniu z modelami LLM o mniejszej liczbie parametrów .

Tworzenie promptów

Inżynieria promptów umożliwia użytkownikom LLM dostosowywanie danych wyjściowych modelu. Oznacza to, że użytkownicy wyjaśniają, jak LLM powinien reagować na ich prompt.

Ludzie uczą się na przykładach. Podobnie jak duże modele językowe (LLM). Pokazywanie 1 przykładu modelowi LLM nazywa się jednorazowych promptów. Załóżmy na przykład, że chcesz, aby model używał poniższego formatu do generowania danych wyjściowych rodzina owoców:

Użytkownik wpisuje nazwę owocu: dane wyjściowe LLM będące klasą owocową.

Prompt jednorazowy pokazuje LLM pojedynczy przykład poprzedniego formatu a potem prosi LLM o wykonanie zapytania na podstawie tego przykładu. Przykład:

peach: drupe
apple: ______

Czasem wystarczy podać jeden przykład. Jeśli tak, LLM generuje przydatny z prognozą. Przykład:

apple: pome

W innych przypadkach jeden przykład jest niewystarczający. Oznacza to, że użytkownik musi wielu przykładów LLM. Na przykład ten prompt zawiera dwa przykłady:

plum: drupe
pear: pome
lemon: ____

Podawanie wielu przykładów to funkcja prompt few-shot. Pierwsze 2 wiersze poprzedniego promptu można traktować jako trening przykłady.

Czy LLM może dostarczyć przydatne prognozy bez przykładów (zero-shot )? Czasami, ale LLM to kontekst. Bez kontekstu ten prompt typu „zero-shot” może zwraca informacje o firmie technologicznej, a nie o owocu:

apple: _______

wnioskowanie offline

Liczba parametrów w LLM czasami jest duży przypływ online jest zbyt wolne, aby było praktyczne do realizacji rzeczywistych zadań, takich jak regresja lub klasyfikacja danych. W związku z tym wiele zespołów inżynierów polega na wnioskowania offline (również znanego jako wnioskowanie zbiorcze lub wnioskowanie statyczne). Innymi słowy, zamiast odpowiadać na zapytania w momencie wyświetlenia, wytrenowany model tworzy prognozy z wyprzedzeniem, a następnie zapisuje je w pamięci podręcznej.

Nie ma znaczenia, czy wykonanie zadania przez LLM zajmuje dużo czasu, jeśli LLM musi wykonać to zadanie tylko raz w tygodniu lub raz w miesiącu.

Na przykład wyszukiwarka Google z LLM wnioskowania offline w celu zapisania w pamięci podręcznej listy ponad 800 synonimów szczepionek przeciw COVID w ponad 50 językach. Wyszukiwarka Google użyła wtedy lista buforowana, aby zidentyfikować zapytania dotyczące szczepionek w ruchu na żywo.

Używaj modeli LLM odpowiedzialnie

Podobnie jak w przypadku każdej formy uczenia maszynowego, modele LLM zasadniczo dzielą się uprzedzeniami:

  • Dane, na których zostały trenowane.
  • Dane, na których zostały oczyszczone.

Używaj modeli LLM uczciwie i odpowiedzialnie zgodnie z przedstawionymi lekcjami podczas tego szkolenia.

Ćwiczenie: sprawdź swoją wiedzę

Które z tych stwierdzeń na temat LLM jest prawdziwe?
Oczyszczony LLM zawiera mniej parametrów niż podstawa i model językowy, z którego pochodzi.
Tak, oczyszczanie zmniejsza liczbę parametrów.
Dostrojony LLM zawiera mniej parametrów niż podstawowy modelu językowego, na którym został wytrenowany.
Dostrojony model zawiera taką samą liczbę parametrów jak do oryginalnego podstawowego modelu językowego.
W miarę jak użytkownicy pracują nad promptami, liczba parametrów w LLM.
Inżynieria promptów nie dodaje (nie usuwa ani nie zmienia) LLM .