LLMs: Abstimmung, Destillation und Prompt Engineering

In der vorherigen Einheit wurden bekannt als:

  • Foundation LLMs
  • Basis-LLMs
  • vortrainierte LLMs

Ein Foundation-LLM wird mit ausreichend natürlicher Sprache trainiert, um „kennenzulernen“. eine bemerkenswerte zu Grammatik, Wörtern und Redewendungen. Ein Foundation Language Model kann um hilfreiche Sätze zu den Themen zu erstellen, mit denen sie trainiert wurde. Darüber hinaus kann ein Foundation-LLM bestimmte Aufgaben ausführen, „Creative“, wie Gedichte zu schreiben. Der generative Text einer Stiftung-LLMs ist keine Lösung für andere häufige ML-Probleme, z. B. Regression oder Klassifizierung. Für diese Anwendungsfälle kann ein Foundation-LLM als Plattform und nicht als Lösung.

Fundament-LLM in eine Lösung umwandeln, die den Anforderungen einer Anwendung entspricht erfordert einen Prozess, der als Abstimmung bezeichnet wird. Ein sekundärer Prozess namens destillation generiert eine kleinere Version (weniger Parameter) der modellieren.

Optimierung

Studien zeigen, dass die Fähigkeiten zur Mustererkennung von Stiftungen Language Models sind so leistungsstark, dass sie manchmal zusätzliche Schulungen, um bestimmte Aufgaben zu erlernen. Dieses zusätzliche Training hilft dem Modell, bessere Vorhersagen zu treffen für eine bestimmte Aufgabe. Diese zusätzliche Schulung Feinabstimmung, die praktische Seite eines LLM.

Das Trainieren anhand von Beispielen, die spezifisch für die Aufgabe Ihrer Anwendung sind die Sie ausführen werden. Ein Foundation-LLM lässt sich manchmal auf nur wenigen hundert oder ein paar tausend Trainingsbeispiele an.

Trotz der relativ geringen Anzahl an Trainingsbeispielen kann die Standardabstimmung ist oft rechenintensiv. Das liegt daran, dass die standardmäßige Feinabstimmung Aktualisierung der Gewichtung und Gewichtung der einzelnen Parameter Backpropagation. Zum Glück gibt es einen intelligenteren Prozess, der als parameter-effizienter Abstimmung können ein LLM optimieren, indem jeweils nur eine Teilmenge von Parametern angepasst wird Backpropagation-Iteration.

Die Vorhersagen eines fein abgestimmten Modells sind in der Regel besser als die LLMs der Foundation Vorhersagen zu treffen. Ein abgestimmtes Modell enthält jedoch die gleiche Anzahl als Basis-LLM verwendet. Wenn ein Fundament-LLM also zehn Milliarden enthält, enthält die abgestimmte Version ebenfalls zehn Milliarden Parameter.

Destillation

Die meisten fein abgestimmten LLMs enthalten eine enorme Anzahl von Parametern. Daher Foundation-LLMs benötigen enorme Rechen- und Umweltressourcen um Vorhersagen zu generieren. Beachten Sie, dass große Bereiche dieser Parameter die für eine bestimmte Anwendung in der Regel irrelevant sind.

Destillation eine kleinere Version eines LLM. Das destillierte LLM generiert Vorhersagen viel schneller und erfordert weniger Rechen- und Umweltressourcen das vollständige LLM. Die Vorhersagen des destillierten Modells sind jedoch wie die Vorhersagen des ursprünglichen LLM. Denken Sie daran, dass LLMs mit mehr Parameter fast immer bessere Vorhersagen als LLMs mit weniger Parameter.

Prompt Engineering

Prompt-Engineering Ermöglicht es den Endnutzern eines LLM, die Ausgabe des Modells anzupassen. Das heißt, Endnutzer erklären, wie das LLM auf ihren Prompt reagieren soll.

Menschen lernen gut aus Beispielen. Dasselbe gilt für LLMs. Ein Beispiel für ein LLM heißt One-Shot-Prompting: Angenommen, ein Modell soll für die Ausgabe der Familie einer Frucht:

Der Nutzer gibt den Namen einer Frucht ein: LLM gibt die Klasse dieser Frucht aus.

Ein Prompt zeigt dem LLM ein Beispiel für das vorherige Format und bittet dann das LLM, eine Abfrage basierend auf diesem Beispiel auszuführen. Beispiele:

peach: drupe
apple: ______

Manchmal reicht ein einzelnes Beispiel aus. Ist dies der Fall, gibt das LLM eine nützliche eine Vorhersage treffen. Beispiele:

apple: pome

In anderen Situationen reicht ein einzelnes Beispiel nicht aus. Das heißt, die Nutzenden müssen mehrere Beispiele für LLM zeigen. Der folgende Prompt enthält beispielsweise zwei Beispiele:

plum: drupe
pear: pome
lemon: ____

Die Bereitstellung mehrerer Beispiele wird als Prompting mit wenigen Aufnahmen: Die ersten beiden Zeilen des vorherigen Prompts Beispiele.

Kann ein LLM nützliche Vorhersagen ohne Beispiele liefern (Zero-Shot) )? Manchmal, aber LLMs mögen Kontext. Ohne Kontext könnte der folgende Zero-Shot-Prompt Informationen über das Technologieunternehmen und nicht über die Früchte ausgeben:

apple: _______

Offline-Inferenz

Die Anzahl der Parameter in einem LLM ist manchmal so, die Online-Inferenz ist zu langsam, um für reale Aufgaben wie Regression oder Klassifizierung. Daher verlassen sich viele Engineering-Teams darauf, offline Inferenz (auch Bulk-Inferenz oder statische Inferenz). Anders ausgedrückt: Anstatt bei der Auslieferung auf Anfragen zu antworten, trainierten Modell Vorhersagen im Voraus und speichert diese im Cache.

Es spielt keine Rolle, ob es lange dauert, bis ein LLM seine Aufgabe erledigt, muss das LLM die Aufgabe nur einmal pro Woche oder einmal im Monat ausführen.

Beispiel: Google Suche haben ein LLM verwendet um Offline-Inferenzen durchzuführen, um eine Liste mit über 800 Synonymen im Cache zu speichern. für COVID-19-Impfstoffe in mehr als 50 Sprachen. Dann nutzte die Google Suche zwischengespeicherte Liste zur Identifizierung von Suchanfragen zu Impfstoffen im Live-Traffic.

LLMs verantwortungsvoll nutzen

Wie jede Form des maschinellen Lernens teilen LLMs im Allgemeinen die folgenden Voreingenommenheiten:

  • Die Daten, mit denen sie trainiert wurden.
  • Die Daten, auf denen sie destilliert wurden.

Faire und verantwortungsvolle Nutzung von LLMs gemäß den vorgestellten Lektionen bereits erwähnt.

Übung: Wissenstest

Welche der folgenden Aussagen treffen auf LLMs zu?
Ein destilliertes LLM enthält weniger Parameter als die Grundlage. Sprachmodell, aus dem sie stammt.
Ja, durch Destillation wird die Anzahl der Parameter reduziert.
Ein abgestimmtes LLM enthält weniger Parameter als die Grundlage. Sprachmodell, mit dem es trainiert wurde.
Ein abgestimmtes Modell enthält dieselbe Anzahl an Parametern wie das ursprüngliche Foundation Language Model.
Je mehr Nutzer Prompts erstellen, desto mehr Parameter in einem LLM wächst.
Beim Prompt Engineering wird LLM nicht hinzugefügt (oder entfernt oder geändert) Parameter.