Glossar zum maschinellen Lernen: Agentic

Auf dieser Seite finden Sie Glossarbegriffe zu Agentic. Hier finden Sie alle Glossarbegriffe.

A

Handeln:

#agent

Eine Phase im Agenten-Loop, in der der Agent die in der Phase Grund ausgewählte Aktion ausführt. In der Phase „Act“ könnte beispielsweise eine API-Anfrage gesendet werden.

Aktion

#agent

Beim bestärkenden Lernen} ist dies der Mechanismus, mit dem der Agent zwischen den Zuständen der Umgebung wechselt. Der Agent wählt die Aktion anhand einer Richtlinie aus.

Aktionsraum

#agent

Die Menge der Ressourcen, die ein Agent zum Ausführen einer Aufgabe verwenden kann. Der Aktionsbereich kann die Tools und APIs umfassen, die der Agent aufrufen kann, sowie die Berechtigungen, die der Agent hat. Im Allgemeinen sollte der Aktionsraum gerade groß genug sein, damit der Agent die Aufgabe ausführen kann. Wenn der Aktionsbereich zu klein ist, hat der Agent möglicherweise nicht genügend Ressourcen, um die Aufgabe auszuführen. Wenn der Aktionsraum zu groß ist, neigt der Agent dazu, fehleranfälliger zu werden.

Agent

#generativeAI
#agent

Software, die Nutzeranfragen analysieren kann, um Aktionen im Namen des Nutzers zu planen und auszuführen.

Beim Reinforcement Learning ist ein Agent die Einheit, die eine Richtlinie verwendet, um den erwarteten Return zu maximieren, der durch den Übergang zwischen Zuständen der Umgebung erzielt wird.

agentisch

#generativeAI
#agent

Die Adjektivform von Agent. „Agentic“ bezieht sich auf die Eigenschaften, die Agenten haben (z. B. Autonomie).

agentischer Loop

#agent

Ein Zyklus, den ein Agent durchläuft, bis eine Beendigungsbedingung erfüllt ist. Der Zyklus besteht in der Regel aus den folgenden vier Phasen:

  1. Beobachten
  2. Grund
  3. Optimieren
  4. Feedback

Agentischer Workflow

#generativeAI
#agent

Ein dynamischer Prozess, bei dem ein Agent autonom Aktionen plant und ausführt, um ein Ziel zu erreichen. Der Prozess kann das Ziehen von Schlussfolgerungen, das Aufrufen externer Tools und das selbstständige Korrigieren des Plans umfassen.

Agentenorchestrierung

#agent

Die zentrale Verwaltung und Weiterleitung von Aufgaben über mehrere Unter-Agents oder LLM-Aufrufe hinweg. Bei der Agent-Orchestrierung werden komplexe Aufgaben in kleinere Unteraufgaben zerlegt und den leistungsfähigsten untergeordneten Agents zugewiesen.

autonomer KI-Agent

#agent

Ein Agent, der auf ein komplexes Ziel hinarbeitet, indem er plant, handelt und sich ohne kontinuierliches menschliches Eingreifen anpasst.

E

Evaluator-Agent

#agent

Ein Agent, der die Ergebnisse eines anderen Agents bewertet, bevor diese endgültig sind. Stellen Sie sich vor, ein Agent stellt ein Produkt her und ein separater Agent – der Evaluator-Agent – testet dieses Produkt, bevor es veröffentlicht wird.

Critic ist ein Synonym für Evaluator-Agent.

F

Feedback

#agent

Eine Phase in einem Agenten-Loop, in der der Agent die in der Phase Handeln ergriffenen Maßnahmen bewertet. Wenn der Agent beispielsweise während der Phase „Act“ eine API-Anfrage gesendet hat, wird in der Phase „Feedback“ möglicherweise ermittelt, ob die API-Antwort erfolgreich war.

G

Gemini-Modelle

#generativeAI
#agent

Die hochmodernen multimodalen Modelle von Google, die auf Transformer basieren. Gemini-Modelle sind speziell für die Integration mit KI-Agenten konzipiert.

Nutzer können auf verschiedene Weise mit Gemini-Modellen interagieren, z. B. über eine interaktive Dialogoberfläche und über SDKs.

Generative Agents (Simulacra)

#agent

KI-Agenten mit einzigartigen Persönlichkeiten, Erinnerungen und Routinen, die realistisches menschliches Verhalten simulieren.

Weitere Informationen finden Sie unter Generative Agents: Interactive Simulacra of Human Behavior.

M

Manager-Agent

#agent

Ein Agent, der einen oder mehrere Sub-Agents steuert.

Zusammenarbeit mehrerer KI-Agenten

#agent

Ein Framework, in dem mehrere spezialisierte KI-Agents interagieren, diskutieren oder Aufgaben aneinander weitergeben, um ein komplexes Problem zu lösen.

O

beobachten

#agent

Eine Phase im Agenten-Loop, in der der Agent einen Aspekt des Fortschritts des Agenten untersucht oder bewertet. Angenommen, in der Phase act wird Code generiert. Daher werden in der Phase observe möglicherweise Tests für den generierten Code ausgeführt.

P

plan-and-solve

#agent

Eine agentische Strategie, bei der das Modell zuerst einen expliziten, mehrstufigen Plan entwirft, bevor es versucht, Aktionen auszuführen.

Plug‑in

#agent

Ein standardisiertes, modulares Tool, das einfach an einen Agenten angehängt werden kann, um seine Funktionen zu erweitern. Mit einem GitHub-Plug-in können Agents beispielsweise GitHub-Probleme lesen und Pull-Anfragen erstellen.

prozedurales Gedächtnis

#agent

In Agents das Wissen, wie etwas zu tun ist. Ein Agent kann beispielsweise ein prozedurales Gedächtnis dafür entwickeln, wie er im Web sucht und dann die drei wichtigsten Websites anzeigt.

R

reason

#agent

Eine Phase im Agentenzyklus, in der der Agent entscheidet, was zu tun ist. Der Agent kann beispielsweise festlegen, dass eine bestimmte API-Anfrage gesendet werden soll.

Selbstreflexion

#generativeAI
#agent

Eine Strategie zur Verbesserung der Qualität eines Agenten-Workflows, indem die Ausgabe eines Schritts geprüft (reflektiert) wird, bevor sie an den nächsten Schritt übergeben wird.

Der Prüfer ist oft dasselbe LLM, das die Antwort generiert hat (es könnte aber auch ein anderes LLM sein). Wie kann dasselbe LLM, das eine Antwort generiert hat, diese Antwort fair bewerten? Der „Trick“ besteht darin, das LLM in eine kritische (reflektierende) Denkweise zu versetzen. Dieser Prozess ähnelt dem eines Autors, der zuerst einen Entwurf mit einem kreativen Ansatz schreibt und dann zu einem kritischen Ansatz wechselt, um ihn zu bearbeiten.

Stellen Sie sich beispielsweise einen Agent-Workflow vor, dessen erster Schritt darin besteht, Text für Kaffeetassen zu erstellen. Der Prompt für diesen Schritt könnte lauten:

Du bist ein Kreativer. Generiere einen humorvollen, originellen Text mit weniger als 50 Zeichen, der für eine Kaffeetasse geeignet ist.

Stellen Sie sich nun den folgenden reflektierenden Prompt vor:

Sie trinken Kaffee. Finden Sie die vorherige Antwort humorvoll?

Im Workflow wird dann möglicherweise nur Text mit einem hohen Reflexionswert an die nächste Phase weitergeleitet.

Router-Agent

#agent

Ein Agent, der eine Nutzeranfrage klassifiziert und dann den am besten geeigneten Agenten aufruft, um sie zu bearbeiten.

S

Selbstkorrektur

#agent

Die Fähigkeit eines Agenten, einen Fehler in seiner eigenen Ausgabe zu erkennen und dann einen anderen Ansatz zu versuchen.

Bundesstaat

#agent

In der Reinforcement-Learning-Methode die Parameterwerte, die die aktuelle Konfiguration der Umgebung beschreiben, die der Agent verwendet, um eine Aktion auszuwählen.

Zustandsautomaten-Agent

#agent

Ein Agent, dessen Workflows durch starre Regeln eingeschränkt werden. State Machine-Agents machen in der Regel weniger Fehler als autonome Agents, haben aber nicht die Freiheit, sich an Situationen außerhalb ihrer Einschränkungen anzupassen.

Sub-Agent

#agent

Ein spezialisiertes, eng fokussiertes Modell, das von einem Manager-Agenten aufgerufen wird, um einen bestimmten Teil eines größeren Problems zu bearbeiten. Untergeordnete Agenten haben in der Regel einen kleineren Aktionsraum als Agenten.

T

Beendigungsbedingung

#agent

In agentenbasierter KI sind das die vordefinierten Kriterien, die dem Agenten mitteilen, wann er die Iteration beenden soll. Hier einige mögliche Kündigungsbedingungen:

  • Der KI-Agent hat das Ziel erreicht.
  • Der Agent kann keine weiteren Ressourcen verwenden.
  • Ein human-in-the-loop hat ein Problem erkannt.

Beim bestärkenden Lernen werden die Bedingungen festgelegt, die bestimmen, wann eine Episode endet, z. B. wenn der Agent einen bestimmten Status erreicht oder eine bestimmte Anzahl von Statusübergängen überschreitet. Beim Tic-Tac-Toe endet eine Episode beispielsweise, wenn ein Spieler drei aufeinanderfolgende Felder markiert oder wenn alle Felder markiert sind.