- Erste Schritte
- UiPath Agents in Studio Web
- Über UiPath Agents
- Lizenzierung
- Konversations-Agents
- Agents vs. Workflows
- Bewährte Verfahren zum Erstellen von Agents
- Bewährte Verfahren für Kontext-Engineering
- Best Practices für das Veröffentlichen und Bereitstellen von Agents
- Aufforderungen
- Contexts
- Eskalationen und Agent-Speicher
- Bewertungen
- Spuren von Agents
- Agent-Punktzahl
- Verwaltung von UiPath Agents
- UiPath Agents in Agent Builder
- Codierte UiPath Agents

Benutzerhandbuch zu Agents
Eine effektive Kontextgrundlage stellt sicher, dass Ihr Agent zum richtigen Zeitpunkt Zugriff auf die richtigen Informationen für die durchzuführende Aufgabe hat. Eine korrekte Implementierung erhöht die Genauigkeit, verbessert die Leistung und senkt die Kosten für Token.
In diesem Abschnitt wird beschrieben, wie Sie Ihre Kontextquellen mithilfe von Kontextgrundlage konfigurieren und warten, einschließlich bewährter Methoden für die Einrichtung des Indexes, des Schemadesigns und der laufenden Evaluierung.
Weitere Informationen zum Kontextgrundlagendienst finden Sie in der entsprechenden Dokumentation: Über die Kontextgrundlage.
Agents können über eine Kontextgrundlage eine Verbindung zur Wissensdatenbank des Unternehmens wie Dokumenten, FAQs, E-Mails und SOPs herstellen. Sie erstellen Indizes in Orchestrator und verknüpfen diese mit Agents in Studio Web, um diese Verbindung zu aktivieren.
Eine Kontextgrundlage hilft Agents dabei:
- Schlussfolgerungen zu unternehmensspezifischen Daten zu ziehen.
- Nicht zu halluzinieren bzw. nichts zu erfinden.
- Mit aktuellem, reguliertem Wissen zu reagieren.
- Quellen zu zitieren, wenn sie mit Schemabeschränkungen konfiguriert sind.
Um zuverlässige, reaktionsfähige Agents zu erstellen, halten Sie beim Entwerfen und Anpassen Ihres Kontexts folgende Hauptverfahren ein:
Verwenden von beschreibenden, versionierten Indexnamen
HR-Policies-2025-Q3.
So können Sie ganz einfach:
- Zu früheren Indexversionen zurückkehren.
- A/B-Tests mit verschiedenen Wissensdatenbanken durchführen.
- Aktualisierungen im Laufe der Zeit nachverfolgen.
Erstellen Sie einen neuen Index in Orchestrator, wenn sich der Inhalt erheblich ändert, und aktualisieren Sie die Definition des Agents entsprechend.
Wahl des richtigen Erfassungsmodus
Wählen Sie beim Erstellen eines Indexes den Erfassungsmodus, der zu Ihren Inhalten passt:
- Basismodus: Ideal für Dokumente mit überwiegend einfachem Text.
- Erweiterter Modus: Für Dateien, die Text und Bilder kombinieren (z. B. gescannte PDF-Dateien oder Infografiken).
Dies wirkt sich sowohl auf die Abdeckung als auch auf die OCR-bezogenen Kosten aus. Wählen Sie je nach Typ der Dokumente und Bedeutung von visuellen Inhalten für den Abruf.
Beibehaltung der regelmäßigen Synchronisierung
Wenn Sie die Indizes aktuell halten, stellen Sie sicher, dass Agents auf aktuelle Informationen verweisen. Über die Aktion Synchronisieren in Orchestrator oder die Aktivität Update Context Grounding Index in Studio können Sie Indexinhalte aktualisieren. Sie können periodische Synchronisierungen basierend auf der Aktualisierungshäufigkeit Ihrer Quellinhalte planen.
Kalibrieren der Anzahl der Ergebnisse und den Schwellenwert
- Anzahl der Ergebnisse: Passen Sie diese Einstellung an, um zu steuern, wie viele Kontextabschnitte abgerufen werden. Mehr Ergebnisse erhöhen die Abrufgenauigkeit, erhöhen aber auch den Tokenverbrauch.
- Schwellenwert: Filtert gering relevanten Kontext heraus. Der Standardwert ist 0. Sie können den Schwellenwert zur Verbesserung der Genauigkeit erhöhen, wenn zu viele Passagen ohne Bezug zurückgegeben werden. Beachten Sie jedoch, dass bei Einstellung des Schwellenwerts über 0 (Null) relevante Teile aus den Antworten gefiltert werden können, was zu Halluzinationen führen kann.
Gleichen Sie diese Parameter aus, um ohne Überschreitung des Tokenlimits einen klaren und relevanten Kontext zu gewährleisten.
Klare Kontextbeschreibungen bei der Gestaltung von Agents
Wenn Sie einem Agent einen Kontextindex hinzufügen, geben Sie eine kurze, genaue Beschreibung des Inhalts des Indexes an. Dies hilft beim Abrufen und der Nutzung des Wissens durch den Agents während der Ausführung.
Beschreibungen sind besonders nützlich, wenn Sie mehrere Kontextquellen verwenden.
Ausrichten des Schemas an die Erwartungen des Agents
Definieren Sie gegebenenfalls ein Antwortschema, insbesondere für strukturierte Ausgaben wie JSON. Dadurch wird sichergestellt, dass der Agent die Antworten korrekt formatiert und nur Informationen aus dem Kontext enthält.
Fügen Sie Schemabeispiele in Ihren Systemprompt zur Verbesserung der Zuverlässigkeit ein.
Überprüfen Sie die Konfiguration des Kontextes, wenn:
- Agents die erwarteten Ergebnisse fehlen.
- Irrelevante Inhalte in der Ablaufverfolgung angezeigt werden.
- Agents die Tokenlimits überschreiten oder mit dem Fehler „Token überschritten“ fehlschlagen.
- Sich Dokumentenschemata ändern.
- Ein neuer Einsatzbereich dazukommt oder der Scope erweitert wird.
Mithilfe von Ablaufverfolgungsprotokollen von Test- und Produktionsläufen können Sie diagnostizieren, ob das Problem mit der Kontextqualität, Menge oder den Indizierungsparametern zusammenhängt.
Mithilfe dieser Tabelle können Sie häufige Probleme mit der Kontextgrundlage identifizieren und lösen. Jede Zeile hebt ein Erkennungssignal hervor, das Sie in der Ablaufverfolgung beobachten können, und die empfohlenen Maßnahmen zu dessen Korrektur.
| Fehler | Erkennungssignal | Empfohlene Lösung |
|---|---|---|
| Agent antwortet nicht wie erwartet, obwohl er relevante Dokumente im Index haben sollte | Keine Ergebnisse gefunden |
Aktuelle Daten bestätigen, relevante Dokumente hinzufügen und Index synchronisieren Senkung des Schwellenwerts |
| Erwartete Antworten fehlen | Ablaufverfolgung zeigt Filterung mit hohen Schwellenwerten an | Senkung des Schwellenwerts oder Verbesserung der Dokumentenabdeckung |
| Überlauf des Kontextfensters | Agent schlägt mit „Token überschritten“ fehl | Anzahl der Ergebnisse reduzieren oder Benutzereingaben verkürzen |
| Zurückgegebene Informationen veraltet | Ablaufverfolgung zeigt veralteten Zeitstempel an | Synchronisieren oder Index neu erstellen; Agent erneut veröffentlichen |
Testen Sie mithilfe von Evaluierungsläufen in Agent Builder, wie gut Ihre Kontextquellen die Ziele des Agents unterstützen.
Evaluierungsläufe sollten:
- Verschiedene Prompts aus der Praxis einschließen.
- Die Ablaufverfolgung überprüfen, um zu sehen, welche Teile abgerufen wurden.
- Regressionstests beim Aktualisieren oder Ersetzen von Indizes einschließen.
Sie können auch Ausführungen mithilfe von Toolsimulationen mit einem vorgegebenen Kontext simulieren, um vor einer vollständigen Aktualisierung des Indexes eine Vorschau zu erhalten.
Stellen Sie mithilfe folgender Checkliste sicher, dass die Einrichtung der Kontextgrundlage den bewährten Methoden entspricht:
- Indexnamen sind versioniert und beschreibend.
- Der Erfassungsmodus stimmt mit dem Dokumententyp überein.
- Indizes werden regelmäßig synchronisiert.
- Anzahl der Ergebnisse und Grenzwert werden optimiert.
- Kontextbeschreibungen sind informativ.
- Das Schema wird im Prompt definiert und durchgesetzt.
- Häufige Fehler werden mithilfe von Ablaufverfolgungsprotokollen nachverfolgt und gelöst.
Verwenden Sie folgende Vorlagen als Ausgangspunkt für Ihre Systemprompts für Agents. Passen Sie sie an den spezifischen Einsatz an.
QA/Wissenssuche
You are an enterprise knowledge assistant.
Goal: Answer user questions using ONLY approved company documents.
Constraints:
- Cite each answer with source title and section.
- If confidence is low or no relevant context was retrieved, ask a clarifying question instead of guessing.
- Respond in Markdown unless JSON is requested.
# Processing Steps
1. Interpret the user question.
2. Review retrieved context below.
3. Use only information found in context; do not fabricate.
4. Provide a concise answer and cite sources.You are an enterprise knowledge assistant.
Goal: Answer user questions using ONLY approved company documents.
Constraints:
- Cite each answer with source title and section.
- If confidence is low or no relevant context was retrieved, ask a clarifying question instead of guessing.
- Respond in Markdown unless JSON is requested.
# Processing Steps
1. Interpret the user question.
2. Review retrieved context below.
3. Use only information found in context; do not fabricate.
4. Provide a concise answer and cite sources.Strukturierte Extraktion und Validierung
You are an extraction agent that maps document content into a structured schema.
Goal: Populate all required fields from retrieved document snippets.
Constraints:
- Return valid JSON matching the schema.
- Use null if field not found; do NOT guess.
- Provide a confidence score 0‑1 for each field.
- Include source_span metadata (doc_id, chunk_id).
# Steps
1. Read user instruction for target doc type.
2. Review retrieved context.
3. Extract fields.
4. Validate required fields; request escalation if missing critical values.You are an extraction agent that maps document content into a structured schema.
Goal: Populate all required fields from retrieved document snippets.
Constraints:
- Return valid JSON matching the schema.
- Use null if field not found; do NOT guess.
- Provide a confidence score 0‑1 for each field.
- Include source_span metadata (doc_id, chunk_id).
# Steps
1. Read user instruction for target doc type.
2. Review retrieved context.
3. Extract fields.
4. Validate required fields; request escalation if missing critical values.Argumentation und Aktionsauswahl
You are an operations triage agent.
Goal: Decide the next best action based on policies and current case details.
Constraints:
- Choose only from the allowed actions list.
- Provide short rationale.
- Output as JSON: {"action":string,"reason":string,"evidence_sources":[...]}
# Allowed Actions
{{ACTION_LIST}}You are an operations triage agent.
Goal: Decide the next best action based on policies and current case details.
Constraints:
- Choose only from the allowed actions list.
- Provide short rationale.
- Output as JSON: {"action":string,"reason":string,"evidence_sources":[...]}
# Allowed Actions
{{ACTION_LIST}}