agents
latest
false
Wichtig :
Es kann 1–2 Wochen dauern, bis die Lokalisierung neu veröffentlichter Inhalte verfügbar ist.
UiPath logo, featuring letters U and I in white

Benutzerhandbuch zu Agents

Letzte Aktualisierung 28. Okt. 2025

Bewährte Verfahren für Kontext-Engineering

Eine effektive Kontextgrundlage stellt sicher, dass Ihr Agent zum richtigen Zeitpunkt Zugriff auf die richtigen Informationen für die durchzuführende Aufgabe hat. Eine korrekte Implementierung erhöht die Genauigkeit, verbessert die Leistung und senkt die Kosten für Token.

In diesem Abschnitt wird beschrieben, wie Sie Ihre Kontextquellen mithilfe von Kontextgrundlage konfigurieren und warten, einschließlich bewährter Methoden für die Einrichtung des Indexes, des Schemadesigns und der laufenden Evaluierung.

Weitere Informationen zum Kontextgrundlagendienst finden Sie in der entsprechenden Dokumentation: Über die Kontextgrundlage.

Was unter Kontextgrundlage zu verstehen ist

Agents können über eine Kontextgrundlage eine Verbindung zur Wissensdatenbank des Unternehmens wie Dokumenten, FAQs, E-Mails und SOPs herstellen. Sie erstellen Indizes in Orchestrator und verknüpfen diese mit Agents in Studio Web, um diese Verbindung zu aktivieren.

Eine Kontextgrundlage hilft Agents dabei:

  • Schlussfolgerungen zu unternehmensspezifischen Daten zu ziehen.
  • Nicht zu halluzinieren bzw. nichts zu erfinden.
  • Mit aktuellem, reguliertem Wissen zu reagieren.
  • Quellen zu zitieren, wenn sie mit Schemabeschränkungen konfiguriert sind.

Bewährte Methoden zum Einrichten einer Kontextgrundlage

Um zuverlässige, reaktionsfähige Agents zu erstellen, halten Sie beim Entwerfen und Anpassen Ihres Kontexts folgende Hauptverfahren ein:

Verwenden von beschreibenden, versionierten Indexnamen

Benennen Sie Ihre Indizes nach einem klaren und konsistenten Muster. Zum Beispiel: HR-Policies-2025-Q3.

So können Sie ganz einfach:

  • Zu früheren Indexversionen zurückkehren.
  • A/B-Tests mit verschiedenen Wissensdatenbanken durchführen.
  • Aktualisierungen im Laufe der Zeit nachverfolgen.

Erstellen Sie einen neuen Index in Orchestrator, wenn sich der Inhalt erheblich ändert, und aktualisieren Sie die Definition des Agents entsprechend.

Wahl des richtigen Erfassungsmodus

Wählen Sie beim Erstellen eines Indexes den Erfassungsmodus, der zu Ihren Inhalten passt:

  • Basismodus: Ideal für Dokumente mit überwiegend einfachem Text.
  • Erweiterter Modus: Für Dateien, die Text und Bilder kombinieren (z. B. gescannte PDF-Dateien oder Infografiken).

Dies wirkt sich sowohl auf die Abdeckung als auch auf die OCR-bezogenen Kosten aus. Wählen Sie je nach Typ der Dokumente und Bedeutung von visuellen Inhalten für den Abruf.

Beibehaltung der regelmäßigen Synchronisierung

Wenn Sie die Indizes aktuell halten, stellen Sie sicher, dass Agents auf aktuelle Informationen verweisen. Über die Aktion Synchronisieren in Orchestrator oder die Aktivität Update Context Grounding Index in Studio können Sie Indexinhalte aktualisieren. Sie können periodische Synchronisierungen basierend auf der Aktualisierungshäufigkeit Ihrer Quellinhalte planen.

Kalibrieren der Anzahl der Ergebnisse und den Schwellenwert

  • Anzahl der Ergebnisse: Passen Sie diese Einstellung an, um zu steuern, wie viele Kontextabschnitte abgerufen werden. Mehr Ergebnisse erhöhen die Abrufgenauigkeit, erhöhen aber auch den Tokenverbrauch.
  • Schwellenwert: Filtert gering relevanten Kontext heraus. Der Standardwert ist 0. Sie können den Schwellenwert zur Verbesserung der Genauigkeit erhöhen, wenn zu viele Passagen ohne Bezug zurückgegeben werden. Beachten Sie jedoch, dass bei Einstellung des Schwellenwerts über 0 (Null) relevante Teile aus den Antworten gefiltert werden können, was zu Halluzinationen führen kann.

Gleichen Sie diese Parameter aus, um ohne Überschreitung des Tokenlimits einen klaren und relevanten Kontext zu gewährleisten.

Klare Kontextbeschreibungen bei der Gestaltung von Agents

Wenn Sie einem Agent einen Kontextindex hinzufügen, geben Sie eine kurze, genaue Beschreibung des Inhalts des Indexes an. Dies hilft beim Abrufen und der Nutzung des Wissens durch den Agents während der Ausführung.

Beschreibungen sind besonders nützlich, wenn Sie mehrere Kontextquellen verwenden.

Ausrichten des Schemas an die Erwartungen des Agents

Definieren Sie gegebenenfalls ein Antwortschema, insbesondere für strukturierte Ausgaben wie JSON. Dadurch wird sichergestellt, dass der Agent die Antworten korrekt formatiert und nur Informationen aus dem Kontext enthält.

Fügen Sie Schemabeispiele in Ihren Systemprompt zur Verbesserung der Zuverlässigkeit ein.

Wann und wie iteriert werden sollte

Überprüfen Sie die Konfiguration des Kontextes, wenn:

  • Agents die erwarteten Ergebnisse fehlen.
  • Irrelevante Inhalte in der Ablaufverfolgung angezeigt werden.
  • Agents die Tokenlimits überschreiten oder mit dem Fehler „Token überschritten“ fehlschlagen.
  • Sich Dokumentenschemata ändern.
  • Ein neuer Einsatzbereich dazukommt oder der Scope erweitert wird.

Mithilfe von Ablaufverfolgungsprotokollen von Test- und Produktionsläufen können Sie diagnostizieren, ob das Problem mit der Kontextqualität, Menge oder den Indizierungsparametern zusammenhängt.

Häufige Fehler und deren Behebung

Mithilfe dieser Tabelle können Sie häufige Probleme mit der Kontextgrundlage identifizieren und lösen. Jede Zeile hebt ein Erkennungssignal hervor, das Sie in der Ablaufverfolgung beobachten können, und die empfohlenen Maßnahmen zu dessen Korrektur.

Tabelle 1. Fehlerbehebung bei Problemen mit der Kontextgrundlage
FehlerErkennungssignalEmpfohlene Lösung
Agent antwortet nicht wie erwartet, obwohl er relevante Dokumente im Index haben sollte Keine Ergebnisse gefunden

Aktuelle Daten bestätigen, relevante Dokumente hinzufügen und Index synchronisieren

Senkung des Schwellenwerts

Erwartete Antworten fehlenAblaufverfolgung zeigt Filterung mit hohen Schwellenwerten anSenkung des Schwellenwerts oder Verbesserung der Dokumentenabdeckung
Überlauf des KontextfenstersAgent schlägt mit „Token überschritten“ fehlAnzahl der Ergebnisse reduzieren oder Benutzereingaben verkürzen
Zurückgegebene Informationen veraltetAblaufverfolgung zeigt veralteten Zeitstempel anSynchronisieren oder Index neu erstellen; Agent erneut veröffentlichen

Auswertung der Kontextqualität

Testen Sie mithilfe von Evaluierungsläufen in Agent Builder, wie gut Ihre Kontextquellen die Ziele des Agents unterstützen.

Evaluierungsläufe sollten:

  • Verschiedene Prompts aus der Praxis einschließen.
  • Die Ablaufverfolgung überprüfen, um zu sehen, welche Teile abgerufen wurden.
  • Regressionstests beim Aktualisieren oder Ersetzen von Indizes einschließen.

Sie können auch Ausführungen mithilfe von Toolsimulationen mit einem vorgegebenen Kontext simulieren, um vor einer vollständigen Aktualisierung des Indexes eine Vorschau zu erhalten.

Zusammenfassende Checkliste

Stellen Sie mithilfe folgender Checkliste sicher, dass die Einrichtung der Kontextgrundlage den bewährten Methoden entspricht:

  • Indexnamen sind versioniert und beschreibend.
  • Der Erfassungsmodus stimmt mit dem Dokumententyp überein.
  • Indizes werden regelmäßig synchronisiert.
  • Anzahl der Ergebnisse und Grenzwert werden optimiert.
  • Kontextbeschreibungen sind informativ.
  • Das Schema wird im Prompt definiert und durchgesetzt.
  • Häufige Fehler werden mithilfe von Ablaufverfolgungsprotokollen nachverfolgt und gelöst.

Vorlagen mit Beispielen für Prompts

Verwenden Sie folgende Vorlagen als Ausgangspunkt für Ihre Systemprompts für Agents. Passen Sie sie an den spezifischen Einsatz an.

QA/Wissenssuche

You are an enterprise knowledge assistant.
Goal: Answer user questions using ONLY approved company documents.
Constraints:
- Cite each answer with source title and section.
- If confidence is low or no relevant context was retrieved, ask a clarifying question instead of guessing.
- Respond in Markdown unless JSON is requested.

# Processing Steps
1. Interpret the user question.
2. Review retrieved context below.
3. Use only information found in context; do not fabricate.
4. Provide a concise answer and cite sources.You are an enterprise knowledge assistant.
Goal: Answer user questions using ONLY approved company documents.
Constraints:
- Cite each answer with source title and section.
- If confidence is low or no relevant context was retrieved, ask a clarifying question instead of guessing.
- Respond in Markdown unless JSON is requested.

# Processing Steps
1. Interpret the user question.
2. Review retrieved context below.
3. Use only information found in context; do not fabricate.
4. Provide a concise answer and cite sources.

Strukturierte Extraktion und Validierung

You are an extraction agent that maps document content into a structured schema.
Goal: Populate all required fields from retrieved document snippets.
Constraints:
- Return valid JSON matching the schema.
- Use null if field not found; do NOT guess.
- Provide a confidence score 01 for each field.
- Include source_span metadata (doc_id, chunk_id).

# Steps
1. Read user instruction for target doc type.
2. Review retrieved context.
3. Extract fields.
4. Validate required fields; request escalation if missing critical values.You are an extraction agent that maps document content into a structured schema.
Goal: Populate all required fields from retrieved document snippets.
Constraints:
- Return valid JSON matching the schema.
- Use null if field not found; do NOT guess.
- Provide a confidence score 0‑1 for each field.
- Include source_span metadata (doc_id, chunk_id).

# Steps
1. Read user instruction for target doc type.
2. Review retrieved context.
3. Extract fields.
4. Validate required fields; request escalation if missing critical values.

Argumentation und Aktionsauswahl

You are an operations triage agent.
Goal: Decide the next best action based on policies and current case details.
Constraints:
- Choose only from the allowed actions list.
- Provide short rationale.
- Output as JSON: {"action":string,"reason":string,"evidence_sources":[...]}

# Allowed Actions
{{ACTION_LIST}}You are an operations triage agent.
Goal: Decide the next best action based on policies and current case details.
Constraints:
- Choose only from the allowed actions list.
- Provide short rationale.
- Output as JSON: {"action":string,"reason":string,"evidence_sources":[...]}

# Allowed Actions
{{ACTION_LIST}}

War diese Seite hilfreich?

Hilfe erhalten
RPA lernen – Automatisierungskurse
UiPath Community-Forum
Uipath Logo
Vertrauen und Sicherheit
© 2005–2025 UiPath. Alle Rechte vorbehalten