UiPath Documentation
agents
latest
false
Wichtig :
Es kann 1–2 Wochen dauern, bis die Lokalisierung neu veröffentlichter Inhalte verfügbar ist.
UiPath logo, featuring letters U and I in white

Benutzerhandbuch zu Agents

Letzte Aktualisierung 2. Apr. 2026

Auswerten von Conversational Agents

Mithilfe von Evaluierungen können Sie sicherstellen, dass sich Ihr Conversational Agent über verschiedene Dialogpfade hinweg zuverlässig verhält. Auf dieser Seite wird beschrieben, wie Sie Ihren Agent mit Debug-Chat testen, Bewertungssätze erstellen und automatisierte Tests ausführen.

Debug-Chat

Debug-Chat bietet eine Testumgebung in Echtzeit, in der Sie mit Ihrem Agent interagieren und sein Verhalten überprüfen können.

Starten einer Debug-Sitzung

  1. Öffnen Sie in Studio Web Ihren Conversational Agent.
  2. Wählen Sie Debug, um die Chatoberfläche zu öffnen.
  3. Senden Sie Nachrichten, um die Antworten Ihres Agenten zu testen.

Debug Chat-Oberfläche

Anzeigen von Ausführungsspuren

Der Verlaufsbereich zeigt Echtzeitdetails zur Ausführung des Agents an:

  • LLM-Aufrufe: Die Eingabeaufforderungen, die an das Modell gesendet werden, und die empfangenen Antworten.
  • Toolaufrufe: Welche Tools aufgerufen wurden, mit Argumenten und Ausgaben.

Erweitern Sie einen beliebigen Schritt, um vollständige Details anzuzeigen, einschließlich Tokenanzahl und Latenz.

Bereich „Trace-Ausführungsspuren“

Anzeigen von Zitaten

Wenn Ihr Agent Kontextgrundlage verwendet, werden Zitate in der Antwort angezeigt, die zeigen, welche Dokumente die Antwort informiert haben.

  1. Suchen Sie in der Antwort des Agenten nach Zitatmarkern (in der Regel nummerierte Referenzen).
  2. Wählen Sie ein Zitat aus, um die Quelle und den relevanten Auszug anzuzeigen.
  3. Stellen Sie sicher, dass Zitate die Antwort des Agenten genau unterstützen.

Zitatansicht

Hinzufügen von Konversationen zu Auswertungssätzen

Speichern Sie nach einer erfolgreichen Testinteraktion für automatisierte Tests:

  1. Wählen Sie auf der Registerkarte „Chat“ die Option Zu Auswertungssatz hinzufügen aus.
  2. Wählen Sie einen vorhandenen Auswertungssatz aus oder erstellen Sie einen neuen.

Die Konversation wird gespeichert mit:

  • Konversationsverlauf: Alle vorherigen Runden im Dialog.
  • Aktuelle Benutzernachricht: Die letzte Eingabe des Benutzers.
  • Erwartete Agent-Antwort: Die tatsächliche Antwort des Agents (die Sie bearbeiten können).

Auswertungssätze

Auswertungssätze sind Sammlungen von Testfällen, die das Verhalten Ihres Agenten validieren.Sie unterstützen sowohl Einzel- als auch mehrstufige Testszenarien.

Ausführliche Anleitung zur Auswertung finden Sie unter Agenten-Auswertungen.

Einzelturn-Auswertungen

Einzelturn-Auswertungen testen isolierte Frage-und-Antwort-Paare ohne Konversationsverlauf.Es handelt sich um Auswertungstests, bei denen Sie den ersten Eingabeaufforderung in einer Konversation testen.

Verwenden Sie Einzelrundenbewertungen für:

  • Testen der spezifischen Wissensabfrage.
  • Validierung der Toolauswahl für verschiedene Absichten.
  • Überprüfen des Antwortformats und des Tonfalls.

Beispiel:

BenutzernachrichtErwartetes Verhalten
„Wie viele Feiertage haben wir in den USA?“Gibt die korrekte Anzahl zurück und zitiert das Richtliniendokument.
„Planen Sie ein Meeting mit John für morgen um 14 Uhr.“Ruft das Kalendertool mit den richtigen Parametern auf.

Mehrstufige Auswertungen

Mehrstufige Auswertungen testen, wie der Agent Konversationskontext und Anschlussfragen behandelt. Es handelt sich um Auswertungstests, bei denen der getestete Prompt einer vorherigen Konversation folgt.

Verwenden Sie mehrstufige Auswertungen für:

  • Testen der Kontextaufbewahrung über Runden hinweg.
  • Validierung der Pronomenauflösung („es“, „das“, „dasselbe“).
  • Überprüfen des Konversationsflusses und der Kohärenz.

Beispiel:

RundeMeldungErwartetes Verhalten
1„Was ist die Urlaubsrichtlinie (PTO)?“Gibt eine PTO-Richtlinienzusammenfassung zurück
2„Wie fordere ich eine Auszeit anfordern?“Verweise im PTO-Kontext, erklärt den Prozess zum Anfordern.
3„Kann ich das über E-Mail tun?“Versteht, dass sich „das“ auf das Anfordern von Freizeit bezieht.

Erstellen von Auswertungstests

Aus Debug-Chat
  1. Führen Sie eine Konversation im Debug-Chat aus.
  2. Wählen Sie im Chat-Bereich die Option Zu Auswertungssatz hinzufügen aus.
  3. Der Konversationsaustausch wird als Auswertungstest in Ihrem ausgewiesenen Auswertungssatz hinzugefügt.
Verwenden des Conversation Builders

Mit dem Conversation Builder können Sie mehrstufige Testfälle erstellen oder bearbeiten:

  1. Wählen Sie Auswertungssätze für Ihren Agent in Studio Web aus.
  2. Wählen Sie einen Auswertungssatz aus oder erstellen Sie einen neuen. Wenn diese Optionen deaktiviert sind, stellen Sie sicher, dass Sie nicht im Debugmodus sind.
  3. Wählen Sie Hinzufügen aus, um einen vorhandenen Test festzulegen oder zu bearbeiten.
  4. Verwenden Sie den Conversation Builder, um:
    • Fügen Sie Gesprächsverlaufsschritte hinzu.
    • Definieren Sie die aktuelle Benutzernachricht.
  5. Verwenden Sie die Ausgabe, um die Assertion zu definieren.
    • Geben Sie die erwartete Agent-Antwort für deterministische und LLM-als-Richter-basierte Auswerter an.
    • Geben Sie die „Verhaltens- und Ausgabenotizen“ für trajektorienbasierte Auswerter an.

Konversationsgenerator

Toolsimulationen

Mit Simulationen können Sie das Agent-Verhalten testen, ohne echte Tool-Endpunkte auszuführen. Für jeden Auswertungstest können Sie angeben, ob Tools ihre Ausführung tatsächlich durchführen oder simulieren sollen.

Simulationen verbessern Agenten-Auswertungen, indem sie Folgendes aktivieren:

  • Sichere Tests: Vermeiden Sie unbeabsichtigte Nebenwirkungen durch Aufrufe echter APIs oder Dienste.
  • Schnellere Ausführung: Überspringen Sie Netzwerklatenz und Verzögerungen durch externe Dienste.
  • Kostengünstige Ausführungen: Reduzieren Sie API-Kosten während iterativer Tests.
  • Reproduzierbarkeit: Erhalten Sie konsistente Ergebnisse, indem Sie die Toolausgaben steuern.

Sie können das Simulationsverhalten für jeden Auswertungstest konfigurieren:

  1. Öffnen Sie einen Auswertungssatz.
  2. Wählen Sie einen Testfall zum Bearbeiten aus.
  3. Geben Sie in der Testkonfiguration an, welche Tools die Ausführung simulieren sollen.
  4. Definieren Sie die erwartete simulierte Ausgabe für jedes Tool.
Generieren von Tests mit natürlicher Sprache

Verwenden Sie Autopilot, um Auswertungstests aus Beschreibungen zu generieren:

  1. Wählen Sie auf dem Bildschirm „Auswertungssätze“ die Option „Erstellen“ und „Neuen Auswertungssatz generieren“ aus.
  2. Beschreiben Sie die Szenarien, die Sie in natürlicher Sprache testen möchten.
  3. Überprüfen und optimieren Sie die generierten Testfälle.

Beispielprompt:

Generate test cases for an HR assistant that:
- Answers questions about vacation policy
- Handles requests to schedule meetings
- Escalates when asked about salary information
- Responds appropriately when the user is frustrated
Generate test cases for an HR assistant that:
- Answers questions about vacation policy
- Handles requests to schedule meetings
- Escalates when asked about salary information
- Responds appropriately when the user is frustrated
Hinweis:

Von Autopilot generierte Auswertungstests verwenden automatisch trajektorienbasierte Auswertungen.

Dialogfeld „Tests generieren“

Ausführen von Auswertungen

Ausführen eines einzelnen Tests

  1. Wählen Sie einen Testfall aus Ihrem Evaluationssatz aus.
  2. Wählen Sie Ausgewählte auswerten aus.
  3. Überprüfen Sie die Ergebnisse und vergleichen Sie die tatsächliche Ausgabe mit der erwarteten Ausgabe.

Ausführen von Batch-Auswertungen

  1. Gehen Sie zu Auswertungssätzen.
  2. Wählen Sie für den gewünschten Auswertungssatz die Option Ausführen aus, um alle Tests auszuführen.
  3. Überprüfen Sie die Ergebnisse mit Bestehen-/Nichtbestehensraten.

Auswertungsergebnisse

Testen mit verschiedenen Modellen

Führen Sie denselben Auswertungssatz mit verschiedenen Modellen aus, um die Leistung zu vergleichen:

  1. Wählen Sie im Auswertungssatz die Option Auswertungseinstellungen aus, um ein zusätzliches Zielmodell hinzuzufügen.
  2. Führen Sie die Auswertung aus.
  3. Vergleichen Sie Ergebnisse über Modelle hinweg, um die beste Lösung für Ihren Anwendungsfall zu identifizieren.

Dies hilft Ihnen zu verstehen:

  • Welche Modelle für Ihre spezifischen Szenarien die beste Leistung bieten.
  • Kompromisse zwischen Antwortqualität und Latenz.
  • Kostenauswirkungen verschiedener Modellauswahlen.

Auswertungsmetriken

Auswertungen bewerten mehrere Dimensionen des Agent-Verhaltens:

MetrikBeschreibung
AntwortgenauigkeitEnthält die Antwort korrekte Informationen?
ToolauswahlHat der Agent das entsprechende Tool ausgewählt?
ZitatqualitätSind Zitate relevant und genau?
Ton und FormatEntspricht die Antwort dem erwarteten Stil?
KontextaufbewahrungPflegt der Agent den Kontext über Runden hinweg?

Bewährte Methoden zur Auswertung

Testen Sie sowohl erfolgreiche als auch unerwünschte Pfade.

Testen Sie nicht nur ideale Szenarien. Fügen Sie Folgendes ein:

  • Mehrdeutige Fragen
  • Anfragen außerhalb des Umfangs
  • Randfälle und Error-Bedingungen
  • Mehrsprachige Eingaben (wenn unterstützt)

Repräsentative Testsuiten erstellen

Erstellen Sie Auswertungssätze, die echte Nutzungsmuster widerspiegeln:

  • Analysieren Sie häufige Benutzerabfragen aus der Produktion.
  • Variationen der gleichen Frage einschließen
  • Testen Sie verschiedene Benutzerpersönlichkeiten und Kommunikationsstile

Iterieren basierend auf Ergebnissen

Verwenden Sie Auswertungsfehler, um Ihren Agent zu verbessern:

  1. Identifizieren Sie Muster in fehlgeschlagenen Tests.
  2. Aktualisieren Sie System-Prompts oder Toolkonfigurationen.
  3. Führen Sie Auswertungen erneut aus, um Verbesserungen zu überprüfen.
  4. Fügen Sie neue Tests für erkannte Randfälle hinzu.

Nächste Schritte

War diese Seite hilfreich?

Verbinden

Benötigen Sie Hilfe? Support

Möchten Sie lernen? UiPath Academy

Haben Sie Fragen? UiPath-Forum

Auf dem neuesten Stand bleiben