UiPath Documentation
ixp
latest
false
  • Überblick
    • Einleitung
    • Extraktion von Daten aus unstrukturierten Dokumenten
    • Erstellen und Bereitstellen von Modellen
    • Kontingente
  • Modellerstellung
  • Modellvalidierung
    • Überblick
    • Evaluierung der Modellleistung
    • Erfassung von Validierungsstatistiken
    • Iteration der Taxonomie
  • Modellbereitstellung
  • API
  • Häufig gestellte Fragen
Wichtig :
Es kann 1–2 Wochen dauern, bis die Lokalisierung neu veröffentlichter Inhalte verfügbar ist.
UiPath logo, featuring letters U and I in white

Benutzerhandbuch für Unstrukturierte und komplexe Dokumente

Letzte Aktualisierung 7. Apr. 2026

Evaluierung der Modellleistung

Sie können die Leistung des Modells an folgenden Stellen bewerten:

  • Über die Registerkarte Erstellen, die die Gesamtpunktzahl des Projekts sowie die Fehlerquote für jedes Dokument anzeigt.
  • Über die Registerkarte Messen, die die Leistung auf Feldgruppen- und Feldebene anzeigt.

Auswerten der Modellleistung in „Erstellen“

Unter der Projektpunktzahl auf der Registerkarte Erstellen können Sie eine Gesamtbewertung sehen.

Hinweis:
  • Gesunde Modelle haben eine Projektbewertung gut oder ausgezeichnet und keine Warnung zur Feldleistung.​.
  • Die Projektpunktzahl wird basierend auf dem durchschnittlichen F1-Score über alle Felder hinweg berechnet.

Auf dieser Abbildung sehen Sie ein Beispiel dafür, wie die Projektpunktzahl aussieht, und die Beschreibung der Leistungsstufen samt Punktzahl.

Darüber hinaus können Sie die Fehlerquote für jedes Dokument in der Spalte Fehlerquote im Abschnitt Dokumente in Erstellen sehen.

Hinweis:

Fehlerraten sind nur für Dokumente mit Anmerkungen verfügbar und geben die Anzahl der Fehler an, die das Modell in jedem Dokument gemacht hat, d. h. die Differenz zwischen den Vorhersagen des Modells und den Benutzeranmerkungen.

Auf dieser Abbildung sehen Sie die Registerkarte „Erstellen“, wobei die Spalte „Fehlerquote“ für Dokumente hervorgehoben ist.

Evaluierung der Modellleistung in „Messen“

Hinweis:

Die Aktualisierungen der Seite Messen sind in der öffentlichen Vorschau verfügbar.

Auf der Seite Measure können Sie bewerten, wie gut ein Modell bei mit Anmerkungen versehenen Dokumenten abschneidet, bevor Sie sie veröffentlichen. Die Seite enthält:

  • Eine Feldleistungstabelle, die wichtige Leistungsmetriken pro Feld und Feldgruppe anzeigt.
  • Unterstützung für den Vergleich von Leistungsunterschieden zwischen Modellversionen und Hervorheben von Verbesserungen oder Regressionen.
  • Sichtbarkeit der Verteilung von Error für jedes Taxonomie-Feld.
  • Datenexportfunktionen für benutzerdefinierte Offline-Analysen.

In den folgenden Abschnitten werden die wichtigsten Komponenten von Measure beschrieben und erläutert, wie Sie diese bei der Analyse der Modellleistung effektiv verwenden können.

Projektzusammenfassung

Der Abschnitt „Zusammenfassung“ bietet eine schnelle, übergeordnete Ansicht über die Leistung Ihrer aktuellen Modellversion im gesamten Projekt. Sie können damit:

  • Die Modellversion auswählen, die Sie auswerten möchten.
  • Anhand des Projekt-Scores und der durchschnittlichen Dokumentfehlerquote einen schnellen Überblick über die Gesamtleistung erhalten.
  • Im Vergleich zu einer früheren Version schnell erkennen, ob die Gesamtleistung des Projekts nach oben oder unten tendiert.

Projektzusammenfassung in Measure

Projektpunktzahl

Der Projekt-Score fasst die Gesamtleistung des Modells zusammen.

Warum dies nützlich ist

  • Bietet eine einzige, einheitliche Methode, den Gesamtfortschritt während der Überarbeitung der Taxonomie, der Anweisungen und der Anmerkungen zu verfolgen.
  • Sie hilft Ihnen bei der schnellen Bestimmung, ob sich eine Modellversion insgesamt verbessert oder verschlechtert, bevor Sie sich mit bestimmten Feldern befassen.

Wie sie berechnet wird

  • Der Projekt-Score wird als einfacher Durchschnitt der F1-Scores für alle Felder in der Taxonomie berechnet.
  • Der F1-Score ist eine Standardmetrik für die Modellleistung, die Präzision und Recall ausbalanciert, er stellt das harmonische Mittel dieser beiden Werte dar.
  • Auf einer höheren Ebene:
    • Präzisionswerte: Wie oft waren die vorhergesagten Werte des Modells richtig?
    • Recall-Werte: Wie viel der mit Anmerkungen versehenen Daten hat das Modell erfolgreich identifiziert?
Hinweis:

Der Projekt-Score ist ein Durchschnittswert. Spezifische Regressionen oder Einschränkungen auf Feldebene können anhand der Tabelle der Feldleistung überprüft werden.

Durchschn. Dokumentfehlerquote

Die durchschnittliche Dokumentenfehlerquote ist der Durchschnitt der Fehlerquoten für jedes mit Anmerkungen versehene Dokument im Projekt.

Warum dies nützlich ist

Die durchschnittliche Dokumentenfehlerquote liefert einen schnellen Anhaltspunkt dafür, wie fehleranfällig Dokumente sind, wenn sie von der ausgewählten Modellversion verarbeitet werden, was bei der Bewertung der Veröffentlichungsreife hilft.

Wie sie berechnet wird

Der Wert wird als einfacher Durchschnitt der Fehlerquote jedes vollständig mit Anmerkungen versehenen Dokuments im Projekt berechnet.

Tabelle der Feldleistung

Die Feldleistungstabelle ist die primäre Methode zur Analyse der Modellleistung auf der Measure-Seite. Sie zeigt pro Feld oder Feldgruppe eine Zeile an, zusammen mit Leistungs- und Fehlermetriken, die für alle mit Anmerkungen versehenen Dokumente im Projekt berechnet werden. Bei der Berechnung von Metriken berücksichtigt die Tabelle keine nicht mit Anmerkungen versehenen und nur teilweise mit Anmerkungen versehenen Dokumente.

Die Feldleistungstabelle in Messen

Die Tabelle hilft bei der Beantwortung von Fragen wie:

  • Welche Felder beeinflussen die Gesamtleistung des Modells?
  • Konzentrieren sich die Fehler auf wenige Felder oder sind sie breit gestreut?
  • Hat eine kürzlich vorgenommene Modelländerung bestimmte Felder verbessert oder verschlechtert?

Die Tabelle zur Feldleistung enthält mehrere Kategorien von Metriken, mit denen Sie die Modellleistung aus verschiedenen Perspektiven analysieren können. Jede Kategorie gibt Aufschluss über eine bestimmte diagnostische Frage dazu, wie sich Ihr Modell über verschiedene Felder und Dokumente hinweg verhält.

Hinweis:

Validierungsstatus und Teilergebnisse Um Wartezeit zu reduzieren:

  • Die Leistungsmetriken für die Felder werden sichtbar, sobald die Validierung einen Mindestfortschrittsgrad erreicht hat.
  • Warnungen weisen darauf hin, wenn die Validierung noch läuft und sich die angezeigten Ergebnisse noch ändern können.
Leistungsmetriken

Der Zweck der Leistungsmetriken besteht darin, die Gesamtqualität der Extraktion für jedes Feld oder jede Feldgruppe zu bewerten.

Die Leistungsmetriken werden wie folgt beschrieben

  • F1-Score – Der harmonische Mittelwert aus Präzision und Recall: F1 = 2 × (Präzision × Recall) / (Präzision + Recall). Der F1-Score bleibt nur dann hoch, wenn sowohl Präzision als auch Recall hoch sind. In der Praxis macht dies F1 zu einem starken Gesamtqualitätsindikator für Extraktionsaufgaben, bei denen es darauf ankommt, falsche Werte und fehlende Werte zu vermeiden. Daher ist F1 eine nützliche erste Metrik zur Überprüfung, um Änderungen der Feldleistung über verschiedene Modellversionen hinweg zu analysieren.
  • Präzision – Misst, wie häufig vorhergesagte Werte korrekt sind: Präzision = Wahr-Positive / (Wahr-Positive + Falsch-Positive). Wahr-Positive sind Vorhersagen, die mit dem mit Anmerkungen versehenen Wert übereinstimmen, wobei Werte, die als fehlend gekennzeichnet sind, ausgeschlossen werden.
  • Recall – Misst, wie oft das Modell einen Wert findet, wenn dieser vorhanden ist: Recall = Wahr-Positive / (Wahr-Positive + Falsch-Negative). Falsch-Negative sind mit Anmerkungen versehene Werte, die das Modell nicht vorhergesagt hat, wobei als fehlend gekennzeichnete Werte ausgenommen sind.
  • Fehlerquote – Gesamtzahl der Fehler / Gesamtzahl der Anmerkungen. Als fehlend markierte Werte werden in die Zählung der Fehler und Anmerkungen aufgenommen.
  • Fehlerquote (ohne fehlende Werte) – (Gesamtzahl der Fehler – Zusätzliche Vorhersagen) / Mit Anmerkungen versehene Werte. Als fehlend markierte mit Anmerkungen versehene Werte werden nicht berücksichtigt.
Vorhersagen und Fehler

Der Zweck der Metriken zu Vorhersagen und Fehler besteht darin, Umfang und Zusammensetzung der Fehler zu erfassen, die zu einer schlechten Leistung beitragen.

Die Metriken werden wie folgt beschrieben:

  • Gesamtzahl Fehler – Gesamtzahl der Fehler für ein Feld über alle Fehlerklassen hinweg: Gesamtzahl Fehler = Falsche Vorhersagen + Fehlende Vorhersagen + Zusätzliche Vorhersagen.
  • Gesamtzahl Vorhersagen – Gesamtzahl der vorhergesagten Werte für ein Feld: Gesamtzahl Vorhersagen = Korrekte Werte + Korrekt als fehlend erkannte Werte + Falsche Vorhersagen.
  • Falsche Vorhersagen – Anzahl der Vorhersagen, bei denen der extrahierte Wert nicht mit der Anmerkung übereinstimmt. Vorhersagen und mit Anmerkungen versehene Werte, die als fehlend markiert sind, sind ausgeschlossen.
  • Zusätzliche Vorhersagen – Anzahl der vorhergesagten Werte, die das Modell nicht hätte extrahieren dürfen oder für die es keine entsprechende Anmerkung oder keine als fehlend markierte Anmerkung gab.
  • Fehlende Vorhersagen – Anzahl der mit Anmerkungen versehenen Werte, die das Modell nicht extrahieren konnte.
  • Korrekte Werte – Anzahl der vorhergesagten Werte, die genau der Anmerkung entsprechen.
  • Korrekt als fehlend erkannt – Anzahl der Instanzen, bei denen das Modell korrekt vorhergesagt hat, dass ein Wert fehlt.
Anmerkungen

Der Zweck der Anmerkungsmetriken besteht darin, Aufschluss darüber zu geben, inwieweit die einzelnen Metriken durch gekennzeichnete Daten gestützt werden und wie zuverlässig die Leistungswerte sind.

Die Metriken werden wie folgt beschrieben:

  • Gesamtzahl der Anmerkungen – Gesamtzahl der Anmerkungen, einschließlich Werte, die als fehlend gekennzeichnet sind: Gesamtanzahl der Anmerkungen = Mit Anmerkungen versehene Werte + Anmerkungen, die als fehlend gekennzeichnet sind.
  • Mit Anmerkungen versehene Werte – Gesamtzahl der mit Anmerkungen versehenen Feldwerte, ausgenommen derer, die als fehlend markiert sind.
  • Als fehlend gekennzeichnet – Gesamtzahl der Fälle, in denen ein Feld explizit als fehlend gekennzeichnet wurde.
Metriken auf Dokumentebene

Der Zweck von Metriken auf Dokumentebene besteht darin, zu verstehen, wie sich Fehler über die Dokumente verteilen, und nicht nur über die Vorhersagen.

Die Metriken werden wie folgt beschrieben:

  • Dokumente mit Fehlern – Gesamtzahl der Dokumente, in denen das Feld mindestens einen Fehler aufweist.
  • Mit Anmerkungen versehene Dokumente – Gesamtzahl der Dokumente, in denen das Feld mindestens einen mit Anmerkungen versehenen Feldwert aufweist.
  • Prozentsatz der Dokumente mit Fehlern – Prozentsatz der mit Anmerkungen versehenen Dokumente, die mindestens einen Fehler in diesem Feld enthalten: Dokumente mit Fehlern / Mit Anmerkungen versehene Dokumente.
Beispielszenarien

Szenario 1: Niedrige F1 + Niedrige Präzision, aber moderater oder hoher Recall

Was Sie beobachten

F1 ist niedrig, Präzision ist niedrig und Recall ist moderat oder hoch.

Was das normalerweise bedeutet

  • Das Modell extrahiert Werte für ein Feld, aber es werden mehr Werte vorhergesagt, als Sie erwarten.
  • Häufige Ursachen:
    • Die Feldanweisung ist entweder zu allgemein oder unklar. Die Feldanweisung lautet beispielsweise: Den Betrag erfassen, gibt jedoch nicht an, welcher Betrag gemeint ist.
    • Das Dokument enthält ähnliche Werte, die miteinander verwechselt werden können, z. B. Teilsumme versus Gesamtsumme, Versandadresse versus Rechnungsadresse.

Nächste Schritte

Vergleichen Sie die falschen und zusätzlichen Vorhersagen, um festzustellen, ob das Problem an die Extrahierung des falschen Werts gebunden ist (Anzahl der falschen Vorhersagen anders als Null) oder der Wert überhaupt nicht extrahiert werden sollte (Anzahl der zusätzlichen Vorhersagen anders als Null).

Präzisieren Sie Ihre Feldanweisungen mit Bezeichnungen, Schlüsselwörtern und Formatierungsbeschränkungen.

Szenario 2: Hohe Anzahl Fehlender Vorhersagen (Recall ist niedrig), Präzision ist moderat oder hoch

Was Sie beobachten

  • Der Recall ist niedrig und die Präzision ist moderat oder hoch (F1 ist in der Regel niedrig oder moderat).
  • Die Anzahl fehlender Vorhersagen ist hoch, mitunter höher als die Anzahl falscher oder zusätzlicher Vorhersagen.

Was das normalerweise bedeutet

  • Das Modell kann vorhandene Werte nicht extrahieren.
  • Häufige Ursachen:
    • Die Feldanweisung ist zu eng gefasst, was zu übermäßig eingeschränkten Beispielen oder zu spezifischen Anforderungen an die Kennzeichnung führt.
    • Der Wert wird in mehreren Formaten angezeigt, z. B. Daten und IDs, und die Anweisung deckt keine Varianten ab.

Nächste Schritte

  • Verwenden Sie Fehlende Vorhersagen + Mit Anmerkungen versehene Werte, um zu bestätigen, dass es sich um ein Recall-Problem handelt, das heißt, dass die Werte zwar vorhanden sind, aber nicht gefunden werden. Üperprüfen Sie mit Anmerkungen versehene Werte, um sicherzustellen, dass eine angemessene Anzahl von annotierten Datenpunkten für das Feld vorhanden ist, und Fehlende Vorhersagen, um zu bestätigen, dass das Modell Schwierigkeiten hat, Werte zu finden, anstatt sie falsch vorherzusagen.
  • Erweitern Sie die Anweisungen, um akzeptable Varianten aufzunehmen: alternative Bezeichnungen oder Synonyme, mehrere Formatierungsmuster, Standorthinweise (z. B. in der Nähe von Antragsdetails oder unter dem Abschnitt „Kreditnehmer“).

Szenario 3: Hohe Fehlerquote, aber Niedrige Dokumente mit Fehlern (Fehler konzentrieren sich auf wenige Dokumente)

Was Sie beobachten

  • Die Fehlerquote ist hoch oder die Gesamtzahl der Fehler ist hoch.
  • Dokumente mit Fehlern sind im Vergleich zu mit Anmerkungen versehenen Dokumenten niedrig.
  • Oft sieht ein Feld schlecht aus, schlägt aber nur bei einer kleinen Teilmenge von Dokumenten fehl.

Was das normalerweise bedeutet

  • Fehler werden durch Ausreißerdokumente und nicht durch systemisches Feldverhalten verursacht.
  • Häufige Ursachen:
    • Ein bestimmtes Dokument oder Format verhält sich anders als der Rest.
    • OCR- oder Qualitätsprobleme in einer kleinen Anzahl von Dokumenten, wie verschwommene Scans, verzerrte Scans und handschriftliche Überlagerungen.
    • Das Feld ist in den meisten Dokumenten vorhanden, wird jedoch ungewöhnlich formatiert, z. B. mehrzeilige statt einzelne Zeile.

Nächste Schritte

  • Vergleichen Sie Dokumente mit Fehlern und mit Anmerkungen versehene Dokumente und optional % der Dokumente mit Fehlern, um die Konzentration zu bestätigen.
  • Sortieren Sie Dokumente nach Fehlerrate auf der Seite Build und überprüfen Sie Dokumente mit der höchsten Fehlerquote, um festzustellen, ob das Feld in einer bestimmten Teilmenge schlecht funktioniert.

Szenario 4: Große Leistungsschwankungen zwischen Versionen mit wenigen Anmerkungen

Was Sie beobachten

  • Große Unterschiede in F1 oder Fehlerquote zwischen Modellversionen (oben oder unten), aber mit Anmerkungen versehene Werte sind niedrig, mit Anmerkungen versehene Dokumente sind niedrig oder beides.

Was das normalerweise bedeutet

  • Die Feldmetriken sind aufgrund der kleinen Beispielgröße noch nicht stabil.
  • Häufige Ursachen:
    • Zu wenige Beispiele – 1–2 Dokumente können die Raten erheblich ändern.
    • Das Feld ist selten vorhanden, das heißt, viele fehlende Fälle und wenige wahre Werte.
    • Eine Handvoll schwieriger Dokumente dominieren die Metrik.

Nächste Schritte

  • Überprüfen Sie Mit Anmerkungen versehene Werte, Mit Anmerkungen versehene Dokumente und als fehlend annotierte Werte, um eine geringe Abdeckung zu validieren.
  • Behandeln Sie die Metriken als richtungsweisend und nicht endgültig, bis die Abdeckung zunimmt.
  • Fügen Sie weitere beschriftete Daten speziell für dieses Feld hinzu: Priorisieren Sie Dokumente, in denen das Feld vorhanden ist, und fügen Sie eine Vielzahl von Beispielen oder Varianten ein.
  • Verwenden Sie Versionsvergleiche nur, nachdem die Abdeckung ausreicht, um variabilitätsbedingtes Rauschen zu reduzieren.
Filtern und Sortieren

Um Zeilen in der Tabelle zu filtern, wählen Sie einen oder mehrere der verfügbaren Schnellfilter aus:

  • Mit Anmerkungen versehene Werte <10
  • Feld-F1-Score < 50
  • Feld-F1-Score innerhalb von 50–70

Die folgenden Abbildungen zeigen ein Beispiel für die Ergebnisse der Feldleistungstabelle vor und nach dem Anwenden eines Schnellfilters:

Feldleistungstabelle, bevor und nach dem Anwenden eines Filters

Sie können auch die Tabelle „Feldleistung“ nach jeder Metrik in der Tabelle sortieren. Wenn eine Sortierung angewendet wird, werden Werte innerhalb ihrer jeweiligen Feldgruppe sortiert. Wenn Sie beispielsweise die Tabelle nach der F1-Punktzahl sortieren, werden die Felder innerhalb jeder Feldgruppe relativ miteinander sortiert:

Ergebnisse der Feldleistungstabelle, wenn Sie nach der F1-Punktzahl sortieren

Sichtbarkeitseinstellungen

Standardmäßig zeigt Measure Unterschiede bei Leistungsmetriken an, z. B. F1-Score und Fehlerquote.

Um Unterschiede über alle Metriken hinweg anzuzeigen, gehen Sie wie folgt vor:

  1. AAktivieren Sie den Umschalter Unterschiede in Scores anzeigen aus: Version.

  2. Wählen Sie die Option Unterschiede in Scores anzeigen aus: Version-Dropdownmenü.

    Die Sichtbarkeitseinstellungen

  3. Wählen Sie Sichtbarkeitseinstellungen aus.

  4. Wählen Sie im Popup Versionsänderungen – Sichtbarkeitseinstellungen die Option Alle Metriken aus. Die verfügbaren Optionen sind:

    • Nur Leistungsmetriken – Leistungsmetriken werden durch Modellvorhersagen bestimmt, die mit Anmerkungen verglichen werden, z. B. F1-Score und Fehlerquote.
    • Alle Metriken
    • Änderungen innerhalb der Modellvariabilität anzeigen – Standardmäßig werden Änderungen innerhalb der Variabilitätsbereiche der aktuellen Version nicht als signifikant angesehen und ausgeblendet. Aktivieren Sie diese Option, um sie anzuzeigen. Wenn diese Option ausgewählt ist, wird die folgende Option verfügbar:
      • Farben für alle Änderungen anzeigen – Standardmäßig werden Änderungen innerhalb des Variabilitätsbereichs grau angezeigt. Aktivieren Sie diese Option, um alle Änderungen grün oder rot zu färben.
  5. Wählen Sie Speichern.

Modellversionen

Modellversionen erfassen den aktuellen Status des Projekts zum Zeitpunkt der Versionserstellung. Sie können Modellversionen veröffentlichen, um sie zu speichern und in einer Automatisierung zu verwenden. Darüber hinaus können Sie Versionen auf der Seite Measure mit Sternen versehen, um ihre Leistungsstatistiken zu speichern. Sie können die aktuelle Leistung mit früheren Versionen vergleichen, um eine kontinuierliche Leistungsverbesserung während der Iteration von Anweisungen zu gewährleisten.

Auswählen einer Modellversion

Verwenden Sie das Version-Dropdownmenü, um auszuwählen, welche Validierungsergebnisse einer bestimmten Modellversion auf der gesamten Measure-Seite angezeigt werden, z. B. Feldleistung, Dokumentleistung und zugehörige Metriken. Wenn Sie die Modellversion wechseln, werden alle Metriken auf der Seite aktualisiert, um die Validierungsergebnisse der ausgewählten Version widerzuspiegeln.

Das Versions-Dropdownmenü

Vergleichen verschiedener Modellversionen mithilfe von Score-Differenzen

Wenn mehrere Modellversionen verfügbar sind, können Sie auf der Seite Measure das aktuelle Modell mit einer früheren Version vergleichen. Auf diese Weise können Sie die Auswirkungen von Änderungen an Feldanweisungen, Änderungen in Anmerkungen oder Aktualisierungen der Modellkonfiguration besser verstehen.

So funktioniert es:

  • Mit Measure können Sie die Differenzen der Scores gegenüber einer anderen Modellversion anzeigen.
  • Positive oder negative Änderungen heben Verbesserungen oder Regressionen hervor. Standardmäßig führt Measure Vergleiche mit der vorherigen Modellversion relativ zur zuletzt erstellten Modellversion durch.

Um eine andere Modellversion zu vergleichen, wählen Sie eine verfügbare Version mit der Option Score-Differenzen anzeigen aus dem Version-Dropdownmenü.

Das Versions-Dropdownmenü mit Bewertungsunterschieden

Verständnis der Modellvariabilität und der Auswirkungen auf Score-Differenzen.

Einige Modelle in Intelligente Datenextraktion und Verarbeitung (IXP) sind nicht deterministisch, was bedeutet, dass der Satz von Vorhersagen eines Felds zwischen Modellversionen geringfügig variieren kann, auch wenn die Anweisungen dieses Felds unverändert bleiben.

Auf der Seite Measure können Sie die Modellvariabilität während der Leistungsanalyse berücksichtigen.Dies hilft Ihnen:

  • Zu verstehen, ob eine Leistungsänderung aussagekräftig ist.
  • Eine Überinterpretierung kleiner Metrikschwankungen zu vermeiden.

Standardmäßig

  • Score-Differenzen, die in den Variabilitätsbereich einer Metrik fallen, werden beim Vergleichen zweier Modellversionen ausgeblendet.
  • Sie können auswählen, ob alle Score-Differenzen oder nur Unterschiede angezeigt werden sollen, die größer oder gleich der Variabilität einer Metrik sind.

Diese Standardwerte stellen sicher, dass sich die Aufmerksamkeit auf erhebliche Änderungen der Modellleistung und nicht auf Rauschen konzentriert.

Um Unterschiede zwischen Modellversionen unabhängig von Modellvariabilität anzuzeigen, gehen Sie wie folgt vor:

  1. AAktivieren Sie den Umschalter Unterschiede in Scores anzeigen aus: Version.
  2. Wählen Sie die Option Unterschiede in Scores anzeigen aus: Version-Dropdownmenü.
  3. Wählen Sie Sichtbarkeitseinstellungen aus.
  4. Wählen Sie im Popup-Fenster die Option Änderungen innerhalb der Modellvariabilität anzeigen aus.Die verfügbaren Optionen sind:
    • Nur Leistungsmetriken – Leistungsmetriken werden durch Modellvorhersagen bestimmt, die mit Anmerkungen verglichen werden, z. B. F1-Score und Fehlerquote.
    • Alle Metriken
    • Änderungen innerhalb der Modellvariabilität anzeigen – Standardmäßig werden Änderungen innerhalb der Variabilitätsbereiche der aktuellen Version nicht als signifikant angesehen und ausgeblendet. Aktivieren Sie diese Option, um sie anzuzeigen. Wenn diese Option ausgewählt ist, wird die folgende Option verfügbar:
      • Farben für alle Änderungen anzeigen – Standardmäßig werden Änderungen innerhalb des Variabilitätsbereichs grau angezeigt. Aktivieren Sie diese Option, um alle Änderungen grün oder rot zu färben.
  5. Wählen Sie optional Farben für alle Unterschiede anzeigen aus, wenn Sie möchten, dass alle Score-Differenzen in grün oder rot angezeigt werden. Standardmäßig werden Unterschiede innerhalb des Variabilitätsbereichs grau angezeigt.
  6. Wählen Sie Speichern.

Fixieren einer Modellversion

Jedes Mal, wenn Sie Änderungen an Ihrer Taxonomie, einschließlich der Anweisungen, oder an den Modelleinstellungen vornehmen, wird eine neue Modellversion erstellt. Die neueste Version des Modells ist immer verfügbar, aber Sie können auch eine bestimmte Modellversion mit einem Stern versehen, also fixieren, sodass die Leistungsstatistiken immer im Dashboard angezeigt werden.

Um eine Modellversion zu fixieren, gehen Sie wie folgt vor:

  1. Erweitern Sie das Auswahlmenü Modellversion, um die Liste mit allen verfügbaren Versionen zu sehen.
  2. Wählen Sie das Sternsymbol neben der Modellversion, die immer oben in der Liste und im Dashboard angezeigt werden soll.
Hinweis:

Beim Starten einer Modellversion wird nicht die Modellversion selbst gespeichert, sondern nur die Leistungsstatistiken. Um eine Modellversion zu speichern, muss sie auf der Registerkarte Veröffentlichen veröffentlicht werden.

Die Sternschaltfläche, mit der eine Modellversion gestartet wird

Exportieren von Measure-Daten

Sie können Daten aus der Measure-Seite exportieren für:

  • Offline-Analyse.
  • Benutzerdefinierte Filterung.
  • Weitergabe der Ergebnisse an Interessengruppen.

Exporte enthalten Vorhersagen auf Feldebene, Anmerkungen und Leistungsmetriken, die auf der Measure-Seite sichtbar sind.

Um Daten zu exportieren, gehen Sie wie folgt vor:

  1. Gehen Sie zur Measure-Seite.
  2. Wählen Sie die vertikale Ellipse aus.
  3. Wählen Sie Als Excel-Datei exportieren aus.

Die Schaltfläche Als Excel-Datei exportieren zum Exportieren von Daten von der Seite Messen

War diese Seite hilfreich?

Verbinden

Benötigen Sie Hilfe? Support

Möchten Sie lernen? UiPath Academy

Haben Sie Fragen? UiPath-Forum

Auf dem neuesten Stand bleiben