ixp
latest
false
  • Überblick
    • Einleitung
    • Extraktion von Daten aus unstrukturierten Dokumenten
    • Erstellen und Bereitstellen von Modellen
    • Kontingente
  • Modellerstellung
  • Modellvalidierung
    • Überblick
    • Evaluierung der Modellleistung
    • Erfassung von Validierungsstatistiken
    • Iteration der Taxonomie
  • Modellbereitstellung
  • API
  • Häufig gestellte Fragen
Wichtig :
Es kann 1–2 Wochen dauern, bis die Lokalisierung neu veröffentlichter Inhalte verfügbar ist.
UiPath logo, featuring letters U and I in white

Benutzerhandbuch für Unstrukturierte und komplexe Dokumente

Letzte Aktualisierung 16. März 2026

Evaluierung der Modellleistung

Sie können die Leistung des Modells an folgenden Stellen bewerten:

  • Über die Registerkarte Erstellen, die die Gesamtpunktzahl des Projekts sowie die Fehlerquote für jedes Dokument anzeigt.
  • Über die Registerkarte Messen, die die Leistung auf Feldgruppen- und Feldebene anzeigt.

Auswerten der Modellleistung in „Erstellen“

Unter der Projektpunktzahl auf der Registerkarte Erstellen können Sie eine Gesamtbewertung sehen.

Hinweis:
  • Gesunde Modelle haben eine Projektbewertung gut oder ausgezeichnet und keine Warnung zur Feldleistung.​.
  • Die Projektpunktzahl wird basierend auf dem durchschnittlichen F1-Score über alle Felder hinweg berechnet.

Auf dieser Abbildung sehen Sie ein Beispiel dafür, wie die Projektpunktzahl aussieht, und die Beschreibung der Leistungsstufen samt Punktzahl.

Darüber hinaus können Sie die Fehlerquote für jedes Dokument in der Spalte Fehlerquote im Abschnitt Dokumente in Erstellen sehen.

Hinweis:

Fehlerraten sind nur für Dokumente mit Anmerkungen verfügbar und geben die Anzahl der Fehler an, die das Modell in jedem Dokument gemacht hat, d. h. die Differenz zwischen den Vorhersagen des Modells und den Benutzeranmerkungen.

Auf dieser Abbildung sehen Sie die Registerkarte „Erstellen“, wobei die Spalte „Fehlerquote“ für Dokumente hervorgehoben ist.

Evaluierung der Modellleistung in „Messen“

Hinweis:

The Measure page updates are available in public preview.

Auf der Seite Messung können Sie bewerten, wie gut ein Modell bei Dokumenten mit Anmerkungen abschneidet, bevor Sie sie veröffentlichen. Die Seite enthält:

  • Eine Feldleistungstabelle, die wichtige Leistungsmetriken pro Feld und Feldgruppe anzeigt.
  • Unterstützung für den Vergleich von Leistungsunterschieden zwischen Modellversionen, das Hervorheben von Verbesserungen oder Regressionen.
  • Einblick in die Verteilung von Fehlertypen für jedes Taxonomiefeld.
  • Datenexportfunktionen für benutzerdefinierte Offlineanalysen.

In den folgenden Abschnitten werden die Hauptkomponenten von Measure beschrieben und erläutert, wie Sie sie bei der Analyse der Modellleistung effektiv verwenden können.

Projektzusammenfassung

Der Abschnitt „Zusammenfassung“ bietet eine schnelle Übersicht über die Leistung Ihrer aktuellen Modellversion im gesamten Projekt. Sie können damit:

  • Wählen Sie die Modellversion aus, die Sie auswerten möchten.
  • Erhalten Sie mithilfe von Projektpunktzahl und Durchschn. einen Überblick über die Gesamtleistung. Dokumentfehlerquote .
  • Erkennen Sie im Vergleich zu einer früheren Version schnell, ob die Gesamtleistung des Projekts nach oben oder unten steigt oder fällt.

Project summary in Measure

Projektpunktzahl

Die Projektpunktzahl fasst die Gesamtleistung des Modells zusammen.

Warum es nützlich ist

  • Bietet eine einzige, konsistente Möglichkeit, den Gesamtfortschritt während der Überarbeitung der Taxonomie, der Anweisungen und der Anmerkungen zu verfolgen.
  • Hilft Ihnen bei der schnellen Bestimmung, ob sich eine Modellversion allgemein verbessert oder verschlechtert, bevor Sie in bestimmte Feldern gehen.

So wird sie berechnet

  • Die Projektpunktzahl wird als einfacher Durchschnitt der F1-Punktzahlen für alle Felder in der Taxonomie berechnet.
  • Die F1-Punktzahl ist eine Standardmetrik für die Modellleistung, die Präzision und Erinnerung ausbalanciert, d. h. das harmonische Mittelwert aus beiden.
  • Auf hoher Ebene:
    • Präzise Antworten: Wie oft waren die vorhergesagten Werte des Modells richtig?
    • Antworten bei der Erinnerung : Wie viele der Daten mit Anmerkungen hat das Modell erfolgreich gefunden?
Hinweis:

Die Projektpunktzahl ist ein Durchschnitt. Bestimmte Regressionen oder Einschränkungen auf Feldebene können mit der Tabelle Feldleistung überprüft werden.

Durchschn. Dokumentfehlerquote

Die durchschn. Die Dokumentfehlerquote ist der Durchschnitt der Fehlerraten für jedes Dokument mit Anmerkungen im Projekt.

Warum es nützlich ist

Die durchschn. Die Dokumentfehlerquote bietet einen schnellen Indikator dafür, wie fehleranfällig Dokumente sind, wenn die ausgewählte Modellversion sie verarbeitet, was bei der Bewertung der Veröffentlichungsbereitschaft hilft.

So wird sie berechnet

Der Wert wird als einfacher Durchschnitt der Fehlerquote jedes vollständig mit Anmerkungen versehenen Dokuments im Projekt berechnet.

Feldleistungstabelle

Die Feldleistungstabelle ist die primäre Methode zur Analyse der Modellleistung auf der Seite Messen . Es zeigt eine Zeile pro Feld oder Feldgruppe zusammen mit Leistungs- und Fehlermetriken an, die für die Dokumente mit Anmerkungen im Projekt berechnet wurden. Die Tabelle berücksichtigt bei der Berechnung von Metriken keine Dokumente ohne Anmerkungen und teilweise mit Anmerkungen.

The Field performance table in Measure

Die Tabelle hilft bei der Beantwortung von Fragen wie:

  • Welche Felder begrenzen die Gesamtleistung des Modells?
  • Sind Fehler auf einige wenige Felder konzentriert oder weit verbreitet?
  • Hat eine kürzlich durchgeführte Modelländerung bestimmte Felder verbessert oder beeinträchtigt?

Die Tabelle zur Feldleistung enthält mehrere Kategorien von Metriken, mit denen Sie die Modellleistung aus verschiedenen Perspektiven analysieren können. Jede Kategorie beantwortet eine spezifische Diagnosefrage zum Verhalten Ihres Modells in Feldern und Dokumenten.

Hinweis:

Validierungsstatus und Teilergebnisse Um die Wartezeit zu reduzieren:

  • Feldleistungsmetriken werden sichtbar, sobald die Validierung einen Mindestabschlussschwellenwert erreicht.
  • Warnungen weisen darauf hin, dass die Validierung noch läuft und dass die angezeigten Ergebnisse sich ändern können.
Performance metrics

Der Zweck der Leistungsmetriken ist die Bewertung der Gesamtqualität der Extraktion für jedes Feld oder jede Feldgruppe.

Die Leistungsmetriken werden wie folgt beschrieben:

  • F1-Punktzahl – Das harmonische Mittelwert für Genauigkeit und Erinnerung: F1 = 2 x (Präzision x Erinnerung) /(Präzision + Erinnerung). Die F1-Punktzahl bleibt nur hoch, wenn sowohl die Genauigkeit als auch die Erinnerung hoch sind. In der Praxis macht dies F1 zu einem guten Indikator für die Gesamtqualität von Extraktionsaufgaben, bei denen es darauf ankommt, falsche Werte und fehlende Werte zu vermeiden. Daher ist F1 eine nützliche erste Metrik, die überprüft werden muss, um Änderungen der Feldleistung zwischen Modellversionen zu analysieren.
  • Genauigkeit – Misst, wie oft vorhergesagte Werte korrekt sind: Genauigkeit = True-Positiven / (True-Positiven + Falsch-Positiven). True-Positiv sind Vorhersagen, die mit dem Wert mit Anmerkungen übereinstimmen, ohne Werte mit Anmerkungen als fehlend.
  • Rückruf – Misst, wie oft das Modell einen Wert findet, wenn er vorhanden ist: Erinnerung = True-Positiven / (True-Positiven + Falsch-Negativen). Falsch negative Werte sind Werte mit Anmerkungen, die das Modell nicht vorhergesagt hat, ohne Werte, die als fehlend mit Anmerkungen versehen sind.
  • Fehlerquote – Fehler insgesamt / Anmerkungen insgesamt. Werte, die als fehlend gekennzeichnet sind, werden in die Anzahl der Fehler und Anmerkungen aufgenommen.
  • Fehlerquote ( ohne fehlende) – (Fehler insgesamt – Zusätzliche Vorhersagen)/Werte mit Anmerkungen. Als fehlend markierte Werte mit Anmerkungen werden ausgeschlossen.
Vorhersagen und Fehler

Der Zweck der Vorhersagen und Fehlermetriken besteht darin, die Menge und Zusammenfassung von Fehlern zu verstehen, die zu einer schlechten Leistung beitragen.

Die Metriken werden wie folgt beschrieben:

  • Fehler insgesamt – Gesamtanzahl der Fehler für ein Feld in allen Fehlerklassen: Fehler insgesamt = Falsche Vorhersagen + Fehlende Vorhersagen + Zusätzliche Vorhersagen.
  • Vorhersagen insgesamt – Gesamtzahl der vorhergesagten Werte für ein Feld: Vorhersagen insgesamt = Korrekte Werte + Korrekte fehlende Vorhersagen + Falsche Vorhersagen.
  • Falsche Vorhersagen – Anzahl der Vorhersagen, bei denen der extrahierte Wert nicht mit der Anmerkung übereinstimmt. Schließt Vorhersagen und Werte mit Anmerkungen aus, die als fehlend gekennzeichnet sind.
  • Zusätzliche Vorhersagen – Anzahl der vorhergesagten Werte, die das Modell nicht hätte extrahieren sollen oder die keine entsprechende Anmerkung oder Anmerkung hatten, die als fehlend markiert war.
  • Fehlende Vorhersagen – Anzahl der Werte mit Anmerkungen, die das Modell nicht extrahieren konnte.
  • Korrekte Werte – Anzahl der vorhergesagten Werte, die genau mit der Anmerkung übereinstimmen.
  • Korrektes Fehlen – Anzahl der Instanzen, in denen das Modell korrekt vorhergesagt hat, dass ein Wert fehlt.
Anmerkungen

Der Zweck der Anmerkungsmetriken ist es, einen Kontext dafür zu geben, wie viele beschriftete Daten jede Metrik unterstützen und wie zuverlässig die Leistungsbewertungen sind.

Die Metriken werden wie folgt beschrieben:

  • Anmerkungen insgesamt – Gesamtzahl der Anmerkungen, einschließlich der als fehlend gekennzeichneten Werte: Anmerkungen insgesamt = Werte mit Anmerkungen + Werte mit Anmerkungen, die als fehlend markiert sind.
  • Mit Anmerkungen versehene Werte – Die Gesamtanzahl der Feldwerte mit Anmerkungen, ohne diejenigen, die als fehlend markiert sind.
  • Mit Anmerkungen versehen – Die Gesamtanzahl, wie oft ein Feld explizit als fehlend gekennzeichnet wurde.
Metriken auf Dokumentebene

Der Zweck von Metriken auf Dokumentebene besteht darin, zu verstehen, wie Fehler über Dokumente hinweg verteilt sind, und nicht nur über Vorhersagen.

Die Metriken werden wie folgt beschrieben:

  • Dokumente mit Fehlern – Gesamtzahl der Dokumente, bei denen das Feld mindestens einen Fehler aufweist.
  • Dokumente mit Anmerkungen – Die Gesamtanzahl der Dokumente, in denen das Feld mindestens einen Feldwert mit Anmerkungen hat.
  • Prozentsatz der Dokumente mit Fehlern – Prozentsatz der Dokumente mit Anmerkungen, die mindestens einen Fehler für das Feld enthalten: Dokumente mit Fehlern/Dokumente mit Anmerkungen.
Beispielszenarien

Szenario 1: Niedrige F1 + geringe Genauigkeit, aber die Erinnerung ist mäßig oder hoch

Was Sie beobachten

F1 ist niedrig, Genauigkeit ist niedrig und Rückruf ist mäßig oder hoch.

Was es normalerweise bedeutet

  • Das Modell extrahiert Werte für ein Feld, aber es werden mehr Werte vorhergesagt, als Sie erwarten.
  • Häufige Ursachen:
    • Die Feldanweisung ist zu allgemein oder mehrdeutig. Die Feldanweisung lautet z. B. den Betrag erfassen, aber es ist nicht der Betrag angegeben.
    • Das Dokument hat ähnliche Werte, die miteinander verwechselt werden können, z. B. Zwischensumme und Gesamtsumme, Empfänger und Rechnungsempfänger.

Nächste Schritte

Vergleichen Sie die falschen und zusätzlichen Vorhersagen, um festzustellen, ob das Problem mit dem Extrahieren des falschen Werts zusammenhängt (Anzahl der falschen Vorhersagen nicht null) oder ob der Wert überhaupt nicht extrahiert worden sein sollte (Anzahl der zusätzlichen Vorhersagen nicht null).

Kürzen Sie Feldanweisungen mit Begriffen wie Beschriftungen, Schlüsselwörter und Formatierungsbeschränkungen.

Szenario 2: Hohe fehlende Vorhersagen (Rückruf ist niedrig), Genauigkeit ist mäßig oder hoch

Was Sie beobachten

  • Erinnerung ist niedrig und Genauigkeit ist mäßig oder hoch (F1 ist in der Regel niedrig oder mäßig).
  • Fehlende Vorhersagen sind hoch, oft mehr als falsch oder zusätzlich.

Was es normalerweise bedeutet

  • Das Modell kann keine vorhandenen Werte extrahieren.
  • Häufige Ursachen:
    • Die Feldanweisungen sind zu eng, das heißt übereingeschränkte Beispiele oder zu spezifische Beschriftungsanforderungen.
    • Der Wert erscheint in mehreren Formaten, z. B. Datumsangaben und IDs, und die Anweisung deckt keine Varianten ab.

Nächste Schritte

  • Verwenden Sie Fehlende Vorhersagen und Werte mit Anmerkungen, um zu bestätigen, dass es sich um ein Rückrufproblem handelt, d. h., dass die Werte vorhanden sind, aber nicht gefunden werden. Aktivieren Sie Werte mit Anmerkungen, um zu bestätigen, dass eine angemessene Anzahl von Datenpunkten mit Anmerkungen für das Feld vorhanden ist, und Fehlende Vorhersagen, um zu bestätigen, dass das Modell Schwierigkeiten hat, Werte zu finden, anstatt sie falsch vorherzusagen.
  • Erweitern Sie Anweisungen, um akzeptable Varianten einzuschließen: alternative Beschriftungen oder Synonyme, mehrere Formatierungsmuster, Standorthinweise (z. B. in der Nähe der Antragstellerdetails oder unter dem Kreditnehmer-Abschnitt).

Szenario 3: Hohe Fehlerquote, aber wenige Dokumente mit Fehlern (Fehler in wenigen Dokumenten konzentriert)

Was Sie beobachten

  • Die Fehlerquote ist hoch oder die Gesamtzahl der Fehler ist hoch.
  • Dokumente mit Fehlern sind im Vergleich zu Dokumenten mit Anmerkungen niedrig.
  • Oft sieht ein Feld schlecht aus, schlägt aber nur bei einer kleinen Teilmenge von Dokumenten fehl.

Was es normalerweise bedeutet

  • Fehler werden durch Ausreißerdokumente und nicht durch systemisches Feldverhalten verursacht.
  • Häufige Ursachen:
    • Ein bestimmtes Dokument oder Format verhält sich anders als der Rest.
    • OCR- oder Qualitätsprobleme in einer kleinen Anzahl von Dokumenten, wie z. B. unscharfe Scans, Verzerrung und handschriftliche Überlagerungen.
    • Das Feld ist in den meisten Dokumenten vorhanden, aber in einigen wenigen Dokumenten seltener formatiert, zum Beispiel mehrzeilig bzw. einzeilig.

Nächste Schritte

  • Vergleichen Sie Dokumente mit Fehlern und Dokumente mit Anmerkungen sowie optional % der Dokumente mit Fehlern, um die Konzentration zu bestätigen.
  • Sortieren Sie Dokumente auf der Seite Erstellen nach Fehlerquote und überprüfen Sie die Dokumente mit der höchsten Fehlerquote, um festzustellen, ob das Feld bei einer bestimmten Teilmenge eine schlechte Leistung erbringt.

Szenario 4: Große Leistungsschwankungen zwischen Versionen mit wenigen Anmerkungen

Was Sie beobachten

  • Große Unterschiede in F1 oder Fehlerquote zwischen Modellversionen (nach oben oder unten), aber die Werte mit Anmerkungen sind niedrig, die Werte mit Anmerkungen sind niedrig oder beides.

Was es normalerweise bedeutet

  • Die Feldmetriken sind aufgrund der geringen Stichprobengröße noch nicht stabil.
  • Häufige Ursachen:
    • Zu wenige Beispiele – 1–2 Dokumente können die Raten erheblich verändern.
    • Das Feld ist selten vorhanden, d. h. viele fehlende Fälle und wenige echte Werte.
    • Eine Handvoll schwieriger Dokumente dominieren die Metrik.

Nächste Schritte

  • Überprüfen Sie Werte mit Anmerkungen, Dokumente mit Anmerkungen und Als fehlend mit Anmerkungen, um eine geringe Abdeckung zu validieren.
  • Behandeln Sie die Metriken als direktional und nicht endgültig, bis die Abdeckung steigt.
  • Fügen Sie mehr beschriftete Daten speziell für dieses Feld hinzu: Priorisieren Sie Dokumente, in denen das Feld vorhanden ist, und fügen Sie einen vielfältigen Satz von Beispielen oder Varianten hinzu.
  • Verwenden Sie Versionsvergleiche nur, wenn die Abdeckung ausreicht, um variabilitätsbedingtes Rauschen zu reduzieren.
Filtern und Sortieren

Um Zeilen in der Tabelle zu filtern, wählen Sie einen oder mehrere der verfügbaren Schnellfilter aus:

  • Werte mit Anmerkungen <10
  • Feld-F1-Punktzahl < 50
  • Feld-F1-Punktzahl innerhalb von 50–70

The following images depict an example of the Field performance table results before and after you apply a quick filter:

Field performance table before and after you apply a filter

You can also sort the Field performance table by any metric in the table. When a sort is applied, values are sorted within their respective field group. For example, sorting the table by F1 score sorts the fields within each field group relative to one another:

Field performance table results when you sort by F1 score

Sichtbarkeitseinstellungen

Standardmäßig zeigt Messung Unterschiede bei Leistungsmetriken an, z. B. F1-Punktzahl und Fehlerquote.

Um die Unterschiede für alle Metriken anzuzeigen, gehen Sie wie folgt vor:

  1. Aktivieren Sie den Umschalter Unterschiede in den Punktzahlen anzeigen für: Version .

  2. Wählen Sie die Option Unterschiede in den Punktzahlen anzeigen aus: Versions- Dropdownliste.

    The Visibility settings option

  3. Wählen Sie Sichtbarkeitseinstellungen aus.

  4. Wählen Sie im Popup-Fenster Versionsänderungen – Sichtbarkeitseinstellungen die Option Alle Metriken aus. Die verfügbaren Optionen sind:

    • Nur Leistungsmetriken – Leistungsmetriken werden durch Modellvorhersagen bestimmt, die mit Anmerkungen verglichen werden, z. B. der F1-Punktzahl und der Fehlerquote.
    • Alle Metriken
    • Änderungen innerhalb der Modellvariabilität anzeigen – Standardmäßig gelten Änderungen innerhalb der Variabilitätsbereiche der aktuellen Version nicht als signifikant und werden ausgeblendet. Aktivieren Sie diese Option, um sie anzuzeigen. Wenn diese Option ausgewählt ist, wird die folgende Option verfügbar:
      • Farben für alle Änderungen anzeigen – Standardmäßig werden Änderungen innerhalb des Variabilitätsbereichs grau angezeigt. Aktivieren Sie diese Option, um alle Änderungen grün oder rot zu gefärbt.
  5. Wählen Sie Speichern.

Modellversionen

Modellversionen erfassen den aktuellen Status des Projekts zu dem Zeitpunkt, als die Version erstellt wurde. Sie können Modellversionen veröffentlichen, um sie zu speichern und in einer Automatisierung zu verwenden. Darüber hinaus können Sie Versionen auf der Seite Messung mit einem Stern versehen, um ihre Leistungsstatistiken zu speichern. Sie können die aktuelle Leistung mit früheren Versionen vergleichen, um eine kontinuierliche Leistungsverbesserung während der Iteration von Anweisungen sicherzustellen.

Auswählen einer Modellversion

Verwenden Sie die Dropdownliste Version , um auszuwählen, welche Validierungsergebnisse einer bestimmten Modellversion auf der gesamten Seite Messung angezeigt werden, z. B. Feldleistung, Dokumentleistung und zugehörige Metriken. Wenn Sie die Modellversion wechseln, werden alle Metriken auf der Seite aktualisiert, um die Validierungsergebnisse der ausgewählten Version widerzuspiegeln.

The version dropdown

Vergleichen verschiedener Modellversionen mithilfe von Bewertungsunterschieden

Wenn mehrere Modellversionen verfügbar sind, können Sie auf der Seite Messen das aktuelle Modell mit einer früheren Version vergleichen. So können Sie die Auswirkungen von Änderungen an Feldanweisungen, Änderungen in Anmerkungen oder Aktualisierungen der Modellkonfiguration besser verstehen.

So funktioniert es:

  • Mit Messung können Sie Punktzahlunterschiede zu einer anderen Modellversion anzeigen.
  • Positive oder negative Änderungen heben Verbesserungen oder Regressionen hervor. Standardmäßig führt Measure Vergleiche zwischen der vorherigen Modellversion relativ zur zuletzt erstellten Modellversion durch.

Um eine andere Modellversion zu vergleichen, wählen Sie eine verfügbare Version mithilfe der Dropdownliste Unterschiede in Punktzahlen von der Version anzeigen aus.

The version dropdown using score differences

Verständnis der Modellvariierbarkeit und Auswirkung auf Punktzahldifferenzen

Einige Modelle in IXP sind nicht-deterministisch, was bedeutet, dass der Satz von Vorhersagen eines Felds zwischen Modellversionen leicht variieren kann, auch wenn die Anweisungen dieses Felds unverändert sind.

Auf der Seite Messung können Sie die Modellvariabilität bei der Leistungsanalyse berücksichtigen. Das unterstützt Sie:

  • Verstehen, ob eine Leistungsänderung sinnvoll ist.
  • Vermeiden Sie Überinterpretationen kleiner Metrikschwankungen.

Standardmäßig

  • Bewertungsunterschiede, die in den Variabilitätsbereich einer Metrik fallen, werden beim Vergleich zweier Modellversionen ausgeblendet.
  • Sie können auswählen, dass alle Bewertungsdifferenzen oder nur Unterschiede angezeigt werden, die größer oder gleich der Variabilität einer Metrik sind.

Diese Standardeinstellungen stellen sicher, dass die Aufmerksamkeit auf signifikante Änderungen in der Modellleistung konzentriert wird und nicht auf Rauschen.

Um Unterschiede zwischen Modellversionen unabhängig von der Modellvariabilität anzuzeigen, gehen Sie wie folgt vor:

  1. Aktivieren Sie den Umschalter Unterschiede in den Punktzahlen anzeigen für: Version .
  2. Wählen Sie die Option Unterschiede in den Punktzahlen anzeigen aus: Versions- Dropdownliste.
  3. Wählen Sie Sichtbarkeitseinstellungen aus.
  4. Wählen Sie im Popup-Fenster Änderungen innerhalb der Modellvariabilität anzeigen aus. Die verfügbaren Optionen sind:
    • Nur Leistungsmetriken – Leistungsmetriken werden durch Modellvorhersagen bestimmt, die mit Anmerkungen verglichen werden, z. B. der F1-Punktzahl und der Fehlerquote.
    • Alle Metriken
    • Änderungen innerhalb der Modellvariabilität anzeigen – Standardmäßig gelten Änderungen innerhalb der Variabilitätsbereiche der aktuellen Version nicht als signifikant und werden ausgeblendet. Aktivieren Sie diese Option, um sie anzuzeigen. Wenn diese Option ausgewählt ist, wird die folgende Option verfügbar:
      • Farben für alle Änderungen anzeigen – Standardmäßig werden Änderungen innerhalb des Variabilitätsbereichs grau angezeigt. Aktivieren Sie diese Option, um alle Änderungen grün oder rot zu gefärbt.
  5. Wählen Sie optional Farben für alle Unterschiede anzeigen aus, wenn alle Bewertungsunterschiede in Grün oder Rot angezeigt werden sollen. Standardmäßig werden Unterschiede innerhalb des Variabilitätsbereichs grau angezeigt.
  6. Wählen Sie Speichern.

Fixieren einer Modellversion

Eine neue Modellversion wird erstellt, wenn Sie Änderungen an Ihrer Taxonomie, einschließlich Anweisungen, oder an den Modelleinstellungen vornehmen. Die neueste Version des Modells ist immer verfügbar, aber Sie können auch eine bestimmte Modellversion markieren, d. h. sperren, um die Leistungsstatistiken immer im Dashboard anzuzeigen.

Um eine Modellversion zu fixieren, gehen Sie wie folgt vor:

  1. Erweitern Sie das Auswahlmenü Modellversion, um die Liste mit allen verfügbaren Versionen zu sehen.
  2. Wählen Sie das Sternsymbol neben der Modellversion, die immer oben in der Liste und im Dashboard angezeigt werden soll.
Hinweis:

Beim Starten einer Modellversion wird nicht die Modellversion selbst gespeichert, sondern nur die Leistungsstatistiken. Um eine Modellversion zu speichern, muss sie auf der Registerkarte Veröffentlichen veröffentlicht werden.

The star button used to star a model version

Exportieren von Messdaten

Sie können Daten von der Seite Messen exportieren für:

  • Offline-Analyse.
  • Benutzerdefinierte Filterung.
  • Teilen von Ergebnissen mit Stakeholdern.

Exporte umfassen Vorhersagen auf Feldebene, Anmerkungen und Leistungsmetriken, die auf der Seite Messen sichtbar sind.

Um Daten zu exportieren, gehen Sie wie folgt vor:

  1. Navigieren Sie zur Seite Messung .
  2. Wählen Sie die vertikalen Auslassungspunkte aus.
  3. Wählen Sie Als Excel-Datei exportieren aus.

The Export as Excel file button for exporting data from the Measure page

War diese Seite hilfreich?

Verbinden

Benötigen Sie Hilfe? Support

Möchten Sie lernen? UiPath Academy

Haben Sie Fragen? UiPath-Forum

Auf dem neuesten Stand bleiben