Abonnieren

UiPath Document Understanding

UiPath Document Understanding

Evaluation Pipelines

Eine Auswertungspipeline wird für die Auswertung eines trainierten ML-Modells verwendet.

Auswerten eines trainierten Modells

Konfigurieren Sie die Auswertungspipeline wie folgt:

In the Pipeline type field, select Evaluation run.
In the Choose package field, select the package you want to evaluate.
In the Choose package major version field, select a major version for your package.
In the Choose package minor version field, select a minor version you want to evaluate.
In the Choose evaluation dataset field, select a representative evaluation dataset.
In the Enter parameters section, there is one environment variable is relevant for Evaluation pipelines you could use:

  • eval.redo_ocr – wenn dies auf true gesetzt ist, können Sie bei der Ausführung der Pipeline OCR erneut ausführen, um die Auswirkungen von OCR auf die Extraktionsgenauigkeit zu bewerten. Dies geht davon aus, dass ein OCR-Modul bei der Erstellung des ML-Pakets konfiguriert wurde.

The Enable GPU slider is disabled by default, in which case the pipeline is runs on CPU. We strongly recommend that Evaluation pipelines run only on CPU.
Select one of the options when the pipeline should run: Run now, Time based or Recurring.

700700

After you configure all the fields, click Create. The pipeline is created.

Artifacts

Bei einer Auswertungspipeline umfasst der Bereich Ausgaben auch einen Ordner namens artifacts/eval_metrics, der zwei Dateien enthält:

14791479
  • evaluation_default.xlsx ist eine Excel-Tabelle mit drei verschiedenen Blättern:
    The first sheet presents a summary of the overall scores and the scores per batch, for each field, Regular, Column, and Classification fields. A percentage of the perfectly extracted documents is also provided for both per batch and overall documents.
    The second sheet presents a side by side, color coded comparison of Regular Fields, for increasing document accuracy. The most inaccurate documents are presented at the top to facilitate diagnosis and troubleshooting.
    The third sheet presents a side by side color, coded comparison of the Column Fields.
    All scores presented in the Excel file represent accuracy scores.
  • evaluation_metrics_default.txt enthält die F1-Punktzahl der vorhergesagten Felder.

Aktualisiert vor 7 Monaten


Evaluation Pipelines


Auf API-Referenzseiten sind Änderungsvorschläge beschränkt

Sie können nur Änderungen an dem Textkörperinhalt von Markdown, aber nicht an der API-Spezifikation vorschlagen.