- Überblick
- Erste Schritte
- Aktivitäten
- UiPath.DocumentProcessing.Contracts
- UiPath.DocumentUnderstanding.Activities
- UiPath.DocumentUnderstanding.ML.Activities
- UiPath.DocumentUnderstanding.OCR.LocalServer.Activities
- UiPath.IntelligentOCR.Aktivitäten (UiPath.IntelligentOCR.Activities)
- UiPath.OCR.Activities
- UiPath.OCR.Contracts
- UiPath.Omnipage.Activities
- UiPath.PDF.Aktivitäten (UiPath.PDF.Activities)
- Insights-Dashboards
- Document Understanding-Prozess
- Schnellstart-Tutorials
- Framework-Komponenten
- Überblick
- Document Understanding-Aktivitäten
- Übersicht zur Dokumentklassifizierung
- „Klassifizierer konfigurieren“-Assistent von Classify Document Scope
- Intelligenter Schlüsselwortklassifizierer
- Schlüsselwortbasierte Classifier (Keyword Based Classifier)
- Machine Learning Classifier
- Generativer Klassifizierer
- Dokumentklassifizierung – verwandte Aktivitäten
- Datenverbrauch
- API-Aufrufe
- Modelldetails
- Überblick
- Document Understanding – ML-Paket
- DocumentClassifier – ML-Paket
- ML-Pakete mit OCR-Funktionen
- 1040 – ML-Paket
- 1040 Anlage C – ML-Paket
- 1040 Anlage D – ML-Paket
- 1040 Anlage E – ML-Paket
- 1040x – ML-Paket
- 3949a – ML-Paket
- 4506T – ML-Paket
- 709 – ML-Paket
- 941x – ML-Paket
- 9465 – ML-Paket
- ACORD125 – ML-Paket
- ACORD126 – ML-Paket
- ACORD131 – ML-Paket
- ACORD140 – ML-Paket
- ACORD25 – ML-Paket
- Bank Statements – ML-Paket
- BillsOfLading – ML-Paket
- Certificate of Incorporation – ML-Paket
- Certificates of Origin – ML-Paket
- Checks – ML-Paket
- Children Product Certificate – ML-Paket
- CMS1500 – ML-Paket
- EU Declaration of Conformity – ML-Paket
- Financial Statements – ML-Paket
- FM1003 – ML-Paket
- I9 – ML-Paket
- ID Cards – ML-Paket
- Invoices – ML-Paket
- InvoicesAustralia – ML-Paket
- InvoicesChina – ML-Paket
- Rechnungen Hebräisch – ML-Paket
- InvoicesIndia – ML-Paket
- InvoicesJapan – ML-Paket
- Invoices Shipping – ML-Paket
- Packing Lists – ML-Paket
- Gehaltsabrechnungen (Pay slips) – ML-Paket
- Passports – ML-Paket
- Purchase Orders – ML-Paket
- Zahlungsbelege – ML-Paket
- RemittanceAdvices – ML-Paket
- UB04 – ML-Paket
- Utility Bills – ML-Paket
- Vehicle Titles – ML-Paket
- W2 – ML-Paket
- W9 – ML-Paket
- Andere out-of-the-box ML-Pakete
- Öffentliche Endpunkte
- Einschränkungen für den Datenverkehr
- OCR-Konfiguration
- Pipelines
- OCR-Dienste
- Unterstützte Sprachen
- Deep Learning
- Daten und Sicherheit
- Lizenzierungs- und Gebührenlogik

Document Understanding classic user guide
Trainingspipelines
The ability to train extractors and classifiers is now more convenient by using Document UnderstandingTM product (rather than the AI Center service), by leveraging the One Click Extraction and the One Click Classification features.
Minimal dataset size For successfully running a Training pipeline, we strongly recommend minimum 10 documents and at least 5 samples from each labeled field in your dataset. Otherwise, the pipeline throws the following error: Dataset Creation Failed. Training on GPU vs CPU For larger datasets, you need to train using GPU. Moreover, using a GPU for training is at least 10 times faster than using a CPU. For the maximum dataset size depeding on the version and infrastructure, check the table below.
Table 1. Maximum dataset for each version
| Infrastruktur | <2021.10.x | 2021.10.x | >2021.10.x |
|---|---|---|---|
| CPU | 500 Seiten | 5000 Seiten | 1000 Seiten |
| GPU | 18.000 Seiten | 18.000 Seiten | 18.000 Seiten |
If you are encountering failed pipelines when training large datasets, we recommend upgrading to ML packages version 24.4 or newer. The most recent versions provide stability enhancements, which could significantly reduce these issues. For more information on dataset structure, check the Dataset format section.
Es gibt zwei Möglichkeiten, ein ML-Modell zu trainieren:
- Training eines Modells von Grund auf
- erneutes Trainieren eines out-of-the-Box Modells
Das Training eines Modells von Grund auf kann mit dem DocumentUnderstanding-ML-Paket durchgeführt werden, was auf dem Dataset geschieht, das als Eingabe bereitgestellt wird.
Das erneute Training kann mit vorgefertigten ML-Paketen wie „Invoices“, „Receipts“, „Purchase Orders“, „Utility Bills“, „Invoices India“, „Invoices Australia“ usw. erfolgen – im Prinzip alle anderen ML-Pakete zur Datenextraktion mit Ausnahme von DocumentUnderstanding. Das Training mit einem dieser Pakete hat ein Basismodell als zusätzliche Eingabe. Wir bezeichnen dies auch als erneutes Trainieren, da Sie nicht von vorne beginnen, sondern von einem Basismodell ausgehen. Dieser Ansatz nutzt eine Technik namens „Transfer Learning“, bei der das Modell die Informationen verwendet, die in einem anderen, bereits vorhandenen Modell codiert sind. Das Modell verfügt über einige der standardmäßigen Kenntnisse, aber es lernt auch aus den neuen Daten. Mit zunehmender Größe Ihres Trainings-Datasets kommt es jedoch immer weniger auf das vortrainierte Basismodell an. Dies ist hauptsächlich für kleine bis mittelgroße Trainings-Datasets relevant (bis zu 500–800 Seiten).
Konfigurieren Sie die Trainingspipeline wie folgt:
-
Wählen Sie im Feld „Pipelinetyp“ die Option „Trainingsausführung“ aus.
-
Wählen Sie im Feld „Paket wählen“ das Paket aus, das Sie basierend auf dem DocumentUnderstanding-ML-Paket erstellt haben.
-
Wählen Sie im Feld „Hauptversion des Pakets wählen“ eine Hauptversion für Ihr Paket aus.
-
Wählen Sie im Feld „Nebenversion des Pakets wählen“ eine Nebenversion für Ihr Paket aus. Weitere Informationen finden Sie im Abschnitt Auswählen der Nebenversion weiter unten.
-
In the Choose input dataset field, select a dataset as shown in the video below on this page. For building high quality training datasets, you can check this tutorial.
-
Geben Sie im Abschnitt „Parameter eingeben“ von Ihrer Pipeline definierte und verwendete Umgebungsvariablen ein, falls vorhanden. Für die meisten Anwendungsfälle muss kein Parameter angegeben werden. Das Modell verwendet erweiterte Techniken, um eine performante Konfiguration zu finden. Hier sind jedoch einige Umgebungsvariablen, die Sie verwenden können:
-
auto_retrainingwhich allows you to complete the Auto-retraining Loop; if the variable is set to True, then the input dataset needs to be the export folder associated with the labeling session where the data is tagged; if the variable remains set to False, then the input dataset needs to correspond to the dataset format. -
model.epochs, die die Anzahl der Epochen für die Trainingspipeline anpasst (Standardwert: 100).Optional.Hinweis:For larger datasets, containing more than 5000 pages, you can initially perform a full pipeline run with the default number of epochs. This allows you to evaluate the model’s accuracy. After that, you can decrease the number of epochs to about 30-40. This approach allows you to compare the accuracy of the results and determine if the reduction of epochs yields comparable precision. When using smaller datasets, in particular those with fewer than 5000 pages, you can maintain the default number of epochs.
-
Für ML-Pakete ab v23.4 verwendet das Training für Datasets, die kleiner als 400 Seiten sind, einen Ansatz namens Frozen Backbone, um das Training zu beschleunigen und die Leistung zu verbessern. Sie haben jedoch die Möglichkeit, dieses Verhalten zu überschreiben und das vollständige Training auch für kleinere Datasets zu erzwingen oder umgekehrt, das Frozen Backbone-Training sogar für größere Datasets (bis zu 3.000 Seiten) zu erzwingen. Sie können die folgenden Umgebungsvariablen mit der Bedingung verwenden, sie bei Verwendung zu kombinieren. Verwenden Sie entweder die erste und die zweite oder die erste und die dritte Variable zusammen.
Optional.model.override_finetune_freeze_backbone_mode=True– Schließen Sie diese Umgebungsvariable ein, um das Standardverhalten zu überschreiben. Dies ist in den beiden folgenden Situationen erforderlich.model.finetune_freeze_backbone_mode=True– Fügen Sie diese Umgebungsvariable ein, um zu erzwingen, dass das Modell auch für größere Datasets Frozen Backbone verwendet.model.finetune_freeze_backbone_mode=False– Fügen Sie diese Umgebungsvariable ein, um zu erzwingen, dass das Modell auch für größere Datasets das vollständige Training verwendet.
-
Wählen Sie aus, ob die Pipeline mit der GPU oder CPU trainiert werden soll. Der Schieberegler „GPU aktivieren“ ist standardmäßig deaktiviert. In diesem Fall wird die Pipeline mit der CPU trainiert.
-
Wählen Sie eine der Optionen aus, wann die Pipeline ausgeführt werden soll: „Jetzt ausführen“, „Zeitbasiert“ oder „Wiederkehrend“. Falls Sie die Variable
auto_retrainingverwenden, wählen Sie „Wiederkehrend“ aus.
-
Nachdem Sie alle Felder konfiguriert haben, klicken Sie auf „Erstellen“. Die Pipeline wird erstellt.
Hier ist ein Beispiel für das Erstellen einer neuen Trainingspipeline mit einem Dataset, das zuvor in das AI Center exportiert wurde:

Auswählen der Nebenversion
In den meisten Situationen sollte die Nebenversion 0 gewählt werden. Dies liegt daran, dass die Leistung Ihres Modells umso besser ist, je größer und vielfältiger Ihr Trainings-Dataset ist. Dieses Prinzip entspricht dem Ziel der aktuellen ML-Technologie, große, hochwertige und repräsentative Trainings-Sets zu verwenden. Wenn Sie also mehr Daten für das Training eines Modells sammeln, sollten Sie diese Daten demselben Dataset hinzufügen, um die Leistung des Modells weiter zu verbessern.
Es gibt jedoch Situationen, in denen das Training auf einer anderen Nebenversion als 0 sinnvoll ist. Das ist typischerweise der Fall, wenn ein Partner mehrere Kunden aus derselben Branche bedienen muss, UiPath® aber kein vortrainiertes Modell hat, das für die Branche, die Region oder den Dokumenttyp optimiert ist.
In einem solchen Fall könnte der Partner ein vortrainiertes Modell mithilfe einer Vielzahl von Dokumentenbeispielen aus dieser Branche entwickeln (nicht aus einer einzigen Quelle, sondern aus vielen Quellen, um eine bessere Verallgemeinerung zu ermöglichen). Dieses Modell wird als Basismodell verwendet, um bestimmte Kundenmodelle zu trainieren, die auf Version 0 des ML-Pakets trainiert werden. Die Folgeversionen, wie Version 1, werden verwendet, um entweder das vortrainierte Modell zu verfeinern oder kundenspezifische Modelle zu erstellen.
Um gute Ergebnisse zu erzielen, sollte das vortrainierte Modell jedoch unverzerrt sein und auf einem sehr vielfältigen Trainings-Set basieren. Wenn das Basismodell für einen bestimmten Kunden optimiert ist, funktioniert es möglicherweise nicht gut für andere Kunden. In einem solchen Fall liefert die Verwendung der Nullversion als Basismodell bessere Ergebnisse.