- Überblick
- Document Understanding-Prozess
- Schnellstart-Tutorials
- Framework-Komponenten
- Übersicht zur Dokumentklassifizierung
- „Klassifizierer konfigurieren“-Assistent von Classify Document Scope
- FlexiCapture Classifier
- Intelligenter Schlüsselwortklassifizierer
- Schlüsselwortbasierte Classifier (Keyword Based Classifier)
- Machine Learning Classifier
- Dokumentklassifizierung – verwandte Aktivitäten
- ML-Pakete
- Überblick
- Document Understanding – ML-Paket
- DocumentClassifier – ML-Paket
- ML-Pakete mit OCR-Funktionen
- 1040 – ML-Paket
- 1040 Anlage C – ML-Paket
- 1040 Anlage D – ML-Paket
- 1040 Anlage E – ML-Paket
- 4506T – ML-Paket
- 990 – ML-Paket – Vorschau
- ACORD125 – ML-Paket
- ACORD126 – ML-Paket
- ACORD131 – ML-Paket
- ACORD140 – ML-Paket
- ACORD25 – ML-Paket
- Bank Statements – ML-Paket
- BillsOfLading – ML-Paket
- Certificate of Incorporation – ML-Paket
- Certificates of Origin – ML-Paket
- Checks – ML-Paket
- Children Product Certificate – ML-Paket
- CMS1500 – ML-Paket
- EU Declaration of Conformity – ML-Paket
- Financial Statements – ML-Paket
- FM1003 – ML-Paket
- I9 – ML-Paket
- ID Cards – ML-Paket
- Invoices – ML-Paket
- InvoicesAustralia – ML-Paket
- InvoicesChina – ML-Paket
- InvoicesIndia – ML-Paket
- InvoicesJapan – ML-Paket
- Invoices Shipping – ML-Paket
- Packing Lists – ML-Paket
- Passports – ML-Paket
- Gehaltsabrechnungen (Pay slips) – ML-Paket
- Purchase Orders – ML-Paket
- Zahlungsbelege – ML-Paket
- RemittanceAdvices – ML-Paket
- UB04 – ML-Paket
- Utility Bills – ML-Paket
- Vehicle Titles – ML-Paket
- W2 – ML-Paket
- W9 – ML-Paket
- Andere out-of-the-box ML-Pakete
- Öffentliche Endpunkte
- Hardwareanforderungen
- Pipelines
- Dokumentmanager
- OCR-Dienste
- Deep Learning
- Document Understanding – in der Automation Suite bereitgestellt
- Installieren und verwenden
- First Run Experience
- UiPathDocumentOCR bereitstellen
- Ein out-of-the-box ML-Paket bereitstellen
- Offline-Pakete 2023.10.12+patch1
- Offlinepakete 2023.10.12
- Offline-Pakete 2023.10.11
- Offline-Bundles 2023.10.10
- Offline-Bundles 2023.10.9
- Offlinepakete 2023.10.8
- Offlinepakete 2023.10.7+patch1
- Offlinepakete 2023.10.7
- Offlinepakete 2023.10.6
- Offlinepakete 2023.10.5
- Offlinepakete 2023.10.4
- Offlinepakete 2023.10.3
- Offlinepakete 2023.10.2
- Offlinepakete 2023.10.1
- Offlinepakete 2023.10.0
- Verwenden von Document Manager
- Framework verwenden
- Document Understanding – im eigenständigen AI Center bereitgestellt
- Lizenzierung
- Aktivitäten
- UiPath.Abbyy.Activities
- UiPath.AbbyyEmbedded.Activities
- UiPath.DocumentProcessing.Contracts
- UiPath.DocumentUnderstanding.ML.Activities
- UiPath.DocumentUnderstanding.OCR.LocalServer.Activities
- UiPath.IntelligentOCR.Aktivitäten (UiPath.IntelligentOCR.Activities)
- UiPath.OCR.Activities
- UiPath.OCR.Contracts
- UiPath.Omnipage.Activities
- UiPath.PDF.Aktivitäten (UiPath.PDF.Activities)

Document Understanding-Benutzerhandbuch.
Trainingspipelines
Minimal dataset size For successfully running a Training pipeline, we strongly recommend minimum 10 documents and at least 5 samples from each labeled field in your dataset. Otherwise, the pipeline throws the following error: Dataset Creation Failed.
Training on GPU vs CPU For larger datasets, you need to train using GPU. Moreover, using a GPU for training is at least 10 times faster than using a CPU. For the maximum dataset size depeding on the version and infrastructure, check the following table. Table 1. Maximum dataset for each version
| Infrastruktur | <2021.10.x | 2021.10.x | >2021.10.x |
|---|---|---|---|
| CPU | 500 Seiten | 5000 Seiten | 1000 Seiten |
| GPU | 18.000 Seiten | 18.000 Seiten | 18.000 Seiten |
For more information on dataset structure, check the Dataset format section.
Es gibt zwei Möglichkeiten, ein ML-Modell zu trainieren:
- Training eines Modells von Grund auf
- erneutes Trainieren eines out-of-the-Box Modells
Das Training eines Modells von Grund auf kann mit dem ML-Paket DocumentUnderstanding durchgeführt werden, was auf dem Dataset geschieht, der als Eingabe bereitgestellt wird.
Das erneute Training kann mit out-of-the-box ML-Paketen wie Invoices, Receipts, Purchase Orders, Utility Bills, InvoicesIndia, InvoicesAustralia usw. erfolgen – im Prinzip alle anderen ML-Datenextraktionspakete mit Ausnahme von DocumentUnderstanding. Das Training mit einem dieser Pakete hat ein Basismodell als zusätzliche Eingabe. Wir bezeichnen dies auch als erneutes Trainieren, da Sie nicht von vorne beginnen, sondern von einem Basismodell ausgehen. Dieser Ansatz nutzt eine Technik namens Transfer Learning, bei der das Modell die Informationen verwendet, die in einem anderen, bereits vorhandenen Modell codiert sind. Das Modell verfügt über einige der out-of-the-box Kenntnisse, aber es lernt auch aus den neuen Daten. Mit zunehmender Größe Ihres Trainings-Datasets kommt es jedoch immer weniger auf das vortrainierte Basismodell an. Dies ist hauptsächlich für kleine bis mittelgroße Trainingsdatensätze relevant (bis zu 500–800 Seiten).
Konfigurieren Sie die Trainingspipeline wie folgt:
-
In the Pipeline type field, select Train run.
-
In the Choose package field, select the package you created based on the DocumentUnderstanding ML Package.
-
In the Choose package major version field, select a major version for your package.
-
In the Choose package minor version field, select a minor version for your package. It is strongly recommended to always use minor version 0 (zero). Check the Choosing the minor version section for more information.
-
In the Choose input dataset field, select a dataset. For building high quality training datasets, you can check this tutorial.
-
In the Enter parameters section, enter any environment variables defined, and used by your pipeline, if any. For most use cases, no parameter needs to be specified; the model is using advanced techniques to find a performant configuration. However, here are some environment variables you could use:
-
model.epochs, die die Anzahl der Epochen für die Trainingspipeline anpasst (Standardwert: 100).Hinweis:For larger datasets, containing more than 5000 pages, you can initially perform a full pipeline run with the default number of epochs. This allows you to evaluate the model’s accuracy. After that, you can decrease the number of epochs to about 30-40. This approach allows you to compare the accuracy of the results and determine if the reduction of epochs yields comparable precision. When using smaller datasets, in particular those with fewer than 5000 pages, you can maintain the default number of epochs.
-
Select whether to train the pipeline on GPU or on CPU. The Enable GPU slider is disabled by default, in which case the pipeline is trained on CPU.
-
Select one of the options when the pipeline should run: Run now, Time based or Recurring. In case you are using the
auto_retrainingvariable, select Recurring.
-
After you configure all the fields, select Create. The pipeline is created.
Hier ist ein Beispiel für das Erstellen einer neuen Trainingspipeline mit einem Dataset, das zuvor in das AI Center exportiert wurde:
Auswählen der Nebenversion
In most situations, minor version 0 should be chosen. This is because the larger and more diverse your training dataset, the better your model's performance. This principle aligns with the current state-of-the-art ML technology's goal of using large, high-quality, and representative training sets. Therefore, as you accumulate more training data for a model, you should add the data to the same dataset to further enhance the model's performance.
There are situations, however, where training on a minor version other than 0 makes sense. This is typically the case when a partner needs to service multiple customers in the same industry, but UiPath® doesn't have a pre-trained model optimized for that industry, geography, or document type.
In such a case, the partner might develop a pre-trained model using a variety of document samples from that industry (not from a single source, but from many for better generalization). This model would be used as a base model to train specific customer models, being trained on version 0 of the ML package. Following versions, like version 1, would be used to refine either the pre-trained model or create customer-specific models.
Um gute Ergebnisse zu erzielen, sollte das vortrainierte Modell jedoch unverzerrt sein und auf einem sehr vielfältigen Trainings-Set basieren. Wenn das Basismodell für einen bestimmten Kunden optimiert ist, funktioniert es möglicherweise nicht gut für andere Kunden. In einem solchen Fall liefert die Verwendung der Nullversion als Basismodell bessere Ergebnisse.