- Erste Schritte
- Framework-Komponenten
- Übersicht zur Dokumentklassifizierung
- „Klassifizierer konfigurieren“-Assistent von Classify Document Scope
- Schlüsselwortbasierte Classifier (Keyword Based Classifier)
- Intelligenter Schlüsselwortklassifizierer
- FlexiCapture Classifier
- Machine Learning Classifier
- Dokumentklassifizierung – verwandte Aktivitäten
- ML-Pakete
- Pipelines
- Data Manager
- OCR-Dienste
- Document Understanding – in der Automation Suite bereitgestellt
- Document Understanding – im eigenständigen AI Center bereitgestellt
- Deep Learning
- Lizenzierung
- Referenzen
- UiPath.Abbyy.Activities
- UiPath.AbbyyEmbedded.Activities
- UiPath.DocumentUnderstanding.ML.Activities
- UiPath.DocumentUnderstanding.OCR.LocalServer.Activities
- UiPath.IntelligentOCR.Aktivitäten (UiPath.IntelligentOCR.Activities)
- UiPath.OCR.Activities
- UiPath.OCR.Contracts
- UiPath.DocumentProcessing.Contracts
- UiPath.Omnipage.Activities
- UiPath.PDF.Aktivitäten (UiPath.PDF.Activities)
Document Understanding-Benutzerhandbuch.
Trainingspipelines
Minimale Dataset-Größe
Dataset Creation Failed
(Dataset-Erstellung fehlgeschlagen).
Training auf GPU vs. CPU
Bei größeren Datasets müssen Sie die GPU für das Training verwenden. Darüber hinaus ist die Verwendung einer GPU (AI Robot Pro) für das Training mindestens 5-mal schneller als die Verwendung einer CPU (AI Robot).
Training auf CPU wird nur für Datasets mit einer Größe von bis zu 5000 Seiten für ML-Pakete ab Version 21.10.x und bis zu 1000 Seiten für andere Versionen von ML-Paketen unterstützt. Das Training auf CPU anstelle von GPU kann auch zu einem weniger genauen Modell führen (zwischen 0–5 %).
CPU-Training war vor Version 2021.10 auf 500 Seiten begrenzt. Seit 2021.10 sind es 5000 Seiten und ab 2022.4 wieder maximal 1000 Seiten.
Es gibt zwei Möglichkeiten, ein ML-Modell zu trainieren:
- Training eines Modells von Grund auf
- erneutes Trainieren eines out-of-the-Box Modells
Das Training eines Modells von Grund auf kann mit dem ML-Paket DocumentUnderstanding durchgeführt werden, was auf dem Dataset geschieht, der als Eingabe bereitgestellt wird.
Das erneute Training kann mit vorgefertigten ML-Paketen wie „Invoices“, „Receipts“, „Purchase Orders“, „Utility Bills“, „Invoices India“, „Invoices Australia“ usw. erfolgen – im Prinzip alle anderen ML-Pakete zur Datenextraktion mit Ausnahme von DocumentUnderstanding. Das Training mit einem dieser Pakete hat ein Basismodell als zusätzliche Eingabe. Wir bezeichnen dies auch als erneutes Trainieren, da Sie nicht von vorne beginnen, sondern von einem Basismodell ausgehen. Dieser Ansatz nutzt eine Technik namens „Transfer Learning“, bei der das Modell die Informationen verwendet, die in einem anderen, bereits vorhandenen Modell codiert sind. Das Modell verfügt über einige der standardmäßigen Kenntnisse, aber es lernt auch aus den neuen Daten. Mit zunehmender Größe Ihres Trainings-Datasets kommt es jedoch immer weniger auf das vortrainierte Basismodell an. Dies ist hauptsächlich für kleine bis mittelgroße Trainings-Datasets relevant (bis zu 500–800 Seiten).
Konfigurieren Sie die Pipeline für erneutes Training wie folgt:
- Wählen Sie im Feld Pipelinetyp die Option Trainingsausführung aus.
- Wählen Sie im Feld Paket wählen das Paket aus, das Sie basierend auf einem sofort einsetzbaren ML-Paket erstellt haben.
- Wählen Sie im Feld Hauptversion des Pakets wählen eine Hauptversion für Ihr Paket aus.
- Wählen Sie im Feld Nebenversion des Pakets wählen eine Nebenversion für Ihr Paket aus. Es wird dringend empfohlen, immer Nebenversion 0 (Null) zu verwenden.
- Wählen Sie im Feld Eingabe-Dataset wählen ein repräsentatives Trainings-Dataset aus.
- Geben Sie im Abschnitt Parameter eingeben von Ihrer Pipeline definierte und verwendete Umgebungsvariablen ein, falls vorhanden. Für die meisten Anwendungsfälle muss kein Parameter angegeben werden. Das Modell verwendet erweiterte Techniken, um eine performante Konfiguration zu finden. Hier sind jedoch einige Umgebungsvariablen, die Sie verwenden können:
- Mit
auto_retraining
können Sie die Schleife für automatisches erneutes Training abschließen; wenn die Variable auf True festgelegt ist, muss das Eingabe-Dataset der Ordner export sein, der der Beschriftungssitzung zugeordnet ist, in der die Daten mit Tags versehen werden; wenn die Variable auf False festgelegt bleibt, muss das Eingabe-Dataset dem folgenden Dataset-Format entsprechen. model.epochs
, die die Anzahl der Epochen für die Trainingspipeline anpasst (Standardwert: 100).- Wählen Sie aus, ob die Pipeline mit der GPU oder CPU trainiert werden soll. Der Schieberegler GPU aktivieren ist standardmäßig deaktiviert. In diesem Fall wird die Pipeline mit der CPU trainiert.
-
Wählen Sie eine der Optionen aus, wann die Pipeline ausgeführt werden soll: Jetzt ausführen, Zeitbasiert oder Wiederkehrend. Falls Sie die Variable
auto_retraining
verwenden, wählen Sie Wiederkehrend aus.
Nachdem Sie alle Felder konfiguriert haben, klicken Sie auf Erstellen. Die Pipeline wird erstellt.