- Überblick
- Document Understanding-Prozess
- Schnellstart-Tutorials
- Framework-Komponenten
- Übersicht zur Dokumentklassifizierung
- „Klassifizierer konfigurieren“-Assistent von Classify Document Scope
- FlexiCapture Classifier
- Intelligenter Schlüsselwortklassifizierer
- Schlüsselwortbasierte Classifier (Keyword Based Classifier)
- Machine Learning Classifier
- Dokumentklassifizierung – verwandte Aktivitäten
- ML-Pakete
- Überblick
- Document Understanding – ML-Paket
- DocumentClassifier – ML-Paket
- ML-Pakete mit OCR-Funktionen
- 1040 – ML-Paket
- 1040 Anlage C – ML-Paket
- 1040 Anlage D – ML-Paket
- 1040 Anlage E – ML-Paket
- 4506T – ML-Paket
- 990 – ML-Paket – Vorschau
- ACORD125 – ML-Paket
- ACORD126 – ML-Paket
- ACORD131 – ML-Paket
- ACORD140 – ML-Paket
- ACORD25 – ML-Paket
- Bank Statements – ML-Paket
- BillsOfLading – ML-Paket
- Certificate of Incorporation – ML-Paket
- Certificates of Origin – ML-Paket
- Checks – ML-Paket
- Children Product Certificate – ML-Paket
- CMS1500 – ML-Paket
- EU Declaration of Conformity – ML-Paket
- Financial Statements – ML-Paket
- FM1003 – ML-Paket
- I9 – ML-Paket
- ID Cards – ML-Paket
- Invoices – ML-Paket
- InvoicesAustralia – ML-Paket
- InvoicesChina – ML-Paket
- InvoicesIndia – ML-Paket
- InvoicesJapan – ML-Paket
- Invoices Shipping – ML-Paket
- Packing Lists – ML-Paket
- Passports – ML-Paket
- Gehaltsabrechnungen (Pay slips) – ML-Paket
- Purchase Orders – ML-Paket
- Receipts – ML-Paket
- RemittanceAdvices – ML-Paket
- UB04 – ML-Paket
- Utility Bills – ML-Paket
- Vehicle Titles – ML-Paket
- W2 – ML-Paket
- W9 – ML-Paket
- Andere out-of-the-box ML-Pakete
- Öffentliche Endpunkte
- Hardwareanforderungen
- Pipelines
- Dokumentmanager
- OCR-Dienste
- Deep Learning
- Document Understanding – in der Automation Suite bereitgestellt
- Document Understanding – im eigenständigen AI Center bereitgestellt
- Lizenzierung
- Aktivitäten
- UiPath.Abbyy.Activities
- UiPath.AbbyyEmbedded.Activities
- UiPath.DocumentProcessing.Contracts
- UiPath.DocumentUnderstanding.ML.Activities
- UiPath.DocumentUnderstanding.OCR.LocalServer.Activities
- UiPath.IntelligentOCR.Aktivitäten (UiPath.IntelligentOCR.Activities)
- UiPath.OCR.Activities
- UiPath.OCR.Contracts
- UiPath.Omnipage.Activities
- UiPath.PDF.Aktivitäten (UiPath.PDF.Activities)
Document Understanding-Benutzerhandbuch.
Verwenden von Document Manager
Auf dieser Seite wird beschrieben, wie der Document Manager zum Beschriften eines neuen Datasets und zum erneuten Trainieren eines ML-Modells verwendet wird.
Starten Sie die erstellte Datenbeschriftungssitzung unter First Run Experience und wechseln Sie zu den Einstellungen, um die OCR zu konfigurieren.
Choose the OCR you intend to use in the OCR method dropdown menu. For UiPathDocumentOCR, paste the Document UnderstandingTM license key (retrieve the Document Understanding API key from the Admin > License page) and then paste the OCR URL you generated when you deployed UiPathDocumentOCR.
Konfigurieren Sie die Vorbeschriftung mit den Modellen, die Sie gemäß den Anweisungen hier bereitgestellt haben. Fügen Sie das Modell für den Endpunkt der öffentlichen ML-Fähigkeit und den Document Understanding-Lizenzschlüssel ein und klicken Sie auf Speichern.
Weitere Informationen finden Sie in der Dokumentation hier: Verwenden eines vordefinierten Schemas.
- Klicken Sie in einer Document Manager-Sitzung auf die Schaltfläche Importieren .
- Benennen Sie das Dataset und wählen Sie Dateien zum Hochladen durchsuchen aus.
- Wählen Sie das Dokument aus, das Sie hochladen möchten.
- Klicken Sie auf JA.
Klicken Sie hier , um Felder zu erstellen, die extrahiert werden sollen.
Sie können bis zu 40 Felder erstellen.
Für diese Validierungsübung können Sie einige gängige Rechnungsfelder wie date (Datum), name, invoice-no (Rechnungsnummer) und total (Summe) erstellen. Stellen Sie sicher, dass Sie den Inhaltstyp entsprechend ändern – date (Datum), name (Zeichenfolge), invoice-no (Zeichenfolge) und total (Zahl).
Jetzt können Sie mit der Beschriftung der Dokumente beginnen.
Klicken Sie oben auf die Schaltfläche Vorhersage , um das Basisrechnungsmodell zu verwenden und damit die Beschriftungen für die definierten Felder vorherzusagen und sie zu korrigieren, wenn die Vorhersage falsch ist.
d
für das Beschriftungsdatum im folgenden Beispiel).
Verwenden Sie den Pfeil oben, um zum nächsten Dokument zu wechseln, bis Sie die Validierung der Beschriftungen für alle hochgeladenen Rechnungen abgeschlossen haben.
- Wählen Sie das richtige Dataset in der Dataset-Filterung aus und klicken Sie auf die Schaltfläche Exportieren .
- Wählen Sie Exportieren aus.
- Wechseln Sie unter demselben AI Center-Projekt zu Datasets. Dort sollten Sie das exportierte Trainings-Dataset sehen können.
Trainieren eines benutzerdefinierten Modells im AI Center
- Wechseln Sie zu Pipelines > Neue erstellen. Wählen Sie den Typ der Auswertungsausführung sowie das Modellpaket und den Eingabedatensatz aus.
- Wählen Sie den Unterordner unter „Export“ als Eingabe-Dataset aus.
- Klicken Sie auf Erstellen, um die Pipeline zu starten. Die Ausführung der Pipeline auf CPU-Maschinen kann 1–2 Stunden dauern.
Rufen Sie ML-Fähigkeiten auf und erstellen Sie eine neue ML-Fähigkeit.
Wählen Sie dasselbe Rechnungsmodellpaket aus, das zuvor erstellt wurde. Da wir das Modell neu trainiert haben, gibt es jetzt eine neue Nebenpaketversion (1 statt 0). Wählen Sie hierbei die neueste aus.
Sobald die ML-Fähigkeit erstellt wurde, wechseln Sie zu Aktuelle Bereitstellung ändern, um die ML-Fähigkeit öffentlich zu machen. Schalten Sie den Umschalter um und klicken Sie auf Bestätigen.
Kopieren Sie die URL der öffentlichen ML-Fähigkeit zur späteren Verwendung.
Herzlichen Glückwunsch! Sie haben nun ein Invoice-Modell mit Ihrem eigenen Datensatz neu trainiert und den Endpunkt erstellt, um auf das Modell zuzugreifen.