- Überblick
- Document Understanding-Prozess
- Schnellstart-Tutorials
- Framework-Komponenten
- Überblick
- Document Understanding-Aktivitäten
- Übersicht zur Dokumentklassifizierung
- „Klassifizierer konfigurieren“-Assistent von Classify Document Scope
- Intelligenter Schlüsselwortklassifizierer
- Schlüsselwortbasierte Classifier (Keyword Based Classifier)
- Machine Learning Classifier
- Generativer Klassifizierer
- Dokumentklassifizierung – verwandte Aktivitäten
- Datenverbrauch
- API-Aufrufe
- ML-Pakete
- Überblick
- Document Understanding – ML-Paket
- DocumentClassifier – ML-Paket
- ML-Pakete mit OCR-Funktionen
- 1040 – ML-Paket
- 1040 Anlage C – ML-Paket
- 1040 Anlage D – ML-Paket
- 1040 Anlage E – ML-Paket
- 1040x – ML-Paket
- 3949a – ML-Paket
- 4506T – ML-Paket
- 709 – ML-Paket
- 941x – ML-Paket
- 9465 – ML-Paket
- 990 – ML-Paket – Vorschau
- ACORD125 – ML-Paket
- ACORD126 – ML-Paket
- ACORD131 – ML-Paket
- ACORD140 – ML-Paket
- ACORD25 – ML-Paket
- Bank Statements – ML-Paket
- BillsOfLading – ML-Paket
- Certificate of Incorporation – ML-Paket
- Certificates of Origin – ML-Paket
- Checks – ML-Paket
- Children Product Certificate – ML-Paket
- CMS1500 – ML-Paket
- EU Declaration of Conformity – ML-Paket
- Financial Statements – ML-Paket
- FM1003 – ML-Paket
- I9 – ML-Paket
- ID Cards – ML-Paket
- Invoices – ML-Paket
- InvoicesChina – ML-Paket
- Rechnungen Hebräisch – ML-Paket
- InvoicesIndia – ML-Paket
- InvoicesJapan – ML-Paket
- Invoices Shipping – ML-Paket
- Packing Lists – ML-Paket
- Passports – ML-Paket
- Gehaltsabrechnungen (Pay slips) – ML-Paket
- Purchase Orders – ML-Paket
- Zahlungsbelege – ML-Paket
- RemittanceAdvices – ML-Paket
- UB04 – ML-Paket
- Utility Bills – ML-Paket
- Vehicle Titles – ML-Paket
- W2 – ML-Paket
- W9 – ML-Paket
- Andere out-of-the-box ML-Pakete
- Öffentliche Endpunkte
- Hardwareanforderungen
- Pipelines
- Dokumentmanager
- OCR-Dienste
- Unterstützte Sprachen
- Deep Learning
- Insights-Dashboards
- Document Understanding – in der Automation Suite bereitgestellt
- Document Understanding – im eigenständigen AI Center bereitgestellt
- Lizenzierung
- Aktivitäten
- UiPath.Abbyy.Activities
- UiPath.AbbyyEmbedded.Activities
- UiPath.DocumentProcessing.Contracts
- UiPath.DocumentUnderstanding.ML.Activities
- UiPath.DocumentUnderstanding.OCR.LocalServer.Activities
- UiPath.IntelligentOCR.Aktivitäten (UiPath.IntelligentOCR.Activities)
- UiPath.OCR.Activities
- UiPath.OCR.Contracts
- UiPath.Omnipage.Activities
- UiPath.PDF.Aktivitäten (UiPath.PDF.Activities)

Document Understanding-Benutzerhandbuch.
Auf dieser Seite wird beschrieben, wie der Document Manager zum Beschriften eines neuen Datasets und zum erneuten Trainieren eines ML-Modells verwendet wird.
Starten Sie die erstellte Datenbeschriftungssitzung unter First Run Experience und wechseln Sie zu den Einstellungen, um die OCR zu konfigurieren.
Wählen Sie die OCR, die Sie verwenden möchten, im Dropdownmenü OCR-Methode aus. Fügen Sie für UiPathDocumentOCR den Document UnderstandingTM-Lizenzschlüssel ein (rufen Sie den Document Understanding API-Schlüssel von der Seite unter Admin > Lizenz ab) und fügen Sie dann die OCR-URL ein, die Sie bei der Bereitstellung von UiPathDocumentOCR generiert haben.
Konfigurieren Sie wie hier beschrieben die Vorbeschriftung mit den von Ihnen bereitgestellten Modellen. Fügen Sie den öffentlichen Endpunkt des Modells ML-Fähigkeit und den Lizenzschlüssel für Document Understanding ein und wählen Sie dann Speichern.
Weitere Informationen finden Sie in der Dokumentation hier: Verwenden eines vordefinierten Schemas.
- Klicken Sie in einer Document Manager-Sitzung auf die Schaltfläche Importieren
.
- Benennen Sie das Dataset und wählen Sie Dateien zum Hochladen durchsuchen aus.
- Wählen Sie das Dokument aus, das Sie hochladen möchten.
- Wählen Sie Ja aus.
Wählen Sie , um zu extrahierende Felder zu erstellen.
Sie können bis zu 40 Felder erstellen.
Für diese Validierungsübung können Sie einige gängige Rechnungsfelder wie date (Datum), name, invoice-no (Rechnungsnummer) und total (Summe) erstellen. Stellen Sie sicher, dass Sie den Inhaltstyp entsprechend ändern – date (Datum), name (Zeichenfolge), invoice-no (Zeichenfolge) und total (Zahl).
Jetzt können Sie mit der Beschriftung der Dokumente beginnen.
Wählen Sie oben die Taste Vorhersage, um anhand des Basisrechnungsmodells die Beschriftung für die definierten Felder vorherzusagen, und korrigieren Sie diese, falls die Vorhersage falsch ist.
Um die Beschriftung zu ändern, ziehen Sie die Maus über das Feld und drücken Sie auf der Tastatur die Tastenkombination, um es zu beschriften.
Verwenden Sie den Pfeil oben, um zum nächsten Dokument zu wechseln, bis Sie die Validierung der Beschriftungen für alle hochgeladenen Rechnungen abgeschlossen haben.
- Stellen Sie sicher, dass Sie den richtigen Dataset im Datasetfilter ausgewählt haben, und wählen Sie die Taste Exportieren
.
- Wählen Sie Exportieren aus.
- Gehen Sie unter demselben Projekt in AI Center zu Datasets, wo Sie den exportierten Trainingsdataset sehen können.
Trainieren eines benutzerdefinierten Modells im AI Center
- Wechseln Sie zu Pipelines > Neue erstellen. Wählen Sie den Typ der Auswertungsausführung sowie das Modellpaket und den Eingabedatensatz aus.
- Wählen Sie den Unterordner unter „Export“ als Eingabe-Dataset aus.
- Klicken Sie auf Erstellen, um die Pipeline zu starten. Die Ausführung der Pipeline auf CPU-Maschinen kann 1–2 Stunden dauern.
Rufen Sie ML-Fähigkeiten auf und erstellen Sie eine neue ML-Fähigkeit.
Wählen Sie dasselbe Rechnungsmodellpaket aus, das zuvor erstellt wurde. Da wir das Modell neu trainiert haben, gibt es jetzt eine neue Nebenpaketversion (1 statt 0). Wählen Sie hierbei die neueste aus.
Sobald die ML-Fähigkeit erstellt wurde, gehen Sie zu Aktuelle Bereitstellung ändern, um die ML-Fähigkeit öffentlich zu machen. Schalten Sie den Schalter um und wählen Sie Bestätigen.
Kopieren Sie die URL der öffentlichen ML-Fähigkeit zur späteren Verwendung.
Herzlichen Glückwunsch! Sie haben nun ein Invoice-Modell mit Ihrem eigenen Datensatz neu trainiert und den Endpunkt erstellt, um auf das Modell zuzugreifen.