- Überblick
- Document Understanding-Prozess
- Schnellstart-Tutorials
- Extrahieren von Daten aus Belegen
- Mit einem zusätzlichen Feld erneut trainierte Rechnungen
- Extrahieren von Daten aus Formularen
- Framework-Komponenten
- Überblick
- Document Understanding-Aktivitäten
- Übersicht zur Dokumentklassifizierung
- „Klassifizierer konfigurieren“-Assistent von Classify Document Scope
- Intelligenter Schlüsselwortklassifizierer
- Schlüsselwortbasierte Classifier (Keyword Based Classifier)
- Machine Learning Classifier
- Generativer Klassifizierer
- Dokumentklassifizierung – verwandte Aktivitäten
- Datenverbrauch
- API-Aufrufe
- ML-Pakete
- Überblick
- Document Understanding – ML-Paket
- DocumentClassifier – ML-Paket
- ML-Pakete mit OCR-Funktionen
- 1040 – ML-Paket
- 1040 Anlage C – ML-Paket
- 1040 Anlage D – ML-Paket
- 1040 Anlage E – ML-Paket
- 1040x – ML-Paket
- 3949a – ML-Paket
- 4506T – ML-Paket
- 709 – ML-Paket
- 941x – ML-Paket
- 9465 – ML-Paket
- 990 – ML-Paket – Vorschau
- ACORD125 – ML-Paket
- ACORD126 – ML-Paket
- ACORD131 – ML-Paket
- ACORD140 – ML-Paket
- ACORD25 – ML-Paket
- Bank Statements – ML-Paket
- BillsOfLading – ML-Paket
- Certificate of Incorporation – ML-Paket
- Certificates of Origin – ML-Paket
- Checks – ML-Paket
- Children Product Certificate – ML-Paket
- CMS1500 – ML-Paket
- EU Declaration of Conformity – ML-Paket
- Financial Statements – ML-Paket
- FM1003 – ML-Paket
- I9 – ML-Paket
- ID Cards – ML-Paket
- Invoices – ML-Paket
- InvoicesChina – ML-Paket
- Rechnungen Hebräisch – ML-Paket
- InvoicesIndia – ML-Paket
- InvoicesJapan – ML-Paket
- Invoices Shipping – ML-Paket
- Packing Lists – ML-Paket
- Passports – ML-Paket
- Gehaltsabrechnungen (Pay slips) – ML-Paket
- Purchase Orders – ML-Paket
- Receipts – ML-Paket
- RemittanceAdvices – ML-Paket
- UB04 – ML-Paket
- Utility Bills – ML-Paket
- Vehicle Titles – ML-Paket
- W2 – ML-Paket
- W9 – ML-Paket
- Andere out-of-the-box ML-Pakete
- Öffentliche Endpunkte
- Hardwareanforderungen
- Pipelines
- Dokumentmanager
- OCR-Dienste
- Deep Learning
- Insights-Dashboards
- Document Understanding – in der Automation Suite bereitgestellt
- Document Understanding – im eigenständigen AI Center bereitgestellt
- Lizenzierung
- Aktivitäten
- UiPath.Abbyy.Activities
- UiPath.AbbyyEmbedded.Activities
- UiPath.DocumentProcessing.Contracts
- UiPath.DocumentUnderstanding.ML.Activities
- UiPath.DocumentUnderstanding.OCR.LocalServer.Activities
- UiPath.IntelligentOCR.Aktivitäten (UiPath.IntelligentOCR.Activities)
- UiPath.OCR.Activities
- UiPath.OCR.Contracts
- UiPath.Omnipage.Activities
- UiPath.PDF.Aktivitäten (UiPath.PDF.Activities)
Extrahieren von Daten aus Belegen
The aim of this page is to help first time users get familiar with UiPath® Document UnderstandingTM.
For scalable production deployments, we strongly recommend using the Document Understanding Process available in UiPath® Studio under the Templates section.
Diese Schnellstartanleitung zeigt Ihnen, wie Sie Daten aus Belegen unter Verwendung des ML-Modells Receipts mit dem entsprechenden öffentlichen Endpunkt extrahieren können.
Die Validierung kann entweder durch Präsentieren der Validation Station oder mithilfe der Validation Action im Action Center erfolgen. Beide Optionen werden in den folgenden Abschnitten beschrieben.
In diesem Abschnitt validieren wir die Extraktionsergebnisse mithilfe der Validation Station.
Um einen einfachen Workflow mit dem ML-Modell Receipts zu erstellen, führen Sie die folgenden Schritte aus.
- Einen leeren Prozess erstellen
- Die erforderlichen Aktivitätspakete installieren
- Taxonomie erstellen
- Das Dokument digitalisieren
- Die Daten mit dem ML-Modell für Belege (Receipts) extrahieren
- Die Ergebnisse mithilfe der Validation Station validieren
- Die Extraktionsergebnisse exportieren
Sehen wir uns nun jeden Schritt im Detail an.
- Starten Sie UiPath Studio.
- Klicken Sie in der START-Backstage-Ansicht auf Prozess, um ein neues Projekt zu erstellen.
- Das Fenster Neuer leerer Prozess wird angezeigt. Geben Sie in diesem Fenster einen Namen für das neue Projekt ein. Wenn Sie möchten, können Sie auch eine Beschreibung eingeben, um Ihre Projekte einfacher auffindbar zu machen.
- Klicken Sie auf Erstellen. Das neue Projekt wird in Studio geöffnet.
Installieren Sie über die Schaltfläche Pakete verwalten im Menüband neben den standardmäßig zum Projekt hinzugefügten Kern-Aktivitätenpaketen (UiPath.Excel.Activities, UiPath.Mail.Activities, UiPath.System.Activities, UiPath.UIAutomation.Activities) die folgenden Aktivitätspakete:
Sobald die Aktivitätspakete installiert sind, listen Sie die erforderlichen Felder auf. Das ML-Modell Receipts unterstützt die Datenextraktion für die folgenden Felder:
- name (Name) – Text
- vendor-addr (Lieferantenadresse) – Adresse
- total (gesamt) – Zahl
- date (Datum) – Datum
- phone (Telefonnummer) – Text
- currency (Währung) – Text
- expense-type (Ausgabentyp) – Text
- items (Posten) – Tabelle
- description (Beschreibung) – Text
- line-amount (Zeilensumme) – Zahl
- unit-price (Stückpreis) – Zahl
- quantity (Menge) – Zahl
Öffnen Sie den Taxonomiemanager und erstellen Sie eine Gruppe mit dem Namen Halbstrukturierte Dokumente, eine Kategorie mit dem Namen Finanzen und einen Dokumenttyp namens Belege. Erstellen Sie die oben aufgeführten Felder mit benutzerfreundlichen Namen zusammen mit den jeweiligen Datentypen.
- Fügen Sie in der Datei Main.xaml eine Load Taxonomy-Aktivität hinzu und erstellen Sie eine Variable für die Taxonomieausgabe.
- Fügen Sie eine Digitize Document-Aktivität mit UiPath Document OCR hinzu. Geben Sie die Eingabeeigenschaft Document Path an und erstellen Sie Ausgabevariablen für Dokumenttext und Dokumentobjektmodell an.
- Denken Sie daran, den API-Schlüssel von Document Understanding in der Aktivität „UiPath Document OCR“ hinzuzufügen.
- Fügen Sie eine Data Extraction Scope-Aktivität hinzu und geben Sie die Eigenschaften ein.
- Ziehen Sie eine Machine Learning Extractor Aktivität und legen Sie sie ab. Ein Popup mit drei Eingabeparametern, Endpoint, ML Skill und ApiKey, wird auf dem Bildschirm angezeigt.
- Geben Sie den Parameter Endpunkt mit dem öffentlichen Endpunkt für „Receipts“ (Belege) ein, nämlich
https://du.uipath.com/ie/receipts
. Geben Sie dann den API-Schlüssel von Document Understanding an. - Klicken Sie auf Funktionen abrufen.
- Als Nächstes konfigurieren wir den Extraktor. Das Konfigurieren des Extraktors bedeutet, dass Sie die Felder, die Sie im Taxonomiemanager erstellt haben, den im ML-Modell verfügbaren Feldern zuzuordnen. Hierzu die folgende Abbildung:
- Um den Machine Learning Extractor mit einer ML-Fähigkeit zu verwenden, wählen Sie die ML-Fähigkeit aus der Dropdownliste aus und konfigurieren Sie den Extraktor.
- Ihr Roboter-Assistent muss mit demselben Mandanten wie Ihre ML-Fähigkeit verbunden sein.
Um die Ergebnisse über die Validation Station zu überprüfen, verschieben Sie die Aktivität Present Validation Station durch Ziehen und Ablegen und geben Sie die Eingabedetails an.
DataSet
ausgegeben, das mehrere Tabellen enthält, die dann in eine Excel-Datei geschrieben oder direkt in einem nachgelagerten Prozess verwendet werden können.
Laden Sie dieses Beispielprojekt unter diesem Link herunter.
Das Beispiel enthält zwei Workflows:
- Main.xaml – In diesem Workflow werden die Extraktionsergebnisse mithilfe der Validation Station validiert; dies wird im obigen Abschnitt beschrieben
- Main – Unattended.xaml – In diesem Workflow werden die Extraktionsergebnisse mithilfe der Validation Action validiert; dies wird im folgenden Abschnitt beschrieben
Sehen wir uns nun an, wie Sie eine Action Center-Validierungsaktion verwenden, anstatt die Validation Station vorzulegen.
Wenn eine Automatisierung Entscheidungen wie Genehmigungen, Eskalationen und Ausnahmen enthält, die ein Mensch treffen sollte, kann der Prozess dank UiPath Action Center einfach vom Roboter zum Menschen übergeben werden (und wieder zurück).
Document Understanding-Action Center-Aktivitäten sind im Paket UiPath.IntelligentOCR.Activities und UiPath.Persistance.Activities enthalten. Vergessen Sie nicht, Persistenz-Aktivitäten in den allgemeinen Einstellungen in UiPath Studio zu aktivieren:
Die Produktivität kann durch Hinzufügen eines Orchestrierungsprozesses erhöht werden, der Dokumentvalidierungsaktionen im Action Center sowohl im lokalen Orchestrator als auch der Automation Cloud hinzufügt. Diese Aktion reduziert Ihren Bedarf an der lokalen Speicherung der Dokumente, dem Installieren eines Roboters auf allen Maschinen mit menschlichen Benutzern oder dem Warten des Roboters, bis die Validierung durch menschliche Benutzer abgeschlossen ist.
Weitere Details finden Sie hier.
Wiederholen Sie die Schritte 1 bis 5, die im obigen Abschnitt beschrieben sind.
Anstatt die Aktivität Present Validation Station zu verwenden, verwenden Sie die Aktivitäten Create Document Validation Action und Wait for Document Validation Action and Resume.
Die folgende Abbildung zeigt die Aktivität Create Document Validation Action und ihre Eigenschaften.
Dadurch wird eine Dokumentvalidierungsaktion im Action Center erstellt. Die Ausgabe der Aktivität „Create Document Validation Action“ kann dann mit der Aktivität Wait for Document Validation Action and Resume verwendet werden, um Orchestrierungsworkflows nach Abschluss menschlicher Aktionen im Action Center auszusetzen und fortzusetzen.
- Verwenden des ML-Modells „Receipts“ mit „Öffentlicher Endpunkt“ und Validation Station
- 1. Einen leeren Prozess erstellen
- 2. Die erforderlichen Aktivitätspakete installieren
- 3. Taxonomie erstellen
- 4. Das Dokument digitalisieren
- 5. Die Daten mit dem ML-Modell für Belege (Receipts) extrahieren
- 6. Die Ergebnisse mithilfe der Validation Station validieren
- 7. Die Extraktionsergebnisse exportieren
- Beispiel herunterladen
- Verwenden des ML-Modells „Receipts“ mit „Öffentlicher Endpunkt“ und Validation Action
- Wie funktionieren Aufgaben im Action Center?
- Wie funktioniert die Validation Action?
- Wie wird die Validation Action verwendet?