- Überblick
- Erste Schritte
- Erstellen von Modellen
- Verbrauchen von Modellen
- ML-Pakete
- 1040 – ML-Paket
- 1040 Anlage C – ML-Paket
- 1040 Anlage D – ML-Paket
- 1040 Anlage E – ML-Paket
- 1040x – ML-Paket
- 3949a – ML-Paket
- 4506T – ML-Paket
- 709 – ML-Paket
- 941x – ML-Paket
- 9465 – ML-Paket
- ACORD125 – ML-Paket
- ACORD126 – ML-Paket
- ACORD131 – ML-Paket
- ACORD140 – ML-Paket
- ACORD25 – ML-Paket
- Bank Statements – ML-Paket
- BillsOfLading – ML-Paket
- Certificate of Incorporation – ML-Paket
- Certificates of Origin – ML-Paket
- Checks – ML-Paket
- Children Product Certificate – ML-Paket
- CMS1500 – ML-Paket
- EU Declaration of Conformity – ML-Paket
- Financial Statements – ML-Paket
- FM1003 – ML-Paket
- I9 – ML-Paket
- ID Cards – ML-Paket
- Invoices – ML-Paket
- InvoicesAustralia – ML-Paket
- InvoicesChina – ML-Paket
- Rechnungen Hebräisch – ML-Paket
- InvoicesIndia – ML-Paket
- InvoicesJapan – ML-Paket
- Invoices Shipping – ML-Paket
- Packing Lists – ML-Paket
- Gehaltsabrechnungen (Pay slips) – ML-Paket
- Passports – ML-Paket
- Purchase Orders – ML-Paket
- Receipts – ML-Paket
- RemittanceAdvices – ML-Paket
- UB04 – ML-Paket
- Utility Bills – ML-Paket
- Vehicle Titles – ML-Paket
- W2 – ML-Paket
- W9 – ML-Paket
- Öffentliche Endpunkte
- Unterstützte Sprachen
- Insights-Dashboards
- Daten und Sicherheit
- Lizenzierung
- Anleitungen zu …
- Fehlersuche und ‑behebung

Document Understanding-Benutzerhandbuch für moderne Projekte
Messung
Sie können den Gesamtstatus Ihres Projekts überprüfen und die Bereiche mit Verbesserungspotenzial im Abschnitt Messen überprüfen.
Die Hauptmetrik auf der Seite ist die gesamte Projektpunktzahl.
Diese Messung berücksichtigt die Klassifizierer- und Extraktorpunkzahlen für alle Dokumenttypen. Die Punktzahl jedes Faktors entspricht der Modellbewertung und kann unter Klassifizierungsmaßnahme bzw. Extraktionsmessung angezeigt werden.
- Schlecht (0–49)
- Durchschnitt (50–69)
- Gut (70–89)
- Ausgezeichnet (90–100)
Unabhängig von der Punktzahl des Modells müssen Sie je nach Projektbedarf entscheiden, wann Sie das Training beenden. Auch wenn ein Modell als exzellent eingestuft wird, bedeutet das nicht, dass es allen geschäftlichen Anforderungen gerecht wird.
Die Klassifizierungspunktzahl berücksichtigt die Leistung des Modells sowie die Größe und Qualität des Datasets.
- Faktoren: Gibt Empfehlungen zur Verbesserung der Leistung Ihres Modells an. Sie können Empfehlungen zur Dataset-Größe oder zur Leistung des trainierten Modells für jeden Dokumenttyp erhalten.
- Metriken: Liefert nützliche Metriken, wie die Anzahl der Trainings- und Testdokumente, Präzision, Genauigkeit, Rückrufe und F1-Punktzahl für jeden Dokumenttyp.
Die Extraktionspunktzahl berücksichtigt die Gesamtleistung des Modells sowie die Größe und Qualität des Datasets. Diese Ansicht ist in Dokumenttypen unterteilt. Sie können auch direkt zur Ansicht Anmerkung hinzufügen jedes Dokumenttyps wechseln, indem Sie auf Anmerkung hinzufügen klicken.
- Faktoren: Gibt Empfehlungen zur Verbesserung der Leistung Ihres Modells an. Sie können Empfehlungen zur Dataset-Größe (Anzahl der hochgeladenen Dokumente, Anzahl der mit Anmerkungen versehenen Dokumente) oder zur Leistung des trainierten Modells (Feldgenauigkeit) für den ausgewählten Dokumenttyp erhalten.
- Dataset: Enthält Informationen zu den Dokumenten, die zum Trainieren des Modells verwendet werden, die Gesamtzahl der importierten Seiten und die Gesamtzahl der beschrifteten Seiten.
- Metriken: Stellt nützliche Informationen und Metriken bereit, z. B. den Feldnamen, die Nummer des Trainingsstatus und die Genauigkeit für den ausgewählten Dokumenttyp. Sie können auch auf erweiterte Metriken für Ihre Extraktionsmodelle zugreifen, indem Sie die Schaltfläche Erweiterte Metriken herunterladen verwenden. Mit dieser Funktion können Sie eine Excel-Datei mit detaillierten Metriken und Modellergebnissen pro Batch herunterladen.
Die Registerkarte Dataset hilft Ihnen beim Erstellen effektiver Datasets, indem es Ihnen Feedback und Empfehlungen zu den Schritten gibt, die erforderlich sind, um eine hohe Genauigkeit des trainierten Modells zu erreichen.
In der Verwaltungsleiste sind drei Dataset-Statusebenen verfügbar:
- Rot – Weitere beschriftete Trainingsdaten erforderlich.
- Orange – Weitere beschriftete Trainingsdaten werden empfohlen.
- Hellgrün – Beschriftete Trainingsdaten befinden sich innerhalb der Empfehlungen.
- Dunkelgrün – Beschriftete Trainingsdaten befinden sich innerhalb der Empfehlungen. Es können jedoch mehr Daten für Felder mit unzureichender Leistung benötigt werden.
Wenn in der Sitzung keine Felder erstellt werden, ist die Statusebene des Datasets grau.
Sie können die Leistung von zwei Versionen eines Klassifizierungs- oder Extraktionsmodells aus dem Abschnitt Messen vergleichen.
Um die Leistung von zwei Versionen eines Klassifizierungsmodells zu vergleichen, navigieren Sie zuerst zum Abschnitt Messen . Wählen Sie dann Modell vergleichen für das gewünschte Klassifizierungsmodell aus.
Sie können die Versionen, die Sie vergleichen möchten, aus der Dropdownliste oben in jeder Spalte auswählen. Standardmäßig wird die aktuelle Version, die die neueste verfügbare Version angibt, links und die neueste veröffentlichte Version rechts ausgewählt.
- Genauigkeit: Das Verhältnis der korrekt vorhergesagten positiven Instanzen zu den Gesamtinstanzen, die positiv vorhergesagt wurden. Ein Modell mit einer hohen Genauigkeit zeigt weniger falsch positive Ergebnisse an.
- Genauigkeit: Das Verhältnis der richtigen Vorhersagen (einschließlich true positiver und true negativer Ergebnisse) aus den Gesamtinstanzen.
- Erinnerung: Der Anteil der tatsächlich positiven Fälle, die korrekt identifiziert wurden.
- F1-Punktzahl: das grafische Mittel aus Genauigkeit und Erinnerung, mit dem Ziel, ein ausgewogenes Verhältnis zwischen diesen beiden Metriken zu erreichen. Dies dient als Konflikt zwischen falsch positiven und falsch negativen Ergebnissen.
Die Reihenfolge der angezeigten Dokumenttypen ist diejenige, die in der neuesten Version aus dem Vergleich verwendet wird. Wenn ein Dokumenttyp in einer der verglichenen Versionen nicht verfügbar ist, werden die Werte für jedes Measure durch Nicht zutreffend ersetzt.
Um die Leistung von zwei Versionen eines Extraktionsmodells zu vergleichen, navigieren Sie zuerst zum Abschnitt Messen . Wählen Sie dann Modell vergleichen für das gewünschte Extraktionsmodell aus.
Sie können die Versionen, die Sie vergleichen möchten, aus der Dropdownliste oben in jeder Spalte auswählen. Standardmäßig wird die aktuelle Version, die die neueste verfügbare Version angibt, links und die neueste veröffentlichte Version rechts ausgewählt.
- Feldname: Der Name des Anmerkungsfelds.
- Inhaltstyp: Der Inhaltstyp des Felds:
- String
- Nummer
- Datum
- Telefon
- Identifikationsnummer
- Bewertung: Modellpunktzahl, die Ihnen helfen soll, die Leistung des extrahierten Felds zu visualisieren.
- Genauigkeit: Der Anteil der Gesamtzahl der Vorhersagen, die das Modell macht und die richtig sind.
Die Reihenfolge der angezeigten Feldnamen ist diejenige, die in der neuesten Version aus dem Vergleich verwendet wird. Wenn ein Feldname in einer der verglichenen Versionen nicht verfügbar ist, werden die Werte für jedes Measure durch Nicht zutreffend ersetzt.
Sie können auch die Feldbewertung für Tabellen aus dem Abschnitt Tabelle vergleichen.
Sie können die Datei mit den erweiterten Metriken für jede Version von der Vergleichsseite über die Schaltfläche Erweiterte Metriken herunterladen herunterladen.