- Vue d'ensemble (Overview)
- Démarrage
- Activités
- Tableaux de bord Insights.
- Processus Document Understanding
- Didacticiels de démarrage rapide
- Composants de l'infrastructure
- Vue d'ensemble (Overview)
- Activités Document Understanding
- Vue d’ensemble de classification de document
- Assistant de configuration des classifieurs de l'activité Classer l'étendue du document (Classify Document Scope)
- Intelligent Keyword Classifier
- Keyword Based Classifier
- Machine Learning Classifier
- Classifieur génératif
- Activités liées à la classification des documents
- Assistant de configuration des classifieurs (Configure Classifiers Wizard) de l'activité Tester l'étendue des classifieurs (Train Classifier Scope)
- Vue d’ensemble de l'entraînement de la classification des documents
- Activités liées à l'entraînement de la classification des documents
- Machine Learning Classifier Trainer
- Assistant de configuration des extracteurs (Configure Extractors Wizard) de l'activité Étendue de l'extraction de données (Data Extraction Scope)
- Vue d’ensemble de l’extraction des données
- Activités liées à l'extraction de données
- Form Extractor
- Extracteur de formulaires intelligents
- Extracteur d'apprentissage automatique
- Regex Based Extractor
- Consommation de données
- Appels API
- Détails du modèle
- Vue d'ensemble (Overview)
- Paquets ML - Document Understanding
- Classifieur de documents - Paquet ML
- Paquets ML avec capacités OCR
- 1040 - Paquet ML
- Annexe C du formulaire 1040 Planification C - Paquet ML
- 1040 Planification D - Paquet ML
- Annexe E du formulaire 1040 - Paquet ML
- Paquet ML - 1040x
- Paquet ML 3949a
- 4506T - Paquet ML
- Paquet ML 709
- Paquet ML 941x
- Paquet ML 9465
- ACORD125 - Paquet ML
- ACORD126 - Paquet ML
- ACORD131 - Paquet ML
- ACORD140 - Paquet ML
- ACORD25 - Paquet ML
- États financiers - Paquet ML
- Connaissement - Paquet ML
- Paquet ML - Certificat de constitution
- Paquet ML - Certificat d'origine
- Chèques - Paquet ML
- Paquet ML - Certificat de produit pour enfants
- CMS1500 - Paquet ML
- Paquet ML - Déclaration de conformité de l’UE
- États financiers - Paquet ML
- FM1003 - Paquet ML
- I9 - Paquet ML
- Cartes d’identité - Paquet ML
- Factures - Paquet ML
- FacturesAustralie - Paquet ML
- FacturesChine - Paquet ML
- Paquet ML - Factures hébreu
- FacturesInde - Paquet ML
- FacturesJapon - Paquet ML
- Paquet ML - Livraison des factures
- Listes de colisage - Paquet ML
- Fiches de paie - Paquet ML
- Passeports - Paquet ML
- Bons de commande - Paquet ML
- Reçus – Paquet ML
- RemittanceAdvices - Paquet ML
- Formulaire UB04 - Paquet ML
- Factures de services publics - Paquet ML
- Titres de véhicule - Paquet ML
- W2 - Paquet ML
- W9 - Paquet ML
- Autres paquets ML prêts à l’emploi
- Points de terminaison publics
- Limitations du trafic
- Configuration OCR
- Pipelines
- Services OCR
- Langues prises en charge
- Apprentissage profond
- Données et sécurité
- Logique d’attribution de licences et de charge

Document Understanding classic user guide
À propos des pipelines
The ability to train extractors and classifiers is now more convenient be leveraging the One Click Extraction and the One Click Classification features.
Les paquets ML Document Understanding peuvent exécuter les trois types de pipelines :
Une fois terminée, l'exécution de pipeline dispose de sorties et des journaux associés. Pour voir ces informations, dans l'onglet Pipelines de la barre latérale gauche, cliquez sur un pipeline pour ouvrir la vue Pipeline (Pipeline view) qui se compose de :
- the Pipeline details such as type, ML Package name and version, dataset, GPU usage, parameters, and execution time
- the Outputs pane; this always includes a
_results.jsonfile containing a summary of the Pipeline details - the Logs page; the logs can also be obtained in the ML Logs tab from the left sidebar
Tous les pipelines renvoient les scores dans trois fichiers différents :
evaluation_scores_<package name>.txt: ce fichier contient les scores de précision pour tous les champs.evaluation_<package name>.xlsx- Ce fichier contient une répartition détaillée de la précision par champ et par lot, ainsi qu'une comparaison côte à côte pour chaque champ, avec une surbrillance en couleur pour les champs manqués (rouge) ou partiellement correspondants (jaune).evaluation_F1_scores.txt: ce fichier contient les scores F1 pour tous les champs.
La précision est obtenue en divisant le nombre de correspondances par le nombre total de prédictions. Une correspondance a une pondération de 1, tandis qu'une correspondance partielle a une pondération correspondant à la distance de Levenshtein entre la prédiction et la valeur réelle.
Les correspondances partielles utilisant la distance de Levenshtein sont la méthode de notation par défaut sur les champs avec le Type de contenu (Content Type) : Chaîne. Tous les autres types de contenu (Dates, Nombres, Numéros d'identification, Numéros de téléphone) utilisent uniquement le score de correspondance exacte.
Pour les champs Chaîne (String), vous pouvez modifier ce paramètre dans l'onglet Avancé (Advanced) de la boîte de dialogue Paramètres du champ (Field Settings) dans la vue Type de document (Document Type) de Document Understanding.
Par exemple, si un ensemble de données d'évaluation contient 100 documents et qu'un champ, disons Numéro de bon de commande (Purchase Order Number) apparaît sur la moitié des documents, si le modèle a prédit correctement 40 d'entre eux et 10 d'entre eux les corrigent partiellement avec une distance de Levenshtein de 0,8, alors le la précision serait de (40 + 10 x 0,8 + 50)/100 = 98 %.
Notez que les 50 documents où le champ est manquant et où le modèle n'a rien prédit sont également comptés comme des prédictions réussies.
Sur les pipelines d'entraînement, les scores sont calculés sur l'ensemble de données de validation. L'ensemble de données de validation est un sous-ensemble sélectionné de manière aléatoire de 20 % de l'ensemble de données d'entraînement soumis dans le pipeline d'entraînement.
Les pipelines d'entraînement ou les pipelines complets peuvent également être utilisés pour :
- Fine-tune ML models with data from Validation Station
- Auto-Fine-tune an ML model
Remarque :
Training Pipelines and Full Pipelines support training sets of maximum 18.000 labelled pages.