- Vue d'ensemble (Overview)
- Démarrage
- Créer des modèles
- Utiliser des modèles
- Détails du modèle
- Points de terminaison publics
- 1040 – Type de document
- 1040 Annexe C – Type de document
- 1040 Annexe D – Type de document
- 1040 Annexe E – Type de document
- 1040x – Type de document
- 3949a - Type de document
- 4506T – Type de document
- 709 – Type de document
- 941x – Type de document
- 9465 – Type de document
- ACORD125 – Type de document
- ACORD126 – Type de document
- ACORD131 – Type de document
- ACORD140 – Type de document
- ACORD25 – Type de document
- Relevés bancaires – Type de document
- Connaissements - Type de document
- Certificat d’incorporation – Type de document
- Certificat d’origine – Type de document
- Vérifications – Type de document
- Certificat de produit pour enfants - Type de document
- CMS 1500 – Type de document
- Déclaration de Conformité UE – Type de document
- Comptes annuels – Type de document
- FM1003 – Type de document
- I9 – Type de document
- Cartes d’identité – Type de document
- Factures – Type de document
- Factures2 : type de document
- Factures Australie – Type de document
- Factures Chine – Type de document
- Factures hébraïques – Type de document
- Factures Inde – Type de document
- Factures Japon – Type de document
- Envoi de factures – Type de document
- Liste de colisage – Type de document
- Bulletins de paie – Type de document
- Passeports – Type de document
- Bons de commande – Type de document
- Reçus – Type de document
- Reçus2 : type de document
- Reçus Japon – Type de document
- Avis de versement – Type de document
- UB04 – Type de document
- Déclaration de clôture de prêt hypothécaire aux États-Unis◊ : type de document
- Factures de services publics – Type de document
- Cartes grises – Type de document
- W2 – Type de document
- W9 – Type de document
- Langues prises en charge
- Tableaux de bord Insights.
- Document Understanding déployé dans Automation Suite
- Journalisation
- Logique d’attribution de licences et de charge
- Comment
- Résolution des problèmes

Document Understanding modern projects user guide
Mesure
You can check the overall status of your project and check the areas with improvement potential from the Measure section.
Mesure du projet
The main measurement on the page is the overall Project score.
This measurement factors in the classifier and extractor scores for all document types. The score of each factor corresponds to the model rating and can be viewed in Classification Measure and Extraction Measure respectively.
La notation de modèle est une fonctionnalité destinée à vous aider à visualiser les performances d’un modèle de classification. Elle est exprimée sous la forme d’un score de modèle compris entre 0 et 100 :
- Faible (0-49)
- Moyen (50-69)
- Bon (70-89)
- Excellent (90-100)
Quel que soit le score du modèle, c’est à vous de décider quand arrêter l’entraînement, en fonction des besoins de votre projet. Même lorsqu’un modèle est classé comme Excellent, cela ne signifie pas qu’il répondra à toutes les exigences métier.
Mesure de classification
Le score de classification tient compte des performances du modèle ainsi que de la taille et de la qualité de l'ensemble de données.
The Classification score is only available if you have more than one document type created.
If you select Classification, two tabs are displayed on the right side:
- Factors: Provides recommendations on how to improve the performance of your model. You can get recommendations on dataset size or trained model performance for each document type.
- Metrics: Provides useful metrics, such as the number of train and test documents, precision, accuracy, recall, and F1 score for each document type.

Mesure des extractions
The Extraction score factors in the overall performance of the model as well as the size and quality of the dataset. This view is split into document types. You can also go straight to the Annotate view of each document type by selecting Annotate.
If you select any of the available document types from the Extraction view, three tabs are displayed on the right side:
- Factors: Provides recommendations on how to improve the performance of your model. You can get recommendations on dataset size (number of uploaded documents, number of annotated documents) or trained model performance (fields accuracy) for the selected document type.
- Dataset: Provides information about the documents used for training the model, the total number of imported pages, and the total number of labelled pages.
- Metrics: Provides useful information and metrics, such as the field name, the number of training status, and accuracy for the selected document type. You can also access advanced metrics for your extraction models using the Download advanced metrics button. This feature allows you to download an Excel file with detailed metrics and model results per batch.

Diagnostic du jeu de données
The Dataset tab helps you build effective datasets by providing feedback and recommendations of the steps needed to achieve good accuracy for the trained model.

Il existe trois niveaux d’état de l’ensemble de données affichés dans la barre de gestion :
- Red - More labelled training data is required.
- Orange - More labelled training data is recommended.
- Green - The needed level of labelled training data is achieved.
Si aucun champ n’est créé dans la session, le niveau d’état de l’ensemble de données est grisé.
Comparer le modèle
You can compare the performance of two versions of a classification or extraction model from the Measure section.
Comparaison des modèles de classification
To compare the performance of two versions of a classification model, first navigate to the Measure section. Then, select Compare model for the classification model you are interested in.
Vous pouvez choisir les versions que vous souhaitez comparer dans la liste déroulante située en haut de chaque colonne. Par défaut, la version actuelle, indiquant la version la plus récente disponible, est sélectionnée à gauche et la dernière version publiée à droite.
Figure 1. Classification model comparison

La comparaison des modèles de classification repose sur quatre indicateurs clés :
- Précision : le rapport entre les instances correctement prédites positives et le nombre d’instances totales prédites positives. Un modèle haute précision indique moins de faux positifs.
- Justesse : le rapport entre les prédictions correctes (y compris les vrais positifs et les vrais négatifs) et le total des instances.
- Rappel : la proportion des cas positifs réels qui ont été correctement identifiés.
- F1 score : la moyenne géométrique de la précision et du rappel, visant à trouver un équilibre entre ces deux mesures. Cela sert de compromis entre les faux positifs et les faux négatifs.
The order of document types displayed is the one used in the latest version from the comparison. If a document type is not available in one of the compared versions, the values for each measure are replaced with N/A.
If a field was removed in the current version but it was available in the older version before the Compare model feature was available, the name is replaced with Unknown.
Comparaison des modèles d’extraction
To compare the performance of two versions of an extraction model, first navigate to the Measure section. Then, select Compare model for the extraction model you are interested in.
Vous pouvez choisir les versions que vous souhaitez comparer dans la liste déroulante située en haut de chaque colonne. Par défaut, la version actuelle, indiquant la version la plus récente disponible, est sélectionnée à gauche et la dernière version publiée à droite.
Figure 2. Extraction model comparison

La comparaison des modèles d’extraction s’appuie sur les indicateurs clés suivants :
- Nom du champ : le nom du champ d’annotation.
- Content type : le type de contenu du champ :
- Chaîne de caractères (string)
- Numérique
- Date
- Téléphone
- Numéro d'identification
- Évaluation : note du modèle destinée à vous aider à visualiser les performances du champ extrait.
- Précision : la fraction du nombre total de prédictions que le modèle effectue qui sont correctes.
The order of field names displayed is the one used in the latest version from the comparison. If a field name is not available in one of the compared versions, the values for each measure are replaced with N/A.
If a field was removed in the current version but it was available in the older version before the Compare model feature was available, the name is replaced with Unknown.
You can also compare the field score for tables from the Table section.
You can download the advanced metrics file for each version from the comparison page from the Download advanced metrics button.