UiPath Documentation
document-understanding
2.2510
true
Important :
La localisation du contenu nouvellement publié peut prendre 1 à 2 semaines avant d’être disponible.
UiPath logo, featuring letters U and I in white

Document Understanding modern projects user guide

Dernière mise à jour 15 avr. 2026

Mesure

You can check the overall status of your project and check the areas with improvement potential from the Measure section.

Mesure du projet

The main measurement on the page is the overall Project score.

This measurement factors in the classifier and extractor scores for all document types. The score of each factor corresponds to the model rating and can be viewed in Classification Measure and Extraction Measure respectively.

La notation de modèle est une fonctionnalité destinée à vous aider à visualiser les performances d’un modèle de classification. Elle est exprimée sous la forme d’un score de modèle compris entre 0 et 100 :

  • Faible (0-49)
  • Moyen (50-69)
  • Bon (70-89)
  • Excellent (90-100)

Quel que soit le score du modèle, c’est à vous de décider quand arrêter l’entraînement, en fonction des besoins de votre projet. Même lorsqu’un modèle est classé comme Excellent, cela ne signifie pas qu’il répondra à toutes les exigences métier.

Mesure de classification

Le score de classification tient compte des performances du modèle ainsi que de la taille et de la qualité de l'ensemble de données.

Remarque :

The Classification score is only available if you have more than one document type created.

If you select Classification, two tabs are displayed on the right side:

  • Factors: Provides recommendations on how to improve the performance of your model. You can get recommendations on dataset size or trained model performance for each document type.
  • Metrics: Provides useful metrics, such as the number of train and test documents, precision, accuracy, recall, and F1 score for each document type.

Capture d'écran de l'interface Mesure de classification.

Mesure des extractions

The Extraction score factors in the overall performance of the model as well as the size and quality of the dataset. This view is split into document types. You can also go straight to the Annotate view of each document type by selecting Annotate.

If you select any of the available document types from the Extraction view, three tabs are displayed on the right side:

  • Factors: Provides recommendations on how to improve the performance of your model. You can get recommendations on dataset size (number of uploaded documents, number of annotated documents) or trained model performance (fields accuracy) for the selected document type.
  • Dataset: Provides information about the documents used for training the model, the total number of imported pages, and the total number of labelled pages.
  • Metrics: Provides useful information and metrics, such as the field name, the number of training status, and accuracy for the selected document type. You can also access advanced metrics for your extraction models using the Download advanced metrics button. This feature allows you to download an Excel file with detailed metrics and model results per batch.

Capture d'écran de l'interface Mesure d'extraction.

Diagnostic du jeu de données

The Dataset tab helps you build effective datasets by providing feedback and recommendations of the steps needed to achieve good accuracy for the trained model.

Capture d'écran de l'interface Mesure de l'ensemble de données.

Il existe trois niveaux d’état de l’ensemble de données affichés dans la barre de gestion :

  • Red - More labelled training data is required.
  • Orange - More labelled training data is recommended.
  • Green - The needed level of labelled training data is achieved.

Si aucun champ n’est créé dans la session, le niveau d’état de l’ensemble de données est grisé.

Comparer le modèle

You can compare the performance of two versions of a classification or extraction model from the Measure section.

Comparaison des modèles de classification

To compare the performance of two versions of a classification model, first navigate to the Measure section. Then, select Compare model for the classification model you are interested in.

Vous pouvez choisir les versions que vous souhaitez comparer dans la liste déroulante située en haut de chaque colonne. Par défaut, la version actuelle, indiquant la version la plus récente disponible, est sélectionnée à gauche et la dernière version publiée à droite.

Figure 1. Classification model comparison

Capture d'écran de l'interface Comparaison des modèles de classification.

La comparaison des modèles de classification repose sur quatre indicateurs clés :

  • Précision : le rapport entre les instances correctement prédites positives et le nombre d’instances totales prédites positives. Un modèle haute précision indique moins de faux positifs.
  • Justesse : le rapport entre les prédictions correctes (y compris les vrais positifs et les vrais négatifs) et le total des instances.
  • Rappel : la proportion des cas positifs réels qui ont été correctement identifiés.
  • F1 score : la moyenne géométrique de la précision et du rappel, visant à trouver un équilibre entre ces deux mesures. Cela sert de compromis entre les faux positifs et les faux négatifs.

The order of document types displayed is the one used in the latest version from the comparison. If a document type is not available in one of the compared versions, the values for each measure are replaced with N/A.

Remarque :

If a field was removed in the current version but it was available in the older version before the Compare model feature was available, the name is replaced with Unknown.

Comparaison des modèles d’extraction

To compare the performance of two versions of an extraction model, first navigate to the Measure section. Then, select Compare model for the extraction model you are interested in.

Vous pouvez choisir les versions que vous souhaitez comparer dans la liste déroulante située en haut de chaque colonne. Par défaut, la version actuelle, indiquant la version la plus récente disponible, est sélectionnée à gauche et la dernière version publiée à droite.

Figure 2. Extraction model comparison

Capture d'écran de l'interface Comparaison des modèles d'extraction.

La comparaison des modèles d’extraction s’appuie sur les indicateurs clés suivants :

  • Nom du champ : le nom du champ d’annotation.
  • Content type : le type de contenu du champ :
    • Chaîne de caractères (string)
    • Numérique
    • Date
    • Téléphone
    • Numéro d'identification
  • Évaluation : note du modèle destinée à vous aider à visualiser les performances du champ extrait.
  • Précision : la fraction du nombre total de prédictions que le modèle effectue qui sont correctes.

The order of field names displayed is the one used in the latest version from the comparison. If a field name is not available in one of the compared versions, the values for each measure are replaced with N/A.

Remarque :

If a field was removed in the current version but it was available in the older version before the Compare model feature was available, the name is replaced with Unknown.

You can also compare the field score for tables from the Table section.

You can download the advanced metrics file for each version from the comparison page from the Download advanced metrics button.

Cette page vous a-t-elle été utile ?

Connecter

Besoin d'aide ? Assistance

Vous souhaitez apprendre ? UiPath Academy

Vous avez des questions ? UiPath Forum

Rester à jour