- Vue d'ensemble (Overview)
- Démarrage
- Créer des modèles
- Utiliser des modèles
- Détails du modèle
- Points de terminaison publics
- 1040 – Type de document
- 1040 Annexe C – Type de document
- 1040 Annexe D – Type de document
- 1040 Annexe E – Type de document
- 1040x – Type de document
- 3949a - Type de document
- 4506T – Type de document
- 709 – Type de document
- 941x – Type de document
- 9465 – Type de document
- ACORD125 – Type de document
- ACORD126 – Type de document
- ACORD131 – Type de document
- ACORD140 – Type de document
- ACORD25 – Type de document
- Relevés bancaires – Type de document
- Connaissements - Type de document
- Certificat d’incorporation – Type de document
- Certificat d’origine – Type de document
- Vérifications – Type de document
- Certificat de produit pour enfants - Type de document
- CMS 1500 – Type de document
- Déclaration de Conformité UE – Type de document
- Comptes annuels – Type de document
- FM1003 – Type de document
- I9 – Type de document
- Cartes d’identité – Type de document
- Factures – Type de document
- Factures2 : type de document
- Factures Australie – Type de document
- Factures Chine – Type de document
- Factures hébraïques – Type de document
- Factures Inde – Type de document
- Factures Japon – Type de document
- Envoi de factures – Type de document
- Liste de colisage – Type de document
- Bulletins de paie – Type de document
- Passeports – Type de document
- Bons de commande – Type de document
- Reçus – Type de document
- Reçus2 - type de document
- Reçus Japon – Type de document
- Avis de versement – Type de document
- UB04 – Type de document
- Informations de clôture de prêt hypothécaire aux États-Unis - type de document
- Factures de services publics – Type de document
- Cartes grises – Type de document
- W2 – Type de document
- W9 – Type de document
- Langues prises en charge
- Tableaux de bord Insights.
- Données et sécurité
- Licences
- Comment
- Résolution des problèmes

Guide de l'utilisateur pour les projets modernes Document Understanding
Mesure
linkVous pouvez vérifier le statut global de votre projet et vérifier les zones présentant un potentiel d’amélioration via la section Mesurer.
Mesure du projet
linkLa mesure principale de la page est le score global du projet.
Cette mesure tient compte des scores du classifieur et de l’extracteur pour tous les types de documents. Le score de chaque facteur correspond à la notation du modèle et peut être consulté respectivement dans Mesure de classification (Classification Mesure) et Mesure d’extraction (Extraction Mesure).
- Faible (0-49)
- Moyen (50-69)
- Bon (70-89)
- Excellent (90-100)
Quel que soit le score du modèle, c’est à vous de décider quand arrêter l’entraînement, en fonction des besoins de votre projet. Même lorsqu’un modèle est classé comme Excellent, cela ne signifie pas qu’il répondra à toutes les exigences métier.
Mesure de classification
linkLe score de classification tient compte des performances du modèle ainsi que de la taille et de la qualité de l'ensemble de données.
- Facteurs : fournit des recommandations vous permettant d’améliorer les performances globales de votre modèle. Vous pouvez obtenir des recommandations sur la taille de l’ensemble de données ou sur les performances du modèle entraîné en fonction du type de document.
- Métriques : fournit des métriques utiles, comme le nombre de documents d'entraînement et de test, la précision, l'exactitude, le rappel et le score F1 pour chaque type de document.
Mesure des extractions
linkLe score d'extraction prend en compte les performances globales du modèle ainsi que la taille et la qualité de l'ensemble de données. Cet affichage est divisé en types de documents. Vous pouvez également accéder directement à la vue Annoter (Annotate) de chaque type de document en sélectionnant Annoter (Annotate).
- Facteurs (Factors) : fournit des recommandations sur la façon d’améliorer les performances de votre modèle. Vous pouvez obtenir des recommandations sur la taille de l'ensemble de données (nombre de documents téléchargés, nombre de documents annotés) ou les performances du modèle entraîné (précision des champs) pour le type de document sélectionné.
- Ensemble de données : Fournit des informations sur les documents utilisés pour l'entraînement du modèle, le nombre total de pages importées et le nombre total de pages labellisées.
- Métriques (Metrics) : fournit des informations et des métriques utiles, telles que le nom du champ, le nombre de statuts d’apprentissage et la précision du type de document sélectionné. Vous pouvez également accéder aux métriques avancées de vos modèles d’extraction à l’aide du bouton Télécharger les métriques avancées (Download advanced metrics). Cette fonctionnalité vous permet de télécharger un fichier Excel avec des métriques détaillées et des résultats de modèle par lot.
Diagnostic du jeu de données
L’onglet Ensemble de données vous aide à créer des ensembles de données efficaces en fournissant des commentaires et des recommandations sur les étapes nécessaires pour obtenir une bonne précision pour le modèle entraîné.
Il existe trois niveaux d’état de l’ensemble de données affichés dans la barre de gestion :
- Rouge : plus de données d’entraînement libellées requises.
- Orange : plus de données d’entraînement libellées recommandées.
- Vert clair — les données d’entraînement labellisées respectent les recommandations.
- Vert foncé — les données d’entraînement labellisées respectent les recommandations. Toutefois, davantage de données peuvent être nécessaires pour les domaines peu performants.
Si aucun champ n’est créé dans la session, le niveau d’état de l’ensemble de données est grisé.
Comparer le modèle
linkVous pouvez comparer les performances de deux versions d’un modèle de classification ou d’extraction à partir de la section Mesurer.
Comparaison des modèles de classification
Pour comparer les performances de deux versions d’un modèle de classification, accédez d’abord à la section Mesurer. Ensuite, sélectionnez Comparer modèle pour le modèle de classification qui vous intéresse.
Vous pouvez choisir les versions que vous souhaitez comparer dans la liste déroulante située en haut de chaque colonne. Par défaut, la version actuelle, indiquant la version la plus récente disponible, est sélectionnée à gauche et la dernière version publiée à droite.
- Précision : le rapport entre les instances correctement prédites positives et le nombre d’instances totales prédites positives. Un modèle haute précision indique moins de faux positifs.
- Justesse : le rapport entre les prédictions correctes (y compris les vrais positifs et les vrais négatifs) et le total des instances.
- Rappel : la proportion des cas positifs réels qui ont été correctement identifiés.
- F1 score : la moyenne géométrique de la précision et du rappel, visant à trouver un équilibre entre ces deux mesures. Cela sert de compromis entre les faux positifs et les faux négatifs.
L’ordre des types de documents affichés est celui utilisé dans la dernière version issue de la comparaison. Si un type de document n’est pas disponible dans l’une des versions comparées, les valeurs de chaque mesure sont remplacées par N/A.
Comparaison des modèles d’extraction
Pour comparer les performances de deux versions d’un modèle d’extraction, accédez d’abord à la section Mesurer. Ensuite, sélectionnez Comparer modèle pour le modèle d’extraction qui vous intéresse.
Vous pouvez choisir les versions que vous souhaitez comparer dans la liste déroulante située en haut de chaque colonne. Par défaut, la version actuelle, indiquant la version la plus récente disponible, est sélectionnée à gauche et la dernière version publiée à droite.
- Nom du champ : le nom du champ d’annotation.
- Content type : le type de contenu du champ :
- Chaîne de caractères (string)
- Numérique
- Date
- Téléphone
- Numéro d'identification
- Évaluation : note du modèle destinée à vous aider à visualiser les performances du champ extrait.
- Précision : la fraction du nombre total de prédictions que le modèle effectue qui sont correctes.
L’ordre des noms des champs affiché est celui utilisé dans la dernière version provenant de la comparaison. Si le nom d’un champ n’est pas disponible dans l’une des versions comparées, les valeurs de chaque mesure sont remplacées par N/A.
Vous pouvez également comparer la note des champs des tables dans la section Table.
Vous pouvez télécharger le fichier de mesures avancées de chaque version à partir de la page de comparaison via le bouton Télécharger les mesures avancées.