- Vue d'ensemble (Overview)
- Processus Document Understanding
- Didacticiels de démarrage rapide
- Composants de l'infrastructure
- Vue d'ensemble (Overview)
- Activités Document Understanding
- Vue d’ensemble de classification de document
- Assistant de configuration des classifieurs de l'activité Classer l'étendue du document (Classify Document Scope)
- Intelligent Keyword Classifier
- Keyword Based Classifier
- Machine Learning Classifier
- Classifieur génératif
- Activités liées à la classification des documents
- Assistant de configuration des classifieurs (Configure Classifiers Wizard) de l'activité Tester l'étendue des classifieurs (Train Classifier Scope)
- Vue d’ensemble de l'entraînement de la classification des documents
- Activités liées à l'entraînement de la classification des documents
- Machine Learning Classifier Trainer
- Assistant de configuration des extracteurs (Configure Extractors Wizard) de l'activité Étendue de l'extraction de données (Data Extraction Scope)
- Vue d’ensemble de l’extraction des données
- Activités liées à l'extraction de données
- Form Extractor
- Extracteur de formulaires intelligents
- Extracteur d'apprentissage automatique
- Regex Based Extractor
- Consommation de données
- Appels API
- Paquets ML
- Vue d'ensemble (Overview)
- Paquets ML - Document Understanding
- Classifieur de documents - Paquet ML
- Paquets ML avec capacités OCR
- 1040 - Paquet ML
- Annexe C du formulaire 1040 Planification C - Paquet ML
- 1040 Planification D - Paquet ML
- Annexe E du formulaire 1040 - Paquet ML
- Paquet ML - 1040x
- Paquet ML 3949a
- 4506T - Paquet ML
- Paquet ML 709
- Paquet ML 941x
- Paquet ML 9465
- 990 - Paquet ML - Aperçu
- ACORD125 - Paquet ML
- ACORD126 - Paquet ML
- ACORD131 - Paquet ML
- ACORD140 - Paquet ML
- ACORD25 - Paquet ML
- États financiers - Paquet ML
- Connaissement - Paquet ML
- Paquet ML - Certificat de constitution
- Paquet ML - Certificat d'origine
- Chèques - Paquet ML
- Paquet ML - Certificat de produit pour enfants
- CMS1500 - Paquet ML
- Paquet ML - Déclaration de conformité de l’UE
- États financiers - Paquet ML
- FM1003 - Paquet ML
- I9 - Paquet ML
- Cartes d’identité - Paquet ML
- Factures - Paquet ML
- FacturesChine - Paquet ML
- Paquet ML - Factures hébreu
- FacturesInde - Paquet ML
- FacturesJapon - Paquet ML
- Paquet ML - Livraison des factures
- Listes de colisage - Paquet ML
- Passeports - Paquet ML
- Fiches de paie - Paquet ML
- Bons de commande - Paquet ML
- Reçus - Paquet ML
- RemittanceAdvices - Paquet ML
- Formulaire UB04 - Paquet ML
- Factures de services publics - Paquet ML
- Titres de véhicule - Paquet ML
- W2 - Paquet ML
- W9 - Paquet ML
- Autres paquets ML prêts à l’emploi
- Points de terminaison publics
- Prérequis matériels
- Pipelines
- À propos des pipelines
- Pipelines d'entraînement
- Pipelines d'évaluation
- Pipelines complets
- Réglage
- Document Manager
- Services OCR
- Apprentissage profond
- Tableaux de bord Insights.
- Document Understanding déployé dans Automation Suite
- Document Understanding déployé dans une version AI Center autonome
- Licences
- Activités (Activities)
- UiPath.Abbyy.Activities
- UiPath.AbbyyEmbedded.Activities
- UiPath.DocumentProcessing.Contracts
- UiPath.DocumentUnderstanding.ML.Activities
- UiPath.DocumentUnderstanding.OCR.LocalServer.Activities
- UiPath.IntelligentOCR.Activities
- UiPath.OCR.Activities
- UiPath.OCR.Contracts
- UiPath.OmniPage.Activities
- UiPath.PDF.Activities
Guide de l'utilisateur de Document Understanding
Pipelines d'évaluation
Un Pipeline d'évaluation (Evaluation Pipeline) est utilisé pour évaluer un modèle ML entraîné.
Configurez le Pipeline d'évaluation comme suit :
- Dans le champ Type de pipeline (Pipeline type), sélectionnez Exécution de pipeline d'évaluation (Evaluation run).
- Dans le champ Choisir un package (Choose package), sélectionnez le package que vous souhaitez évaluer.
- Dans le champ Choisir la version majeure du package (Choose package major version), sélectionnez une version majeure pour votre package.
- Dans le champ Choisir la version mineure du package, sélectionnez une version mineure que vous souhaitez évaluer.
- Dans le champ Choisir un ensemble de données d'évaluation (Choose evaluation dataset), sélectionnez un ensemble de données d'évaluation représentatif.
- Dans la section Saisir les paramètres (Enter parameters), vous pouvez utiliser une variable d'environnement pertinente pour les Pipelines d'évaluation :
eval.redo_ocr
qui, s'il est défini sur vrai (true), vous permet de réexécuter l'OCR lors de l'exécution du pipeline pour évaluer l'impact de l'OCR sur la précision de l'extraction. Cela suppose qu'un moteur OCR a été configuré lors de la création du paquet ML.- Le curseur Activer le GPU (Enable GPU) est désactivé par défaut, auquel cas le pipeline est exécuté sur le processeur. Nous recommandons vivement que les Pipelines d'évaluation soient uniquement exécutés sur le processeur.
-
Sélectionnez l'une des options d'exécution du pipeline : Exécuter maintenant (Run now), Basé sur l'heure (Time based) ou Récurrent (Recurring).
Après avoir configuré tous les champs, cliquez sur Créer (Create). Le pipeline est créé.
Pour un Pipeline d'évaluation, le volet Sorties (Outputs) comprend également un dossier artefacts (artifacts) / eval_metrics qui contient deux fichiers :
evaluation_default.xlsx
est une feuille de calcul Excel avec trois feuilles différentes :- La première feuille présente un récapitulatif des scores globaux et des scores par lot, pour chaque champ, Régulier (Regular), Colonne (Column) et Classification. Un pourcentage des documents parfaitement extraits est également fourni pour les documents par lot et pour l'ensemble des documents.
- La deuxième feuille présente une comparaison côte à côte, codée par couleur, des Champs réguliers (Regular Fields), pour augmenter la précision du document. Les documents les plus inexacts sont présentés en haut pour faciliter le diagnostic et le dépannage.
-
La troisième feuille présente une comparaison côte à côte, codée par couleur des Champs de colonnes (Column Fields).
Tous les scores présentés dans le fichier Excel représentent des scores de précision.
evaluation_metrics_default.txt
contient les scores F1 des champs prévus.