document-understanding
2022.4
false
- Vue d'ensemble (Overview)
- Processus Document Understanding
- Didacticiels de démarrage rapide
- Composants de l'infrastructure
- Vue d’ensemble de l'entraînement de la classification des documents
- Assistant de configuration des classifieurs (Configure Classifiers Wizard) de l'activité Tester l'étendue des classifieurs (Train Classifier Scope)
- Machine Learning Classifier Trainer
- Activités liées à l'entraînement de la classification des documents
- Paquets ML
- Pipelines
- Data Manager
- Services OCR
- Document Understanding déployé dans Automation Suite
- Document Understanding déployé dans une version AI Center autonome
- Licences
- Référence (Reference)
- UiPath.Abbyy.Activities
- UiPath.AbbyyEmbedded.Activities
- UiPath.DocumentUnderstanding.ML.Activities
- UiPath.DocumentUnderstanding.OCR.LocalServer.Activities
- UiPath.IntelligentOCR.Activities
- UiPath.OCR.Activities
- UiPath.OCR.Contracts
- UiPath.DocumentProcessing.Contracts
- UiPath.OmniPage.Activities
- UiPath.PDF.Activities
Pipelines complets
Guide de l'utilisateur de Document Understanding
Dernière mise à jour 11 nov. 2024
Pipelines complets
Un pipeline complet exécute ensemble un pipeline d'entraînement et un pipeline d'évaluation.
Important :
Taille minimale de l'ensemble de données
Pour exécuter avec succès un pipeline d'entraînement, nous recommandons fortement au moins 25 documents et au moins 10 échantillons de chaque champ étiqueté dans votre ensemble de données. Sinon, le pipeline renvoie l'erreur suivante :
Dataset Creation Failed
.
Formation sur GPU vs formation sur CPU
- Pour les ensembles de données plus volumineux, vous devrez effectuer l'entraînement à l'aide du GPU. De plus, l'utilisation d'un GPU (AI Robot Pro) pour l'entraînement est au moins 10 fois plus rapide que l'utilisation d'un CPU (AI Robot).
- La formation sur le processeur est uniquement prise en charge pour les ensembles de données d'une taille maximale de 5000 pages pour les paquets ML v21.10.x et jusqu'à 1000 pages pour les autres versions des paquets ML.
- La formation CPU était limitée à 500 pages avant 2021.10, elle est montée à 5000 pages pour 2021.10 et avec 2022.4 elle redescendra à 1000 pages max.
Configurez le pipeline d'entraînement comme suit :
- Dans le champ Type de pipeline (Pipeline type), sélectionnez Exécution de pipeline complet (Full Pipeline run).
- Dans le champ Choisir un paquet (Choose package), sélectionnez le paquet que vous souhaitez entraîner et évaluer.
- Dans le champ Choisir la version majeure du package (Choose package major version), sélectionnez une version majeure pour votre package.
- Dans le champ Choisir la version mineure du package (Choose package minor version), sélectionnez une version mineure pour votre package. Il est fortement recommandé de toujours utiliser la version mineure 0 (zéro).
- Dans le champ Choisir un ensemble de données d'entrée (Choose input dataset), sélectionnez un ensemble de données d'entrée représentatif.
- Dans le champ Choisir un ensemble de données d'évaluation (Choose evaluation dataset), sélectionnez un ensemble de données d'évaluation représentatif.
- Dans la section Entrer les paramètres (Enter parameters), entrez toutes les variables d'environnement définies et utilisées par votre pipeline, le cas échéant. Pour la plupart des cas d'utilisation, aucun paramètre n'a besoin d'être spécifié ; le modèle utilise des techniques avancées pour trouver une configuration performante. Cependant, voici quelques variables d'environnement que vous pouvez utiliser :
auto_retraining
qui permet de boucler la boucle de réentraînement automatique (Auto-retraining Loop) ; si la variable est définie sur True, l'ensemble de données d'entrée doit être le dossier d'exportation associé à la session de labellisation où les données sont labellisées ; si la variable reste définie sur False, l'ensemble de données d'entrée doit correspondre au format de l'ensemble de données.model.epochs
permet de personnaliser le nombre d'époques pour le pipeline d'entraînement (la valeur par défaut est de 100).- Indiquez si vous souhaitez entraîner le pipeline sur GPU ou sur CPU. Le curseur Activer le GPU (Enable GPU) est désactivé par défaut, auquel cas le pipeline est entraîné sur CPU. L'utilisation d'un GPU (AI Robot Pro) pour l'entraînement est au moins 10 fois plus rapide que l'utilisation d'un processeur (AI Robot). De plus, l'entraînement sur processeur est pris en charge pour les ensembles de données jusqu'à 5 000 images uniquement. Pour les ensembles de données plus volumineux, vous devrez effectuer l'entraînement à l'aide du GPU.
-
Sélectionnez l'une des options d'exécution du pipeline : Exécuter maintenant (Run now), Basé sur l'heure (Time based) ou Récurrent (Recurring). Si vous utilisez la variable
auto_retraining
, sélectionnez Récurrent. - Après avoir configuré tous les champs, cliquez sur Créer (Create). Le pipeline est créé.
Pour un Pipeline d'évaluation, le volet Sorties (Outputs) comprend également un dossier artefacts (artifacts) / eval_metrics qui contient deux fichiers :
evaluation_default.xlsx
est une feuille de calcul Excel avec une comparaison juxtaposée de la vérité terrain par rapport à la valeur prédite pour chaque champ prédit par le modèle, ainsi qu'une métrique de précision par document, afin d'augmenter la précision. Par conséquent, les documents les plus inexacts sont présentés en haut pour faciliter le diagnostic et le dépannage.evaluation_metrics_default.txt
contient les scores F1 des champs qui ont été prédits.- Notez que pour les éléments de ligne, seul un score global est obtenu pour l'ensemble des colonnes.