- Vue d'ensemble (Overview)
- Démarrage
- Activités
- Tableaux de bord Insights.
- Processus Document Understanding
- Didacticiels de démarrage rapide
- Composants de l'infrastructure
- Vue d'ensemble (Overview)
- Activités Document Understanding
- Vue d’ensemble de classification de document
- Assistant de configuration des classifieurs de l'activité Classer l'étendue du document (Classify Document Scope)
- Intelligent Keyword Classifier
- Keyword Based Classifier
- Machine Learning Classifier
- Classifieur génératif
- Activités liées à la classification des documents
- Assistant de configuration des classifieurs (Configure Classifiers Wizard) de l'activité Tester l'étendue des classifieurs (Train Classifier Scope)
- Vue d’ensemble de l'entraînement de la classification des documents
- Activités liées à l'entraînement de la classification des documents
- Machine Learning Classifier Trainer
- Assistant de configuration des extracteurs (Configure Extractors Wizard) de l'activité Étendue de l'extraction de données (Data Extraction Scope)
- Vue d’ensemble de l’extraction des données
- Activités liées à l'extraction de données
- Form Extractor
- Extracteur de formulaires intelligents
- Extracteur d'apprentissage automatique
- Regex Based Extractor
- Consommation de données
- Appels API
- Détails du modèle
- Vue d'ensemble (Overview)
- Paquets ML - Document Understanding
- Classifieur de documents - Paquet ML
- Paquets ML avec capacités OCR
- 1040 - Paquet ML
- Annexe C du formulaire 1040 Planification C - Paquet ML
- 1040 Planification D - Paquet ML
- Annexe E du formulaire 1040 - Paquet ML
- Paquet ML - 1040x
- Paquet ML 3949a
- 4506T - Paquet ML
- Paquet ML 709
- Paquet ML 941x
- Paquet ML 9465
- ACORD125 - Paquet ML
- ACORD126 - Paquet ML
- ACORD131 - Paquet ML
- ACORD140 - Paquet ML
- ACORD25 - Paquet ML
- États financiers - Paquet ML
- Connaissement - Paquet ML
- Paquet ML - Certificat de constitution
- Paquet ML - Certificat d'origine
- Chèques - Paquet ML
- Paquet ML - Certificat de produit pour enfants
- CMS1500 - Paquet ML
- Paquet ML - Déclaration de conformité de l’UE
- États financiers - Paquet ML
- FM1003 - Paquet ML
- I9 - Paquet ML
- Cartes d’identité - Paquet ML
- Factures - Paquet ML
- FacturesAustralie - Paquet ML
- FacturesChine - Paquet ML
- Paquet ML - Factures hébreu
- FacturesInde - Paquet ML
- FacturesJapon - Paquet ML
- Paquet ML - Livraison des factures
- Listes de colisage - Paquet ML
- Fiches de paie - Paquet ML
- Passeports - Paquet ML
- Bons de commande - Paquet ML
- Reçus – Paquet ML
- RemittanceAdvices - Paquet ML
- Formulaire UB04 - Paquet ML
- Factures de services publics - Paquet ML
- Titres de véhicule - Paquet ML
- W2 - Paquet ML
- W9 - Paquet ML
- Autres paquets ML prêts à l’emploi
- Points de terminaison publics
- Limitations du trafic
- Configuration OCR
- Pipelines
- Services OCR
- Langues prises en charge
- Apprentissage profond
- Données et sécurité
- Logique d’attribution de licences et de charge

Document Understanding classic user guide
Pipelines d'entraînement
The ability to train extractors and classifiers is now more convenient by using Document UnderstandingTM product (rather than the AI Center service), by leveraging the One Click Extraction and the One Click Classification features.
Minimal dataset size For successfully running a Training pipeline, we strongly recommend minimum 10 documents and at least 5 samples from each labeled field in your dataset. Otherwise, the pipeline throws the following error: Dataset Creation Failed. Training on GPU vs CPU For larger datasets, you need to train using GPU. Moreover, using a GPU for training is at least 10 times faster than using a CPU. For the maximum dataset size depeding on the version and infrastructure, check the table below.
Table 1. Maximum dataset for each version
| Infrastructure | <2021.10.x | 2021.10.x | >2021.10.x |
|---|---|---|---|
| Processeur | 500 pages | 5000 pages | 1 000 pages |
| GPU | 18 000 pages | 18 000 pages | 18 000 pages |
Si certains de vos pipelines échouent lors de l’entraînement d’ensembles de données volumineux, nous vous recommandons d’effectuer une mise à niveau vers les paquets ML version 24.4 ou ultérieure. Les versions les plus récentes offrent des améliorations de la stabilité, ce qui peut permettre de réduire considérablement ces problèmes. Pour plus d'informations sur la structure des ensembles de données, consultez la section Format de l'ensemble de données (Dataset Format).
Il existe deux manières d'entraîner un modèle de ML :
- entraînement d'un modèle à partir de zéro
- réentraînement d'un modèle prêt à l'emploi
L'entraînement d'un modèle à partir de zéro peut être effectué à l'aide du paquet ML DocumentUnderstanding, réalisant le processus selon l'ensemble de données fourni en entrée.
Le réentraînement peut être réalisé à l'aide de paquets ML prêts à l'emploi tels que Invoices, Receipts, Purchase Orders, Utility Bills, Invoices India, Invoices Australia, etc. En résumé, tout autre paquet ML d'extraction de données - à l'exception de DocumentUnderstanding. L'entraînement effectué à l'aide de l'un de ces packages a une entrée supplémentaire : un modèle de base. Nous appelons cela le réentraînement parce que vous ne partez pas de zéro mais à partir d'un modèle de base. Cette approche utilise une technique appelée l'apprentissage par transfert où le modèle tire parti des informations codées dans un autre modèle préexistant. Le modèle conserve certaines des connaissances prêtes à l'emploi, mais il apprend également des nouvelles données. Cependant, à mesure que la taille de votre ensemble de données d'entraînement augmente, le modèle de base pré-entraîné est de moins en moins important. Sa pertinence s'adresse principalement aux ensembles de données d'entraînement de petite à moyenne taille (jusqu'à 500-800 pages).
Configurez le pipeline d'entraînement comme suit :
-
Dans le champ Type de pipeline (Pipeline type), sélectionnez Exécution de pipeline d'entraînement (Training run).
-
Dans le champ Choisir le package (Choose package), sélectionnez le package que vous avez créé en fonction du paquet ML DocumentUnderstanding.
-
Dans le champ Choisir la version majeure du package (Choose package major version), sélectionnez une version majeure pour votre package.
-
Dans le champ Choisir la version mineure du package (Choose package minor version), sélectionnez une version mineure pour votre package. Consultez la section Choix de la version mineure ci-dessous pour plus d’informations.
-
In the Choose input dataset field, select a dataset as shown in the video below on this page. For building high quality training datasets, you can check this tutorial.
-
Dans la section Entrer les paramètres (Enter parameters), entrez toutes les variables d'environnement définies et utilisées par votre pipeline, le cas échéant. Pour la plupart des cas d'utilisation, aucun paramètre n'a besoin d'être spécifié ; le modèle utilise des techniques avancées pour trouver une configuration performante. Cependant, voici quelques variables d'environnement que vous pouvez utiliser :
-
auto_retrainingwhich allows you to complete the Auto-retraining Loop; if the variable is set to True, then the input dataset needs to be the export folder associated with the labeling session where the data is tagged; if the variable remains set to False, then the input dataset needs to correspond to the dataset format. -
model.epochspermet de personnaliser le nombre d'époques pour le pipeline d'entraînement (la valeur par défaut est de 100).Optional.Remarque :For larger datasets, containing more than 5000 pages, you can initially perform a full pipeline run with the default number of epochs. This allows you to evaluate the model’s accuracy. After that, you can decrease the number of epochs to about 30-40. This approach allows you to compare the accuracy of the results and determine if the reduction of epochs yields comparable precision. When using smaller datasets, in particular those with fewer than 5000 pages, you can maintain the default number of epochs.
-
Pour les paquets ML v23.4 ou versions ultérieures, l'entraînement sur des ensembles de données de moins de 400 pages utilise une approche appelée Frozen Backone pour accélérer l'entraînement et améliorer les performances. Cependant, vous avez la possibilité de remplacer ce comportement et de forcer l'entraînement complet même pour les ensembles de données plus petits, ou, inversement, de forcer l'entraînement Frozen Backbone même pour les ensembles de données plus volumineux (jusqu'à un maximum de 3 000 pages). Vous pouvez utiliser les variables d'environnement suivantes, à la condition de les combiner lors de leur utilisation, soit utiliser la première et la seconde, soit la première et la troisième variables ensemble.
Optional.model.override_finetune_freeze_backbone_mode=True: incluez cette variable d'environnement afin de remplacer le comportement par défaut. Ceci est requis dans les deux situations ci-dessous.model.finetune_freeze_backbone_mode=True: incluez cette variable d'environnement afin de forcer le modèle à utiliser Frozen Backone même pour les ensembles de données plus volumineux.model.finetune_freeze_backbone_mode=False: incluez cette variable d'environnement afin de forcer le modèle à utiliser l'entraînement complet même pour les ensembles de données plus petits.
-
Indiquez si vous souhaitez entraîner le pipeline sur GPU ou sur CPU. Le curseur Activer le GPU (Enable GPU) est désactivé par défaut, auquel cas le pipeline est entraîné sur CPU.
-
Sélectionnez l'une des options d'exécution du pipeline : Exécuter maintenant (Run now), Basé sur l'heure (Time based) ou Récurrent (Recurring). Si vous utilisez la variable
auto_retraining, sélectionnez Récurrent.
-
Après avoir configuré tous les champs, cliquez sur Créer (Create). Le pipeline est créé.
Voici un exemple de création d’un pipeline d’entraînement avec un ensemble de données précédemment exporté vers AI Center :

Choix de la version mineure
Dans la plupart des cas, la version mineure 0 doit être choisie. En effet, plus votre ensemble de données d’entraînement est volumineux et diversifié, meilleures sont les performances de votre modèle. Ce principe s’aligne sur l’objectif actuel de la technologie ML de pointe d’utiliser de grands ensembles d’entraînement de haute qualité et représentatifs. Par conséquent, à mesure que vous accumulez davantage de données d’entraînement pour un modèle, vous devez ajouter les données au même ensemble de données afin d’améliorer davantage les performances du modèle.
Il existe cependant des situations dans lesquelles l’entraînement sur une version mineure autre que 0 a un sens. C’est généralement le cas lorsqu’un partenaire doit servir plusieurs clients dans le même secteur, mais que UiPath® ne dispose pas d’un modèle pré-entraîné optimisé pour ce secteur, cette zone ou ce type de document.
Dans un tel cas, le partenaire peut développer un modèle pré-entraîné à l’aide d’une variété d’échantillons de ce secteur (pas à partir d’une seule source, mais à partir de plusieurs sources pour une meilleure généralisation). Ce modèle serait utilisé comme modèle de base pour former des modèles de clients spécifiques et est entraîné sur la version 0 du paquet ML. Les versions suivantes, comme la version 1, seraient utilisées pour affiner le modèle pré-entraîné ou créer des modèles spécifiques au client.
Cependant, pour obtenir de bons résultats, le modèle pré-entraîné doit être non biaisé et basé sur un ensemble d’entraînement très diversifié. Si le modèle de base est optimisé pour un client spécifique, il peut ne pas fonctionner correctement pour d’autres clients. Dans ce cas, l’utilisation de la version mineure 0 comme modèle de base donne de meilleurs résultats.