UiPath Documentation
document-understanding
2.2510
true

Guide de l'utilisateur de Document Understanding

Dernière mise à jour 15 avr. 2026

Pipelines complets

Un pipeline complet exécute ensemble un pipeline d'entraînement et un pipeline d'évaluation.

Important :

Taille minimale de l'ensemble de données Pour exécuter avec succès un pipeline d'entraînement, nous recommandons fortement au moins 25 documents et au moins 10 échantillons de chaque champ étiqueté dans votre ensemble de données. Sinon, le pipeline renvoie l'erreur suivante : Dataset Creation Failed. **

Formation sur GPU vs formation sur CPU**

  • Pour les ensembles de données plus volumineux, vous devrez effectuer l'entraînement à l'aide du GPU. De plus, l'utilisation d'un GPU (AI Robot Pro) pour l'entraînement est au moins 10 fois plus rapide que l'utilisation d'un CPU (AI Robot).
  • La formation sur le processeur est uniquement prise en charge pour les ensembles de données d'une taille maximale de 5000 pages pour les paquets ML v21.10.x et jusqu'à 1000 pages pour les autres versions des paquets ML.
  • La formation CPU était limitée à 500 pages avant 2021.10, elle est montée à 5 000 pages pour 2021.10 et avec 2022.4 elle redescendra à 1000 pages max.

Former et évaluer un modèle en même temps

Configurez le pipeline d'entraînement comme suit :

  • Dans le champ Type de pipeline (Pipeline type), sélectionnez Exécution de pipeline complet (Full Pipeline run).

  • Dans le champ Choisir un paquet (Choose package), sélectionnez le paquet que vous souhaitez entraîner et évaluer.

  • Dans le champ Choisir la version majeure du package (Choose package major version), sélectionnez une version majeure pour votre package.

  • Dans le champ Choisir une version mineure du package, sélectionnez une version mineure de votre package.Il est fortement recommandé de toujours utiliser la version mineure 0 (zéro).

  • Dans le champ Choisir un ensemble de données d'entrée (Choose input dataset), sélectionnez un ensemble de données d'entraînement représentatif.

  • Dans le champ Choisir un ensemble de données d'évaluation (Choose evaluation dataset), sélectionnez un ensemble de données d'évaluation représentatif.

  • Dans la section Entrer les paramètres (Enter parameters), entrez toutes les variables d'environnement définies et utilisées par votre pipeline, le cas échéant. Pour la plupart des cas d'utilisation, aucun paramètre n'a besoin d'être spécifié ; le modèle utilise des techniques avancées pour trouver une configuration performante. Cependant, voici quelques variables d'environnement que vous pouvez utiliser :

  • model.epochs permet de personnaliser le nombre d'époques pour le pipeline d'entraînement (la valeur par défaut est de 100).

  • Indiquez si vous souhaitez entraîner le pipeline sur GPU ou sur CPU. Le curseur Activer le GPU (Enable GPU) est désactivé par défaut, auquel cas le pipeline est entraîné sur le processeur. L'utilisation d'un GPU (AI Robot Pro) pour l'entraînement est au moins 10 fois plus rapide que l'utilisation d'un processeur (AI Robot). De plus, l'entraînement sur processeur est pris en charge pour les ensembles de données jusqu'à 1 000 images uniquement. Pour les ensembles de données plus volumineux, vous devrez effectuer l'entraînement à l'aide du GPU.

  • Sélectionnez l'une des options d'exécution du pipeline : Exécuter maintenant, Basé sur l'heure ou Récurrent. Si vous utilisez la variable auto_retraining , sélectionnez Récurrent.

    Capture d'écran de l'interface Créer une nouvelle exécution de pipeline.

Une fois que vous avez configuré tous les champs, sélectionnez Créer. Le pipeline est créé.

Artefacts

Pour un Pipeline d'évaluation, le volet Sorties (Outputs) comprend également un dossier artefacts (artifacts) / eval_metrics qui contient deux fichiers :

Capture d'écran de l'interface Artéfacts de sortie.

  • evaluation_default.xlsx est une feuille de calcul Excel avec une comparaison juxtaposée de la vérité terrain par rapport à la valeur prédite pour chaque champ prédit par le modèle, ainsi qu'une métrique de précision par document, afin d'augmenter la précision. Par conséquent, les documents les plus inexacts sont présentés en haut pour faciliter le diagnostic et le dépannage.

  • evaluation_metrics_default.txt contient les scores F1 des champs qui ont été prédits.

    Notez que pour les éléments de ligne, seul un score global est obtenu pour l'ensemble des colonnes.

  • Former et évaluer un modèle en même temps
  • Artefacts

Cette page vous a-t-elle été utile ?

Connecter

Besoin d'aide ? Assistance

Vous souhaitez apprendre ? UiPath Academy

Vous avez des questions ? UiPath Forum

Rester à jour