document-understanding
2023.4
false
UiPath logo, featuring letters U and I in white

Guide de l'utilisateur de Document Understanding

Automation CloudAutomation Cloud Public SectorAutomation SuiteStandalone
Dernière mise à jour 18 déc. 2024

Prérequis matériels

L’exécution des packages ML de Document UnderstandingTM sur un GPU inclut une optimisation destinée à accélérer le processus d’entraînement.

Matrice de compatibilité

En conséquence, l'entraînement sur GPU n'est que 5 fois plus rapide que sur CPU (auparavant, il était 10 à 20 fois plus rapide). Cela permet également de former des modèles sur CPU avec jusqu'à 5 000 pages (auparavant, 500 maximum).

Veuillez noter que l'entraînement de modèles de Document Understanding sur GPU nécessite un GPU avec au moins 11 Go de RAM vidéo pour fonctionner correctement.

Utilisez la table ci-dessous pour vérifier la compatibilité entre les paquets ML, la version CUDA et la version du pilote GPU.

Version du paquet ML

Version CUDA

version cudDNN

Pilote NVIDIA (version compatible la plus ancienne)

Génération de matériel

2023.4

CUDA 11.3 ou la version la plus récente

cuDNN 8.2.0 ou la version la plus récente

R450.80.04

Ampère, Turing, Volta, Pascal, Maxwell, Kepler

CUDA est rétrocompatible, ce qui signifie que les applications CUDA existantes peuvent continuer à être utilisées avec les versions plus récentes de CUDA.

Vous trouverez plus d’informations sur la compatibilité ici

Utilisation du processeur et du processeur graphique

Vous pouvez utiliser l’infrastructure Document Understanding pour lire du texte à l’aide d’un moteur OCR, classer les documents et extraire des informations des documents. Bien que les tâches de classification et d’extraction soient exécutées sur le processeur, il est recommandé d’exécuter l’OCR sur le processeur graphique (une version du processeur est également fournie au cas où un processeur graphique ne serait pas disponible).

Le déploiement local est effectué à l’aide d'Automation Suite et de sa configuration matérielle requise.

Vous pouvez utiliser le même type de machine virtuelle pour les extracteurs et les classifieurs, la seule différence étant la taille de l’infrastructure. Nous vous recommandons d’utiliser le moteur OCR avec une machine virtuelle GPU. La compatibilité entre les paquets ML, la version CUDA et la version du pilote GPU est décrite dans la section Matrice de compatibilité.

Prenons un exemple concret pour mieux comprendre la configuration matérielle requise.

Paquet MLPrérequis matérielsCapacité
Packages d'extraction (factures, reçus, bons de commande, etc.) Utiliser une VM avec au moins 2 cœurs de CPU et 8 Go de RAMPeut traiter 40 000 documents/jour ou 8 millions de pages/an, en supposant un trafic parfaitement constant (pas de pics).
Packages de classification (DocumentClassifier) Utiliser une VM avec au moins 2 cœurs de CPU et 8 Go de RAMPeut traiter 40 000 documents/jour ou 8 millions de documents/an, en supposant un trafic parfaitement constant (pas de pics).
OCRNécessite au moins 8 Go de RAM en cas d'exécution sur CPU. Aucune exigence si vous exécutez en cas d'exécution sur GPU. Peut traiter 50 000 pages/jour.
OCR_CPUNécessite au moins 4 Go de RAM.Peut traiter 50 000 pages/jour.

Exemple : si vous traitez 10 millions de pages/an, vous avez besoin d’une machine virtuelle avec 4 cœurs de processeur, 16 Go de RAM pour l’extracteur, une autre pour le classifieur et une troisième machine virtuelle avec un cœur GPU NVidia pour le moteur OCR.

Vous pouvez également choisir de n’utiliser qu’une seule machine virtuelle pour l’extracteur et le classifieur, ce qui signifie que vous avez besoin d’une seule machine virtuelle avec 8 cœurs de processeur et 32 Go de RAM.

Remarque : vous pouvez toujours utiliser des machines virtuelles CPU/GPU plus puissantes pour augmenter le nombre de documents traités par jour.

Cette page vous a-t-elle été utile ?

Obtenez l'aide dont vous avez besoin
Formation RPA - Cours d'automatisation
Forum de la communauté UiPath
Uipath Logo White
Confiance et sécurité
© 2005-2024 UiPath Tous droits réservés.