- Vue d'ensemble (Overview)
- Prérequis
- Pré-installation
- Installation
- Post-installation
- Migration et mise à niveau
- Mettre à niveau Automation Suite
- Migration de produits autonomes vers Automation Suite
- Étape 1 : Restauration de la base de données du produit autonome
- Étape 2 : Mise à jour du schéma de la base de données de produits restaurée
- Étape 3 : Déplacement des données d’organisation depuis une version autonome d’Identity vers Automation Suite
- Étape 4 : Sauvegarder la base de données de la plate-forme dans Automation Suite
- Étape 5 : Fusion des organisations dans Automation Suite
- Étape 6 : Mise à jour des chaînes de connexion du produit migré
- Étape 7 : migration de la version autonome d'Orchestrator
- Étape 8 : migration de la version autonome d’Insights
- Step 9: Migrating standalone Test Manager
- Step 10: Deleting the default tenant
- Exécution d'une seule migration de locataire
- Migration entre les clusters Automation Suite
- Migration d' Automation Suite sur EKS/AKS vers Automation Suite sur OpenShift
- Surveillance et alerte
- Administration du cluster
- Configuration spécifique au produit
- Configuration des paramètres d'Orchestrator
- Configuration des paramètres d'application
- Configuration de la taille maximale de la requête
- Remplacement de la configuration du stockage au niveau du cluster
- Configuration de NLog
- Enregistrement des journaux du robot dans Elasticsearch
- Configuration des magasins d'informations d'identification
- Configuration de la clé de chiffrement par locataire
- Nettoyer la base de données Orchestrator
- Rotation des informations d’identification de stockage d’objets blob
- Désactivation de l'utilisation d'URL pré-signées lors du téléchargement de données vers le stockage Amazon S3
- Configuration de la sécurité de l'application de processus
- Configurer une authentification Kerberos avec l’authentification MSSQL de base pour Process Mining
- Résolution des problèmes
- Impossible d’accéder à Automation Hub après la mise à niveau vers Automation Suite 2024.10.0
- Échec de l’enregistrement d’AI Center après la mise à niveau vers la version 2023.10 ou une version ultérieure
- Volumes Insights créés dans deux zones différentes après la migration
- La mise à niveau échoue en raison du remplacement des tailles de PVC Insights
- La configuration de sauvegarde ne fonctionne pas en raison d’un échec de connexion à Azure Government
- Pods dans l'espace de noms uipath bloqués lors de l'activation des rejets de nœuds personnalisés
- Impossible de lancer Automation Hub et Apps avec la configuration proxy
- Le Robot ne peut pas se connecter à une instance Automation Suite Orchestrator
- La diffusion des journaux ne fonctionne pas dans les configurations proxy
- La sauvegarde de Velero échoue avec l'erreur FailedValidation
- L'accès au nom de domaine complet renvoie RBAC : erreur d'accès refusé

Guide d'installation d'Automation Suite sur EKS/AKS
Vous pouvez apporter votre propre cluster Kubernetes et appliquer vos pratiques classiques pour l’enregistrer et le gérer.
-
Installer et configurer le service mesh Istio. Pour plus de détails, consultez la section Installation et configuration du service Mesh.
-
Apportez votre propre ArgoCD. Pour plus de détails, consultez la section Installer et configurer l’outil GitOps.
-
Si vous installez Process Mining, vous devez installer vous-même cert-manager et Dapr. Pour plus de détails, consultez la section Remplir les conditions préalables de Process Mining.
-
Créez et gérez les certificats vous-même. Pour plus de détails, consultez la section Certificats générés lors de l'installation.
-
Créez un compte de service et accordez les autorisations nécessaires à l'installation d'Automation Suite. Pour plus de détails, consultez la section Octroi d'autorisations d'installation.
Après avoir installé les composants requis, vous pouvez exécuter le programme d'installation avec des autorisations inférieures. Pour obtenir la liste des autorisations requises, consultez Octroi d'autorisations d'installation.
Chaque version du support longue durée d'Automation Suite est livrée avec une matrice de compatibilité. Pour les versions EKS ou AKS compatibles, consultez Matrice de compatibilité.
Nous avons testé la compatibilité d'Automation Suite avec les systèmes d'exploitation Linux suivants :
| Fournisseur de cloud | Système d'exploitation |
|---|---|
| AKS |
|
| EKS |
|
Pour estimer la capacité des nœuds en fonction des exigences de votre produit et de vos exigences d'échelle, utilisez le calculateur de dimensionnement d'installation UiPath Automation Suite .
L'exigence de volume racine pour les nœuds d'agent (travailleur) est de 256 Go.
Au minimum, pour commencer avec les services de plate-forme obligatoires (identité, licences et routage) et Orchestrator, vous devez enregistrer 8 processeurs virtuels et 16 Go de RAM par nœud.
Nous vous déconseillons d'utiliser des instances ponctuelles dans Automation Suite dans les scénarios de production, en raison de problèmes de stabilité et de performances.
Vous devez désactiver la mémoire d’échange avant d’installer Automation Suite. Il a été constaté que la mémoire d’échange provoquait des problèmes avec les charges de travail des conteneurs. Par ailleurs, les charges de travail d’Automation Suite ne bénéficient pas de l’utilisation de la mémoire d’échange, d’autant plus que Kubernetes optimise déjà l’utilisation de la mémoire.
Nous vous recommandons d'activer la mise à l'échelle automatique sur votre cluster pour garantir une fiabilité élevée et éviter les interruptions d'activité.
Si vous installez Task Mining, vous devez enregistrer un ou plusieurs nœuds de travail supplémentaires avec 20 processeurs virtuels et 60 Go de RAM. Ce nœud doit être rejeté pour garantir que seules les charges de travail Task Mining s'exécutent dessus. Pour plus de détails, consultez la section Planification des nœuds .
Automation Suite Robot nécessite un ou plusieurs nœuds de travail supplémentaires.
La configuration matérielle requise pour le nœud d'Automation Suite Robots dépend de la façon dont vous prévoyez d'utiliser vos ressources. Outre la configuration requise supplémentaire pour le nœud d'agent, vous avez également besoin d'un minimum de 10 Go de stockage de fichiers pour activer la mise en cache des packages.
Pour plus de détails, consultez la documentation sur le stockage .
Les sections suivantes décrivent les facteurs qui ont un impact sur la quantité de matériel requise par le nœud d'Automation Suite Robots.
Taille du robot
Le tableau suivant décrit le processeur, la mémoire et le stockage requis pour toutes les tailles de Robot.
|
Taille |
Processeur |
Mémoire |
Stockage |
|---|---|---|---|
|
Petite |
0,5 |
1 Go |
1 Go |
|
Standard |
1 |
2 Go |
2 Go |
|
Moyenne |
2 |
4 Go |
4 Go |
|
Grande |
6 |
10 GB |
10 GB |
Taille du nœud d'agent
Les ressources du nœud de l'agent d'Automation Suite Robots ont un impact sur le nombre de tâches pouvant être exécutées simultanément. Cela s'explique par le fait que le nombre de cœurs de processeur et la quantité de capacité de RAM sont divisés par les configurations requises en termes de processeur/mémoire de la tâche.
Par exemple, un nœud avec 16 processeurs et 32 Go de RAM pourrait exécuter l'un des éléments suivants :
- 32 petites tâches ;
- 16 tâches standard
- 8 tâches moyennes ;
- 2 tâches volumineuses
Les tailles de tâches peuvent être mélangées. Ainsi, à tout moment, le même nœud peut exécuter une combinaison de tâches, comme suit :
- 10 petites tâches (consommant 5 processeurs et 10 Go de mémoire)
- 4 tâches standard (utilisant 4 processeurs et 8 Go de mémoire) ;
- 3 tâches moyennes (consommant 6 processeurs et 12 Go de mémoire)
Utilisation des ressources Kubernetes
Étant donné que le nœud fait partie d'un cluster Kubernetes, l'agent Kubernetes présent sur le serveur (kubelet) utilise une petite quantité de ressources. D’après nos mesures, le kubelet consomme les ressources suivantes :
- 0,6 de processeur ;
- 0,4 Go de RAM
Un nœud similaire à celui décrit précédemment aurait en réalité environ 15,4 processeurs et 31,6 Go de RAM.
Sélection automatique de la taille de la machine
Tous vos processus multiplateformes ont l'option Robots Automation Suite définie sur Automatique par défaut. Ce paramètre sélectionne la taille de machine appropriée pour l'exécution du processus à l'aide de robots sans serveur.
Lors du choix automatique de la taille, les critères répertoriés dans la table ci-dessous sont évalués dans l'ordre. Dès qu'un critère est satisfait, la taille de machine correspondante est choisie et les critères restants ne sont pas évalués.
|
Ordre |
Critère |
Taille de la machine |
|---|---|---|
|
1 |
Tâche de débogage à distance |
Moyenne |
|
2 |
Le processus dépend d’UI Automation OU Le processus dépend des activités UiPath Document Understanding |
Standard |
|
3 |
Autre processus non assisté (unattended) |
Petite |
Pour des performances améliorées, vous pouvez installer Document Understanding sur un nœud d’agent supplémentaire avec prise en charge de GPU. Notez cependant que les projets basés sur AI Center dans Document Understanding sont entièrement fonctionnels sans le nœud GPU. De fait, Document Understanding utilise des machines virtuelles de processeur pour toutes ses tâches d’extraction et de classification, tandis que pour l’OCR, nous recommandons fortement l’utilisation d’une machine virtuelle GPU.
Pour plus d’informations sur l’utilisation du processeur/GPU dans l’infrastructure Document Understanding, consultez la section Utilisation du processeur et du processeur graphique.
Si vous souhaitez utiliser un nœud supplémentaire avec prise en charge du GPU, vous devez répondre aux exigences suivantes :
|
Matériel |
Configuration minimale requise |
|---|---|
|
Processeur |
8 (v-)CPU/cœurs |
|
RAM |
52 Go |
|
Disque du système d'exploitation |
SSD de 256 Go IOPS minimum : 1100 |
|
DataDisk |
S/O |
|
RAM GPU |
11 Go |
--node-taints nvidia.com/gpu=present:NoSchedule au lieu de --node-taints sku=gpu:NoSchedule.
tolerations correspondant. Vous pouvez utiliser l'exemple suivant :tolerations:
- key: "nvidia.com/gpu"
operator: "Equal"
value: "present"
effect: "NoSchedule"tolerations:
- key: "nvidia.com/gpu"
operator: "Equal"
value: "present"
effect: "NoSchedule"Automation Suite prend en charge les GPU NVIDIA. Pour en savoir plus sur la configuration des GPU NVDIA (tels que les pilotes), veuillez vous référer aux documents respectifs d’ Azure ou AWS.
Exigences supplémentaires pour les projets modernes de Document Understanding
enable_cpu_inference sur true, comme indiqué dans la section Activer ou désactiver Document Understanding .
- L'inférence peut être jusqu'à 10 fois plus lente.
- Nous vous recommandons de l’utiliser pour les documents d’un maximum de 125 pages. Aucune limitation active n’est en place. Cependant, l'inférence peut échouer pour les documents de plus de 125 pages.
Sans inférence de processeur, un minimum de 5 GPU est requis pour les projets modernes Document Understanding. L’exemple du scénario du tableau suivant montre comment 5 GPU sont suffisants pour traiter 300 pages.
| Function | Numérique |
|---|---|
| Pages de modèle personnalisées traitées par heure | 300 |
| Modèle prêt à l'emploi pages traitées par heure | 0 |
| Entraînement des modèles en parallèle | 1 |
| Nombre de pages dans tous les projets - Durée de conception | 200 |
| Nombre de types de documents par version de projet | 3 |
Les 5 GPU sont répartis entre différentes fonctions, comme détaillé dans le tableau suivant :
| Service | Nombre de GPU |
|---|---|
| Réplicas OCR | 1 |
| Réplicas d'entraînement de modèle personnalisés | 1 |
| Réplicas de modèle personnalisés | 2 |
| Réplicas de modèle prêts à l'emploi | 1 |
| Total | 5 |
Pour plus d’informations sur la façon d’allouer des GPU à chaque service, consultez la page Affecter des ressources GPU pour les projets modernes Document Understanding .
En plus des exigences du GPU, les projets modernes Document Understanding nécessitent également des ressources CPU spécifiques pour des performances optimales. Pour des performances optimales, un minimum de 18 processeurs virtuels est requis.
objectstore supplémentaires sont nécessaires pour effectuer les activités des exemples fournis en continu pendant un an. Vous pouvez commencer avec un nombre plus petit, mais l'activité échouera une fois le stockage terminé, sauf si vous le faites passer explicitement.
Si vous enregistrez pour un an de traitement continu, vous aurez besoin de 4 To pour les projets modernes Document Understanding et de 512 Go pour les autres produits. Le total sera de 4,5 To de stockage. De même, si vous commencez avec six mois de traitement, vous aurez besoin de 2 To pour les projets modernes Document Understanding et de 512 Go pour les autres produits. Dans ce cas, le total sera de 2,5 To.
Enregistrement des GPU compatibles MIG
Les charges de travail Automation Suite Document Understanding prennent en charge l'exécution sur des GPU virtuels (VCPU) créés avec la technologie NVIDIA MIG (GPU multi-instances).
Pour exécuter Document Understanding dans ces conditions, gardez à l’esprit les exigences suivantes :
-
Mémoire GPU (VRAM) : au moins 16 Go par PGPU
Remarque : UiPath ne prend en charge que la stratégie unique, ce qui signifie que tous les VCPU seront exactement les mêmes. -
Stockage : au moins 80 Go par GPUPU
Activation des GPU activés par MIG dans Kubernetes
Après avoir enregistré les GPU activés par MIG dans votre cluster avec des profils correspondant ou dépassant les exigences minimales ci-dessus, assurez-vous que les GPU sont des Kubernetes planifiables. Le nœud doit signaler un nombre non nul de GPU avant que les charges de travail puissent y être planifiées.
Pour rendre les GPU planifiables, deux options s'offrent à vous :
- Option A : suivez la documentation officielle de configuration du GPU de votre fournisseur cloud :
- Option B (Alternative) : Déployez le plug-in de l'appareil NVIDIA directement :
- Créez un nouvel espace de noms :
kubectl create namespace gpu-resourceskubectl create namespace gpu-resources - Appliquez la configuration suivante, en remplaçant
migEnabledPoolNamepar le libellé qui correspond à votre nœud GPU :apiVersion: v1 kind: Pod metadata: name: nvidia-device-plugin-pod namespace: gpu-resources spec: affinity: nodeAffinity: requiredDuringSchedulingIgnoredDuringExecution: nodeSelectorTerms: - matchExpressions: - key: agentpool operator: In values: # To be changed to a selector that matches the GPU nodes - migEnabledPoolName containers: - args: - --fail-on-init-error=false env: - name: MPS_ROOT value: /run/nvidia/mps - name: MIG_STRATEGY # We only support the single strategy for now value: single - name: NVIDIA_MIG_MONITOR_DEVICES value: all - name: NVIDIA_VISIBLE_DEVICES value: all - name: NVIDIA_DRIVER_CAPABILITIES value: compute,utility image: nvcr.io/nvidia/k8s-device-plugin:v0.17.3 imagePullPolicy: IfNotPresent name: nvidia-device-plugin-ctr securityContext: allowPrivilegeEscalation: true capabilities: add: - SYS_ADMIN terminationMessagePath: /dev/termination-log terminationMessagePolicy: File volumeMounts: - mountPath: /var/lib/kubelet/device-plugins name: device-plugin tolerations: - key: CriticalAddonsOnly operator: Exists - effect: NoSchedule key: nvidia.com/gpu operator: Exists terminationGracePeriodSeconds: 30 volumes: - hostPath: path: /var/lib/kubelet/device-plugins type: "" name: device-pluginapiVersion: v1 kind: Pod metadata: name: nvidia-device-plugin-pod namespace: gpu-resources spec: affinity: nodeAffinity: requiredDuringSchedulingIgnoredDuringExecution: nodeSelectorTerms: - matchExpressions: - key: agentpool operator: In values: # To be changed to a selector that matches the GPU nodes - migEnabledPoolName containers: - args: - --fail-on-init-error=false env: - name: MPS_ROOT value: /run/nvidia/mps - name: MIG_STRATEGY # We only support the single strategy for now value: single - name: NVIDIA_MIG_MONITOR_DEVICES value: all - name: NVIDIA_VISIBLE_DEVICES value: all - name: NVIDIA_DRIVER_CAPABILITIES value: compute,utility image: nvcr.io/nvidia/k8s-device-plugin:v0.17.3 imagePullPolicy: IfNotPresent name: nvidia-device-plugin-ctr securityContext: allowPrivilegeEscalation: true capabilities: add: - SYS_ADMIN terminationMessagePath: /dev/termination-log terminationMessagePolicy: File volumeMounts: - mountPath: /var/lib/kubelet/device-plugins name: device-plugin tolerations: - key: CriticalAddonsOnly operator: Exists - effect: NoSchedule key: nvidia.com/gpu operator: Exists terminationGracePeriodSeconds: 30 volumes: - hostPath: path: /var/lib/kubelet/device-plugins type: "" name: device-plugin
- Créez un nouvel espace de noms :
nvidia.com/gpu, en fonction du profil MIG que vous avez configuré. Le nœud doit désormais être planifiable et prêt pour exécuter les charges de travail Document Understanding.
Nous vous recommandons d'activer les rejets de nœud sur les nœuds de travail dédiés pour Task Mining, Automation Suite Robotet Document Understanding.
Exemple d'AI Center et du DU :
-
Pour le processeur :
kubectl taint node <node_name> aic.ml/cpu=present:NoSchedulekubectl taint node <node_name> aic.ml/cpu=present:NoSchedule
-
Pour le GPU :
kubectl taint node <node_name> nvidia.com/gpu=present:NoSchedulekubectl taint node <node_name> nvidia.com/gpu=present:NoSchedule
Exemple de Task Mining :
kubectl taint node <node_name> task.mining/cpu=present:NoSchedulekubectl taint node <node_name> task.mining/cpu=present:NoScheduleExempleAutomation Suite Robot :
-
ajoutez un rejet pour les robots sans serveur à l'aide de la commande suivante :
kubectl taint node <node_name> serverless.robot=present:NoSchedulekubectl taint node <node_name> serverless.robot=present:NoSchedule -
ajoutez les libellés pour les robots sans serveur à l'aide de la commande suivante :
kubectl label node <node_name> serverless.robot=true serverless.daemon=truekubectl label node <node_name> serverless.robot=true serverless.daemon=true
Si vous avez des rejets de nœud personnalisés qui sont appliqués par la politique de garde d'accès, tels que des rôles spécifiques pour les nœuds de travail ou les libellés, ils ne seront pas transmis à Automation Suite et peuvent interrompre le processus d'installation.
Pour en savoir plus sur les rejets et les tolérances, consultez la documentation de Kubernetes.
- Cluster et autorisations
- Versions d'EKS/AKS prises en charge
- Capacité du nœud
- Mémoire d’échange
- Mise à l'échelle automatique
- Exigences supplémentaires pour Task Mining
- Exigences supplémentaires pour les Automation Suite Robots
- Taille du robot
- Taille du nœud d'agent
- Utilisation des ressources Kubernetes
- Sélection automatique de la taille de la machine
- Autres recommandations pour Document Understanding
- Exigences supplémentaires pour les projets modernes de Document Understanding
- Enregistrement des GPU compatibles MIG
- Planification des nœuds