- Vue d'ensemble (Overview)
- Prérequis
- Modèles de déploiement
- Manuel : Préparation de l'installation
- Manuel : Préparation de l'installation
- Étape 2 : configurer le registre compatible OCI pour les installations hors ligne
- Étape 3 : configurer le magasin d’objets externe
- Étape 4 : Configuration de High Availability Add-on
- Étape 5 : configurer les bases de données SQL
- Étape 6 : configurer l’équilibreur de charge
- Étape 7 : configurer le DNS
- Étape 8 : configuration des disques
- Étape 9 : configurer les paramètres au niveau du noyau et du système d’exploitation
- Étape 10 : configuration des ports de nœud
- Étape 11 : appliquer divers paramètres
- Étape 12 : Valider et installer les packages RPM requis
- Étape 13 : génération du fichier cluster_config.json
- Configuration du certificat
- Configuration de la base de données
- Configuration du magasin d'objets externe
- Configuration d'URL pré-signée
- Configuration de l'authentification Kerberos
- Configuration du registre externe compatible OCI
- Disaster Recovery : configurations actif/passif et actif/actif
- Configuration de High Availability Add-on
- Configuration spécifique à Orchestrator
- Configuration spécifique à Insights
- Configuration spécifique à Process Mining
- Configuration spécifique à Document Understanding
- Configuration spécifique à Automation Suite Robots
- Configuration de la surveillance
- Facultatif : configuration du serveur proxy
- Facultatif : Activation de la résilience aux échecs locaux dans un cluster en mode production multi-nœuds compatible haute disponibilité
- Facultatif : Transmettre le fichier personnalisé resolv.conf
- Facultatif : augmentation de la tolérance aux pannes
- install-uipath.sh parameters
- Ajout d'un nœud d'agent dédié avec prise en charge GPU
- Ajout d'un nœud d'agent dédié pour Task Mining
- Connexion de l'application Task Mining
- Ajout d'un nœud d'agent dédié pour les Automation Suite Robots
- Étape 15 : configuration du registre Docker temporaire pour les installations hors ligne
- Étape 16 : validation des prérequis de l’installation
- Manuel : Exécution de l'installation
- Post-installation
- Administration du cluster
- Gestion des produits
- Premiers pas avec le portail d'administration du cluster
- Migration d'un magasin d'objets d'un volume persistant vers des disques bruts
- Migration de High Availability Add-on du cluster vers une version externe
- Migration des données entre les librairies
- Migration d'un magasin d'objets intégré au cluster vers un magasin d'objets externe
- Migration du registre intégré au cluster vers un registre externe compatible OCI
- Basculer manuellement vers le cluster secondaire dans une configuration actif/passif
- Disaster Recovery : exécution d'opérations post-installation
- Conversion d'une installation existante en configuration multi-sites
- Recommandations pour mettre à niveau un déploiement actif/passif ou actif/actif
- Recommandations pour sauvegarder et restaurer un déploiement actif/passif ou actif/actif
- Rediriger vers le cluster principal le trafic pour les services non pris en charge
- Mise à l'échelle d'un déploiement à nœud unique (évaluation) vers un déploiement multi-nœuds (HA)
- Surveillance et alerte
- Migration et mise à niveau
- Étape 1 : Déplacement des données d'organisation Identity d'installation autonome vers Automation Suite
- Étape 2 : Restauration de la base de données du produit autonome
- Étape 3 : Sauvegarder la base de données de la plate-forme dans Automation Suite
- Étape 4 : Fusion des organisations dans Automation Suite
- Étape 5 : Mise à jour des chaînes de connexion du produit migré
- Étape 6 : migration de la version autonome d'Orchestrator
- Étape 7 : Migration d’Insights en version autonome
- Étape 8 : Migration de Test Manager autonome
- Étape 9 : suppression du locataire par défaut
- Exécution d'une seule migration de locataire
- Migration d'Automation Suite sur Linux vers Automation Suite sur EKS/AKS
- Mettre à niveau Automation Suite
- Téléchargement des packages d'installation et obtention de l'ensemble des fichiers sur le premier nœud de serveur
- Récupération de la dernière configuration appliquée à partir du cluster
- Mise à jour de la configuration du cluster
- Configuration du registre compatible OCI pour les installations hors ligne
- Exécution de la mise à niveau
- Exécution d'opérations post-mise à niveau
- Configuration spécifique au produit
- Utilisation de l'outil Orchestrator Configurator
- Configuration des paramètres d'Orchestrator
- Paramètres de l'application Orchestrator
- Configuration des paramètres d'application
- Configuration de la taille maximale de la requête
- Remplacement de la configuration du stockage au niveau du cluster
- Configuration des magasins d'informations d'identification
- Configuration de la clé de chiffrement par locataire
- Nettoyer la base de données Orchestrator
- Rotation des informations d’identification de stockage d’objets blob
- Désactivation de l'utilisation d'URL pré-signées lors du téléchargement de données vers le stockage Amazon S3
- Configuration de la sécurité de l'application de processus
- Configurer une authentification Kerberos avec l’authentification MSSQL de base pour Process Mining
- Bonnes pratiques et maintenance
- Résolution des problèmes
- Comment résoudre les problèmes des services lors de l'installation
- Comment désinstaller le cluster
- Comment nettoyer les artefacts hors ligne pour améliorer l'espace disque
- Comment effacer les données Redis
- Comment activer la journalisation Istio
- Comment nettoyer manuellement les journaux
- Comment nettoyer les anciens journaux stockés dans le compartiment sf-logs
- Comment désactiver les journaux de diffusion pour AI Center
- Comment déboguer les installations d'Automation Suite ayant échoué
- Comment supprimer des images de l’ancien programme d’installation après la mise à niveau
- Comment désactiver le déchargement de la somme de contrôle txt
- Comment mettre à niveau Automation Suite 2022.10.10 et 2022.4.11 vers 2023.10.2
- Comment définir manuellement le niveau de journalisation d’ArgoCD sur Info
- Comment augmenter le stockage d’AI Center
- Comment générer la valeur pull_secret_value encodée pour les registres externes
- Comment résoudre les chiffrements faibles dans TLS 1.2
- Comment travailler avec les certificats
- Comment transférer les journaux d'application vers Splunk
- Comment nettoyer les images Docker inutilisées à partir des pods de registre
- Comment collecter les données d'utilisation de DU avec le magasin d'objets intégré au cluster (Ceph)
- Comment installer RKE2 SELinux dans des environnements isolés
- Comment nettoyer les anciennes sauvegardes différentielles sur un serveur NFS
- Impossible d'exécuter une installation hors ligne sur le système d'exploitation RHEL 8.4
- Erreur lors du téléchargement du bundle
- L'installation hors ligne échoue en raison d'un fichier binaire manquant
- Problème de certificat dans l'installation hors ligne
- La première installation échoue lors de la configuration de Longhorn
- Erreur de validation de la chaîne de connexion SQL
- Échec de la vérification des prérequis pour le module selinux iscsid
- Disque Azure non marqué comme SSD
- Échec après la mise à jour du certificat
- L'antivirus provoque des problèmes d'installation
- Automation Suite ne fonctionne pas après la mise à niveau du système d'exploitation
- Automation Suite requiert que backlog_wait_time soit défini sur 0
- Volume impossible à monter car il n'est pas prêt pour les charges de travail
- Échec de la collecte du journal du pack d'assistance
- La chaîne de connexion SQL de l’automatisation de test est ignorée
- Paramètres DNS non respectés par CoreDNS
- Perte de données lors de la réinstallation ou de la mise à niveau d'Insights après la mise à niveau d'Automation Suite
- Échec de la mise à niveau du nœud unique à l’étape Fabric
- Cluster défectueux après la mise à niveau automatisée à partir de la version 2021.10
- Échec de la mise à niveau en raison d’un Ceph défectueux
- RKE2 ne démarre pas en raison d'un problème d'espace
- Le volume ne peut pas être monté et reste à l'état de boucle d'attachement/détachement
- La mise à niveau échoue en raison d’objets classiques dans la base de données Orchestrator
- Cluster Ceph trouvé dans un état dégradé après une mise à niveau côte à côte
- Un composant Insights défectueux entraîne l’échec de la migration
- La mise à niveau du service échoue pour Apps
- Délais d'attente de mise à niveau sur place
- Migration du registre Docker bloquée lors de la suppression du PVC
- Échec de l’enregistrement d’AI Center après la mise à niveau vers la version 2023.10 ou une version ultérieure
- La mise à niveau échoue dans les environnements hors ligne
- Échec de la validation SQL lors de la mise à niveau
- Le pod d'instantané-contrôleur-crds dans l'état CrashLoopBackOff après la mise à niveau
- Erreur de mise à niveau/réinstallation du point de terminaison de l'API REST Longhorn
- La mise à niveau échoue en raison du remplacement des tailles de PVC Insights
- La mise à niveau du service échoue lors de l'exécution du script de pré-service
- Échec du chargement ou du téléchargement des données dans l'objectstore
- Le redimensionnement de la PVC ne répare pas Ceph
- Échec du redimensionnement du PVC objectstore
- Rook Ceph ou pod Looker bloqué dans l'état Init
- Erreur de pièce jointe du volume Ensembles d'états.
- Échec de la création de volumes persistants
- Échec de la compression des métriques en raison de blocs corrompus dans Thanos
- Définition d'un délai d'expiration pour les portails de gestion
- L'authentification ne fonctionne pas après la migration
- kinit : Impossible de trouver le KDC pour le domaine <AD Domain> lors de l'obtention des informations d'identification initiales
- Kinit : Keytab ne contient aucune clé appropriée pour *** lors de l'obtention des informations d'identification initiales
- L'opération GSSAPI a échoué en raison d'un code de statut non valide
- Alarme reçue pour l'échec de la tâche Kerberos-tgt-update
- Fournisseur SSPI : serveur introuvable dans la base de données Kerberos
- La connexion a échoué pour l'utilisateur AD en raison d'un compte désactivé
- Échec de connexion à ArgoCD
- Mettre à jour les connexions du répertoire sous-jacent
- Impossible d'obtenir l'image du bac à sable
- Les pods ne s'affichent pas dans l'interface utilisateur ArgoCD
- Échec de la sonde Redis
- Le serveur RKE2 ne démarre pas
- Secret introuvable dans l'espace de noms UiPath
- ArgoCD passe à l'état Progression (Progressing) après la première installation
- Services défectueux après la restauration ou l'annulation du cluster
- Pods bloqués dans Init:0/X
- Métriques Ceph-rook manquantes dans les tableaux de bord de surveillance
- Les pods ne peuvent pas communiquer avec le nom de domaine complet dans un environnement proxy
- Échec de la configuration des alertes par e-mail après la mise à niveau
- Aucun problème sain en amont
- Échec de l'ajout de nœuds d'agent dans les environnements hors ligne
- L'accès au nom de domaine complet renvoie RBAC : erreur d'accès refusé
- Document Understanding n'est pas affiché sur la barre de gauche d'Automation Suite
- État Échec (Failed) lors de la création d'une session de labellisation des données
- État Échec (Failed) lors de la tentative de déploiement d'une compétence ML
- La tâche de migration échoue dans ArgoCD
- La reconnaissance de l'écriture manuscrite avec l'Extracteur de formulaires intelligents (Intelligent Form Extractor) ne fonctionne pas
- Échec du déploiement de la compétence ML en raison de l'expiration du jeton
- Exécution de la haute disponibilité avec Process Mining
- Échec de l’ingestion de Process Mining lors de la connexion à l’aide de Kerberos
- Après Disaster Recovery, Dapr ne fonctionne pas correctement pour Process Mining
- Configuration de Dapr avec Redis en mode cluster
- Impossible de se connecter à la base de données AutomationSuite_ProcessMining_Authentication à l'aide d'une chaîne de connexion au format pyodbc
- L'installation d'airflow échoue avec sqlalchemy.exc.ArgumentError: impossible d'analyser l'URL rfc1738 de la chaîne ''
- Comment ajouter une règle de table d'adresse IP pour utiliser le port SQL Server 1433
- Le certificat Automation Suite n'est pas approuvé depuis le serveur sur lequel CData Sync est en cours d'exécution
- Exécution de l'outil de diagnostic
- Utilisation du pack d'assistance Automation Suite
- Explorer les journaux
- Explorer la télémétrie résumée

Guide d'installation d'Automation Suite sur Linux
Étape 8 : configuration des disques
Avant d'effectuer une installation d'Automation Suite, vous devez partitionner et configurer le disque à l'aide de LVM, afin de pouvoir modifier sa taille facilement et sans aucune migration ou perte de données.
Partitionner les disques
La structure de partitionnement par défaut sur les machines RHEL n'est pas adaptée à l'installation de Kubernetes. En effet, l'infrastructure Kubernetes est généralement installée sous la partition /var, qui ne se voit allouer que 8 Go d'espace par défaut.
- Le format pris en charge pour les disques est
ext4ouxfs. - Vous devez créer toutes les partitions à l'aide de LVM pour vous assurer que les données du cluster peuvent résider sur un disque différent mais toujours être visualisées de manière cohérente. Cela permet également d'étendre la taille de la partition à l'avenir sans risque de migration ou de perte de données.
- Tous les pods et les journaux d'application sont stockés dans le répertoire
/var/log/pods. Assurez-vous que la capacité de ce répertoire est d'au moins 8 Go. Nous vous recommandons également de configurerlogrotatede façon à effectuer une rotation des journaux à un intervalle situé entre un jour et une semaine.
Les prérequis de disque sont les mêmes pour les installations en ligne et hors ligne, à l’exception de l’espace supplémentaire nécessaire pour décompresser le bundle UiPath® hors ligne.
Pour le système d'exploitation RHEL, assurez-vous que vous disposez des tailles de point de montage minimales suivantes sur la machine.
| Libellé du disque | Server | Agent (Agent) | Partition | Taille | Objectif |
|---|---|---|---|---|---|
| Disque de cluster | ✅ | ✅ |
| 190 Go | Stocke les images et les couches du conteneur. |
|
| 56 Go | Stocke les configurations Kubernetes de runtimes telles que les clés secrètes, les configmaps et emptyDir. | |||
|
| 10 GB | Stocke le fichier binaire du programme d'installation. | |||
| disque etcd | ✅ | ❌ |
| 16 Go | Stocke la base de données distribuée pour Kubernetes |
| Bloquer le stockage | ✅ | ❌ |
| 15 Go | Obligatoire pour Insights. |
|
| 50 Go | Obligatoire pour les outils de surveillance. | |||
/datadisk/registry 1 | 200 Go | Requis pour le registre Docker. | |||
/datadisk/objectstore 2 | 10 GB | Obligatoire pour ceph-mon. | |||
| Magasin d'objets 2 | ✅ | ❌ | S/O | 512 GB | Obligatoire pour le magasin d’objets intégré au cluster. |
| AI Center3 | ✅ | ✅ | S/O | 51 Go minimum et 105 Go recommandés pour 1 pipeline d'entraînement. | Obligatoire uniquement si vous installez AI Center. |
| Disque de bundle UiPath® | ✅ | ❌ | /uipath | 512 GB | Requis uniquement pour les installations hors ligne afin de stocker le bundle hors ligne |
1 Cela fait référence au registre Docker intégré au cluster et ne s'applique pas si vous utilisez un registre externe.
2 Cela fait référence au magasin d'objets intégré au cluster et ne s'applique pas si vous utilisez un magasin d'objets externe.
3 Cela fait référence au stockage requis par le pipeline d’entraînement AI Center. Le disque est requis uniquement sur les machines sur lesquelles vous prévoyez d’exécuter le pipeline d’entraînement AI Center et sur le nœud Task Mining dédié. Nous vous recommandons d’associer ce disque aux machines agent.
Nous vous recommandons de ne pas utiliser le disque du système d’exploitation pour les finalités détaillées ci-dessus afin de vous assurer que les processus obtiennent leur juste partage de ressources.
Utilisation du script pour configurer les disques
Téléchargement du script
Vous pouvez utiliser le script configureUiPathDisks.sh pour configurer et partitionner les disques.
Pour obtenir des instructions de téléchargement, consultez configureUiPathDisks.sh.
Exécution du script
Vous pouvez utiliser le script configureUiPathDisks.sh aux fins suivantes :
- configurer les disques et les points de montage pour une nouvelle installation de cluster Automation Suite ;
- redimensionner le disque de données après l'installation.
Pour rendre le script exécutable, exécutez la commande suivante :
chmod +x ./configureUiPathDisks.sh
chmod +x ./configureUiPathDisks.sh
Pour fournir les autorisations requises au script, exécutez la commande suivante :
chmod +x configureUiPathDisks.sh
chmod +x configureUiPathDisks.sh
Pour plus de détails sur l'utilisation du script, exécutez la commande suivante :
sudo ./configureUiPathDisks.sh --help
sudo ./configureUiPathDisks.sh --help
Configuration du disque de cluster sur toutes les machines
Pour configurer le disque de cluster, exécutez la commande suivante sur toutes les machines :
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk
Configuration du disque etcd sur toutes les machines serveur
Pour configurer le disque etcd, exécutez la commande suivante sur toutes les machines serveur :
./configureUiPathDisks.sh --etcd-disk-name name_of_etcd_disk
./configureUiPathDisks.sh --etcd-disk-name name_of_etcd_disk
La configuration du disque etcd ne doit être effectuée qu’après avoir terminé la configuration du disque de cluster.
L'ordre de configuration doit être conservé, car le disque etcd est monté à l'intérieur du disque de cluster.
Si cette étape est exécutée avant de configurer le disque de cluster, cela peut entraîner une perte de données après le redémarrage d'une machine, car le noyau monte automatiquement les disques en séquence, d'abord le disque de cluster, puis le disque etcd.
Configuration du disque de données sur toutes les machines serveur
Pour configurer le disque de données, vous devez identifier le disque spécifique à utiliser. Exécutez la commande lsblk pour répertorier tous les périphériques de bloc, leurs tailles et leurs points de montage. Utilisez la taille du disque pour identifier le disque concerné (pour l'indicateur --volume , le disque de données de 512 Go doit être utilisé).
Exécutez la commande suivante sur toutes les machines serveur et fournissez les indicateurs nécessaires en fonction de vos besoins :
./configureUiPathDisks.sh --volume name_of_data_disk
./configureUiPathDisks.sh --volume name_of_data_disk
| Drapeau | Valeur (Value) |
|---|---|
-v | --volume |
--docker-registry | Facultatif. Obligatoire uniquement si le registre externe n'est pas disponible. |
--monitoring | Facultatif. Si l’indicateur n’est pas transmis lors de la première exécution, il crée automatiquement la partition à des fins de surveillance (stockage Prometheus). Cependant, l’indicateur est requis lors de l’exécution suivante, lors du redimensionnement de la partition de surveillance avec l’indicateur --resize. |
--objectstore | Facultatif. Obligatoire uniquement si le magasin d'objets externe n'est pas disponible. |
--insights | Facultatif. Si l'indicateur n'est pas transmis lors de la première exécution, la partition pour Insights est automatiquement créée. Cependant, il est requis lors de l'exécution suivante, lors du redimensionnement de la partition Insights avec l'indicateur --resize. |
--resize <int> | Facultatif. Si la valeur entière est fournie, le composant sélectionné est redimensionné, à condition que suffisamment d'espace soit disponible. Sinon, tout le disque est utilisé pour développer la partition sélectionnée. Il est obligatoire d'indiquer précisément une partition qui doit être redimensionnée. |
--robot-package-cache | Chemin d'accès à l'emplacement sur le nœud Automation Suite Robots pour télécharger le package à mettre en cache. Cette opération doit être effectuée uniquement sur le nœud Automation Suite Robots. |
Vous pouvez également utiliser la commande pour redimensionner la partition sélectionnée à l'aide de l'indicateur --resize , comme illustré dans l'exemple suivant :
./configureUiPathDisks.sh --volume /dev/sde --docker-registry --resize 300
./configureUiPathDisks.sh --volume /dev/sde --docker-registry --resize 300
L'exemple montre comment joindre le disque /dev/sde au disque de données existant et comment redimensionner la partition de registre Docker sur 300 Go.
Configuration du disque du magasin d'objets sur toutes les machines serveur
Cette étape est obligatoire uniquement si le magasin d'objets externe n'est pas disponible.
Vous pouvez ajouter ou augmenter la taille de stockage du magasin d'objets intégré au cluster en exécutant le script suivant sur tous les nœuds de serveur :
./configureUiPathDisks.sh --ceph-raw-disk-name name_ceph_raw_disk
./configureUiPathDisks.sh --ceph-raw-disk-name name_ceph_raw_disk
- Un problème connu d’Azure marque à tort le disque Azure comme non-SSD. Si Azure est votre fournisseur cloud et que vous souhaitez configurer le disque magasin d'objets, suivez les instructions dans Résolution des problèmes.
- La mise à l'échelle verticale des disques existants n'est pas prise en charge. Pour augmenter la taille de votre stockage intégré au cluster après l'installation, ajoutez de nouveaux disques bruts.
Configuration du disque AI Center sur les machines sélectionnées
Pour configurer le disque AI Center, exécutez la commande suivante sur les machines sur lesquelles vous prévoyez d'exécuter les pipelines d'entraînement :
./configureUiPathDisks.sh --aicenter-disk-name name_of_aicenter_disk_to_partition
./configureUiPathDisks.sh --aicenter-disk-name name_of_aicenter_disk_to_partition
Pour augmenter le stockage d'AI Center :
- Si vous souhaitez ajouter un nouveau disque AI Center, exécutez la commande suivante sur la machine à laquelle vous prévoyez d’ajouter le disque :
./configureUiPathDisks.sh --aicenter-storage-extend name_of_new_aicenter_disk_to_attach./configureUiPathDisks.sh --aicenter-storage-extend name_of_new_aicenter_disk_to_attach - Si vous avez développé le disque AI Center existant, exécutez la commande suivante sur la machine où le disque AI Center sous-jacent est développé :
./configureUiPathDisks.sh --aicenter-storage-extend./configureUiPathDisks.sh --aicenter-storage-extend
Configuration du disque d'hébergement pour le cache du package Automation Suite Robot
Cette étape est requise pour les configurations à nœud unique sans agent Automation Suite Robot dédié.
Pour héberger le cache du package Automation Suite Robot sur le nœud du serveur, vous devez créer un disque d'au moins 10 Go :
./configureUiPathDisks.sh --volume name_of_data_disk --robot-package-cache
./configureUiPathDisks.sh --volume name_of_data_disk --robot-package-cache
Il est recommandé que le disque soit sauvegardé par LVM.
Configuration du disque de bundle sur le premier nœud de serveur pour le registre de cluster
Cette étape est requise dans les scénarios suivants :
- Lors de l'exécution d'une installation hors ligne (physiquement isolée) ;
- Lorsqu'un registre externe n'est pas disponible.
Pour configurer le disque de bundle, exécutez la commande suivante uniquement sur le premier nœud de serveur :
./configureUiPathDisks.sh --bundle-disk-name name_of_bundle_disk
./configureUiPathDisks.sh --bundle-disk-name name_of_bundle_disk
Validation des montages de disque
Assurez-vous d'ajouter tous les points de montage au fichier fstab et d'inclure l'option nofail dans ces entrées fstab afin qu'elle n'affecte pas le démarrage de la machine virtuelle en cas d'échec.
Pour vérifier que /etc/fstab est correctement configuré et peut gérer un redémarrage du système, effectuez les étapes suivantes et exécutez la commande suivante :
mount -afv
mount -afv
Vous devriez obtenir la sortie suivante :
# Servers
/datadisk/monitoring : already mounted
/datadisk/insights : already mounted
/var/lib/rancher/rke2/server/db : already mounted
# Servers or agents
/opt/UiPathAutomationSuite : already mounted
/var/lib/rancher : already mounted
/var/lib/kubelet : already mounted
# In case of an offline environment, only on the primary server node
/uipath : already mounted
# Additional mount point is require if customer is installing offline with internal registry
/datadisk/registry : already mounted
# Additional mount point is require if customer is using in-cluster objectstore
/datadisk/objectstore : already mounted
# Servers
/datadisk/monitoring : already mounted
/datadisk/insights : already mounted
/var/lib/rancher/rke2/server/db : already mounted
# Servers or agents
/opt/UiPathAutomationSuite : already mounted
/var/lib/rancher : already mounted
/var/lib/kubelet : already mounted
# In case of an offline environment, only on the primary server node
/uipath : already mounted
# Additional mount point is require if customer is installing offline with internal registry
/datadisk/registry : already mounted
# Additional mount point is require if customer is using in-cluster objectstore
/datadisk/objectstore : already mounted
- Partitionner les disques
- Utilisation du script pour configurer les disques
- Téléchargement du script
- Exécution du script
- Configuration du disque de cluster sur toutes les machines
- Configuration du disque etcd sur toutes les machines serveur
- Configuration du disque de données sur toutes les machines serveur
- Configuration du disque du magasin d'objets sur toutes les machines serveur
- Configuration du disque AI Center sur les machines sélectionnées
- Configuration du disque d'hébergement pour le cache des packages Automation Suite Robot
- Configuration du disque de bundle sur le premier nœud de serveur pour le registre de cluster
- Validation des montages de disque