- Vue d'ensemble (Overview)
- Prérequis
- Évaluation de vos besoins de stockage
- Estimation du coût de votre infrastructure cloud
- Planification des capacités
- Considérations relatives à AI Center
- Exigences relatives aux privilèges root
- Haute disponibilité – Trois zones de disponibilité
- Exigences en matière de certificat
- Configuration requise pour le réseau
- Installation
- Questions et réponses : modèles de déploiement
- Téléchargement des packages d’installation
- install-uipath.sh parameters
- Activation du module complémentaire Redis High Availability Add-on pour le cluster
- Fichier de configuration de Document Understanding
- Ajout d'un nœud d'agent dédié avec prise en charge GPU
- Connexion de l'application Task Mining
- Ajout d'un nœud d'agent dédié pour Task Mining
- Post-installation
- Administration du cluster
- Surveillance et alerte
- Migration et mise à niveau
- Mode d'évaluation à nœud unique en ligne
- Mode d'évaluation à nœud unique hors ligne
- Mode de production en ligne multi-nœuds compatible haute disponibilité
- Mode de production hors ligne multi-nœuds compatible haute disponibilité
- Migration d'un disque physique Longhorn vers LVM
- Rétrogradation de Ceph de la version 16.2.6 à la version 15.2.9
- Options de migration :
- B) Migration à locataire unique
- Configuration spécifique au produit
- Bonnes pratiques et maintenance
- Résolution des problèmes
- Comment résoudre les problèmes des services lors de l'installation
- Comment désinstaller le cluster
- Comment nettoyer les artefacts hors ligne pour améliorer l'espace disque
- Comment désactiver TLS 1.0 et 1.1
- Comment activer la journalisation Istio
- Comment nettoyer manuellement les journaux
- Comment nettoyer les anciens journaux stockés dans le compartiment sf-logs
- Comment déboguer les installations d'Automation Suite ayant échoué
- Comment désactiver le déchargement de la somme de contrôle txt
- Impossible d'exécuter une installation hors ligne sur le système d'exploitation RHEL 8.4
- Erreur lors du téléchargement du bundle
- L'installation hors ligne échoue en raison d'un fichier binaire manquant
- Problème de certificat dans l'installation hors ligne
- Erreur de validation de la chaîne de connexion SQL
- Échec après la mise à jour du certificat
- Automation Suite requiert que Backlog_wait_time soit défini sur 1
- Impossible de se connecter après la migration
- Définition d'un délai d'expiration pour les portails de gestion
- Mettre à jour les connexions du répertoire sous-jacent
- kinit : Impossible de trouver le KDC pour le domaine <AD Domain> lors de l'obtention des informations d'identification initiales
- Kinit : Keytab ne contient aucune clé appropriée pour *** lors de l'obtention des informations d'identification initiales
- L'opération GSSAPI a échoué en raison de l'erreur suivante : un code d'état non valide a été fourni (les informations d'identification du client ont été révoquées).
- La connexion a échoué pour l'utilisateur <ADDOMAIN><aduser>.Raison : Le compte est désactivé.
- Alarme reçue pour l'échec de la tâche Kerberos-tgt-update
- Fournisseur SSPI : serveur introuvable dans la base de données Kerberos
- Impossible d'obtenir l'image du bac à sable
- Les pods ne s'affichent pas dans l'interface utilisateur ArgoCD
- Échec de la sonde Redis
- Le serveur RKE2 ne démarre pas
- Secret introuvable dans l'espace de noms UiPath
- ArgoCD passe à l'état Progression (Progressing) après la première installation
- INCOHÉRENCE INATTENDUE ; EXÉCUTER fsck MANUELLEMENT
- L’opérateur d’auto-guérison et le référentiel Sf-k8-utils manquants
- MongoDB ou applications métier dégradées après la restauration du cluster
- Services défectueux après la restauration ou la restauration du cluster
- Document Understanding n'est pas affiché sur la barre de gauche d'Automation Suite
- État Échec (Failed) lors de la création d'une session de labellisation des données
- État Échec (Failed) lors de la tentative de déploiement d'une compétence ML
- La tâche de migration échoue dans ArgoCD
- La reconnaissance de l'écriture manuscrite avec l'Extracteur de formulaires intelligents (Intelligent Form Extractor) ne fonctionne pas
- Utilisation de l'outil de diagnostic d'Automation Suite
- Utilisation du pack d'assistance Automation Suite
- Explorer les journaux

Guide d'installation d'Automation Suite
Évaluation de vos besoins de stockage
Un cluster Automation Suite utilise les disques de données attachés à ses nœuds de serveur comme ressources de stockage disponibles pour tous les produits activés sur votre cluster. Chaque produit utilise ces ressources différemment.
Pour comprendre vos besoins de stockage et les planifier en conséquence, reportez-vous à la terminologie et aux instructions suivantes.
-
Taille dudisque du nœud de serveur (Server node disk size ) – La taille de tous les disques individuels connectés à chaque nœud de serveur.
- Tous les serveurs doivent avoir le même nombre de disques connectés.
- Les disques de chaque serveur peuvent avoir des tailles différentes tant que la somme de toutes les tailles de disques est identique sur tous les serveurs.
- Taille totale du disque du cluster (Total cluster disk size ) – Taille du disque du nœud de serveur multipliée par le nombre de nœuds de serveur.
-
Stockage disponible de l'application (Application available storage ) – La quantité de stockage disponible pour les applications à consommer.
- Le stockage disponible de l'application est inférieur à la taille totale du disque du cluster en raison de la façon dont la résilience aux pannes et la haute disponibilité sont implémentées dans le cluster Automation Suite.
Le tableau suivant décrit la configuration matérielle requise pour la haute disponibilité multi-nœuds pour les profils de base et complet dans le contexte des termes précédemment introduits.
Configuration matérielle prédéfinie |
Nombre de nœuds de serveur |
Taille du disque du nœud de serveur |
Taille totale du disque du cluster |
Stockage disponible de l'application (en ligne) |
Stockage disponible de l'application (hors ligne) |
---|---|---|---|---|---|
3 |
512 Gio |
1,5 Tio |
41 GiB |
37 GiB | |
3 |
2 To |
6 TiB |
291 GiB |
286 GiB |
Pour tirer parti du stockage disponible de 291 Gio, vous devez redimensionner la valeur PVC à 291 Gio au lieu de la valeur préconfigurée de 100 Gio. Sinon, vos applications ne pourront pas profiter de plus de 100 Gio.
Pour obtenir des instructions, consultez Redimensionner le PVC.
Lorsque vous activez et utilisez des produits sur le cluster, ils consomment de l'espace de stockage disponible dans l'application. Les produits ont généralement une faible empreinte d'activation ainsi qu'une empreinte dépendante de l'utilisation qui varie en fonction du cas d'utilisation, de l'échelle d'utilisation et du projet. La consommation de stockage est répartie uniformément sur toutes les ressources de stockage (disques de données), et vous pouvez surveiller les niveaux d'utilisation du stockage à l'aide de la pile de surveillance Automation Suite.
Le cluster Automation Suite utilise un concept Kubernetes interne appelé Volumes persistants (Persistent Volumes) en tant qu'abstraction interne qui représente les disques sur tous les nœuds du cluster.
Pour éviter les instabilités, il est recommandé de configurer la surveillance et les alertes pour vérifier en permanence si l'espace libre sur les volumes persistants est inférieur à la valeur de stockage disponible de l'application. Pour plus de détails, consultez Surveillance des volumes persistants (Monitoring Persistent Volumes).
Si une alerte se déclenche, vous pouvez l'atténuer en augmentant la capacité de stockage de votre cluster, comme décrit dans la section suivante.
Si vos besoins évalués ne répondent pas aux exigences matérielles recommandées, vous pouvez ajouter plus de capacité de stockage en utilisant l'une ou les deux méthodes suivantes :
- Ajoutez d'autres nœuds de serveur avec des disques. Pour obtenir des instructions, consultez Ajout d'un nouveau nœud au cluster.
-
Ajoutez d'autres disques aux nœuds existants. Pour obtenir des instructions, voir Extending the data disk in a single-node evaluation environment et Extending the data disk in a multi-node HA-ready production environment.
Important : pour chaque 60 Gio de stockage spécifique au produit nécessaires, votre cluster Automation Suite aura besoin de 1 Tio de stockage supplémentaire ajouté au stockage total disponible sur votre cluster, réparti également sur vos nœuds de serveur.
Vous pouvez estimer votre consommation de stockage à l'aide de la mesure spécifique au produit dans les tableaux suivants. Ces tableaux décrivent la quantité de contenu que vous pouvez placer sur votre cluster prêt à l'emploi. Pour référence, ils incluent l'empreinte de stockage d'un scénario d'utilisation typique de chaque produit.
Sélection de produits de base
Produit |
Métrique de stockage |
Stockage par métrique |
Cas d'utilisation typique |
---|---|---|---|
Orchestrator |
|
|
En règle générale, la taille d'un package est de 5 Mio et les compartiments, le cas échéant, ont une taille inférieure à 1 Mio. Une entreprise expérimentée a déployé 5 Gio de packages et 6 Gio de compartiments. |
Action Center |
|
|
En règle générale, un document prend 0,15 Mo, et les formulaires à remplir prennent 0,15 Kio supplémentaire. Dans une entreprise expérimentée, cela peut atteindre jusqu'à 4 Go au total. |
Test Manager |
|
|
En règle générale, tous les fichiers et pièces jointes font un maximum d'environ 5 Gio. |
Insights |
|
|
2 Gio sont nécessaires à l'activation, l'empreinte du stockage augmentant avec le nombre. Un déploiement à l'échelle de l'entreprise bien établi nécessite encore quelques Gio pour tous les tableaux de bord. |
Automation Hub |
S/O |
S/O |
Empreinte fixe de 2 Gio |
Automation Ops |
S/O |
S/O |
Aucune empreinte de stockage |
Sélection complète de produits
Produit |
Métrique de stockage |
Stockage par métrique |
Cas d'utilisation typique |
---|---|---|---|
Apps |
|
|
En règle générale, la base de données consomme environ 5 Gio et une application complexe standard consomme environ 15 Mio. |
AI Center |
|
|
Une installation typique et établie consommera 8 Gio pour 5 packages et 1 Gio supplémentaire pour les ensembles de données. Un pipeline peut consommer 50 Gio supplémentaires, mais uniquement lorsqu'il est en cours d'exécution active. |
Document Understanding |
|
|
Dans un déploiement normal, 12 Gio iront au modèle ML, 17 Gio à l'OCR et 50 Gio à tous les documents stockés. |
Task Mining |
|
|
En règle générale, environ 200 Gio de données de journal d'activités doivent être analysés pour suggérer des automatisations significatives. Les tâches très répétitives peuvent cependant nécessiter beaucoup moins de données. |