- Vue d'ensemble (Overview)
- Glossaire
- Produits Automation Suite
- Dépendances entre produits
- Cas d'utilisation pris en charge pour les installations à nœud unique et multi-nœuds
- Liens rapides
- Vue d'ensemble (Overview)
- Considérations relatives à l'architecture de base
- Q&R : Disaster Recovery - Actif/Passif
- Comparaison des fonctionnalités de déploiement croisé
- Sécurité et conformité
- Présentation des certificats
- Prérequis
- Installation
- Questions et réponses : modèles de déploiement
- Configuration des machines
- Configuration du magasin d'objets externe
- Configuration d'un registre Docker externe
- Configurer l'équilibreur de charge
- Configuration du DNS
- Configuration de Microsoft SQL Server
- Configuration des certificats
- Installation de production en ligne multi-nœuds compatible haute disponibilité
- Installation de production hors ligne multi-nœuds compatible haute disponibilité
- Disaster Recovery - Installation du cluster secondaire
- Téléchargement des packages d'installation
- install-uipath.sh parameters
- Activation du module complémentaire Redis High Availability Add-on pour le cluster
- Fichier de configuration de Document Understanding
- Ajout d'un nœud d'agent dédié avec prise en charge GPU
- Ajout d'un nœud d'agent dédié pour Task Mining
- Connexion de l'application Task Mining
- Ajout d'un nœud d'agent dédié pour les Automation Suite Robots
- Post-installation
- Administration du cluster
- Gestion des produits
- Premiers pas avec le portail d'administration du cluster
- Migration d'un magasin d'objets d'un volume persistant vers des disques bruts
- Migration des données entre les librairies
- Migration d'un magasin d'objets intégré au cluster vers un magasin d'objets externe
- Basculer vers le cluster secondaire
- Disaster Recovery : exécution d'opérations post-installation
- Conversion d'une installation existante en configuration multi-sites
- Directives sur la mise à niveau d'un déploiement actif/passif
- Directives pour la sauvegarde et la restauration d'un déploiement actif/passif
- Surveillance et alerte
- Migration et mise à niveau
- Chemins de mise à niveau Automation Suite
- Automatisée : mise à niveau en ligne
- Automatisée : mise à niveau hors ligne
- Manuel : mise à niveau en ligne
- Manuel : mise à niveau hors ligne
- Annulation en cas d'erreur
- Migration d'un disque physique Longhorn vers LVM
- Migration de Canal vers Cilium CNI
- Rétrogradation de Ceph de la version 16.2.6 à la version 15.2.9
- Options de migration :
- Étape 1 : Déplacement des données d'organisation Identity d'installation autonome vers Automation Suite
- Étape 2 : Restauration de la base de données du produit autonome
- Étape 3 : Sauvegarder la base de données de la plate-forme dans Automation Suite
- Étape 4 : Fusion des organisations dans Automation Suite
- Étape 5 : Mise à jour des chaînes de connexion du produit migré
- Étape 6 : migration de la version autonome d’Insights
- Étape 7 : suppression du locataire par défaut
- B) Migration à locataire unique
- Configuration spécifique au produit
- Rotation des informations d’identification de stockage d’objets blob
- Désactivation de l'utilisation d'URL pré-signées lors du téléchargement de données vers le stockage Amazon S3
- Configuration de la sécurité de l'application de processus
- Configurer une authentification Kerberos avec l’authentification MSSQL de base pour Process Mining
- Bonnes pratiques et maintenance
- Résolution des problèmes
- Comment résoudre les problèmes des services lors de l'installation
- Comment désinstaller le cluster
- Comment nettoyer les artefacts hors ligne pour améliorer l'espace disque
- Comment effacer les données Redis
- Comment activer la journalisation Istio
- Comment nettoyer manuellement les journaux
- Comment nettoyer les anciens journaux stockés dans le bundle sf-logs
- Comment désactiver les journaux de diffusion pour AI Center
- Comment déboguer les installations d'Automation Suite ayant échoué
- Comment supprimer des images de l’ancien programme d’installation après la mise à niveau
- Comment nettoyer automatiquement les instantanés Longhorn
- Comment désactiver le déchargement de la somme de contrôle txt
- Comment définir manuellement le niveau de journalisation d’ArgoCD sur Info
- Comment générer la valeur pull_secret_value encodée pour les registres externes
- Comment résoudre les chiffrements faibles dans TLS 1.2
- Impossible d'exécuter une installation hors ligne sur le système d'exploitation RHEL 8.4
- Erreur lors du téléchargement du bundle
- L'installation hors ligne échoue en raison d'un fichier binaire manquant
- Problème de certificat dans l'installation hors ligne
- La première installation échoue lors de la configuration de Longhorn
- Erreur de validation de la chaîne de connexion SQL
- Échec de la vérification des prérequis pour le module selinux iscsid
- Disque Azure non marqué comme SSD
- Échec après la mise à jour du certificat
- L'antivirus provoque des problèmes d'installation
- Automation Suite ne fonctionne pas après la mise à niveau du système d'exploitation
- Automation Suite requiert que backlog_wait_time soit défini sur 0
- Nœud GPU affecté par l'indisponibilité des ressources
- Volume impossible à monter car il n'est pas prêt pour les charges de travail
- Échec de la mise à niveau du nœud unique à l’étape Fabric
- Cluster défectueux après la mise à niveau automatisée à partir de la version 2021.10
- Échec de la mise à niveau en raison d’un Ceph défectueux
- RKE2 ne démarre pas en raison d'un problème d'espace
- Échec de la validation SQL lors de la mise à niveau
- Échec du chargement ou du téléchargement des données dans l'objectstore
- Le redimensionnement de la PVC ne répare pas Ceph
- Échec du redimensionnement du PVC
- Échec du redimensionnement du PVC objectstore
- Rook Ceph ou pod Looker bloqué dans l'état Init
- Erreur de pièce jointe du volume Ensembles d'états.
- Échec de la création de volumes persistants
- Correctif de récupération du stockage
- La sauvegarde a échoué en raison de l’erreur TropInstantanés (TooManySnapshots)
- Toutes les répliques Longhorn sont défaillantes
- Définition d'un délai d'expiration pour les portails de gestion
- Mettre à jour les connexions du répertoire sous-jacent
- L'authentification ne fonctionne pas après la migration
- kinit : Impossible de trouver le KDC pour le domaine <AD Domain> lors de l'obtention des informations d'identification initiales
- Kinit : Keytab ne contient aucune clé appropriée pour *** lors de l'obtention des informations d'identification initiales
- L'opération GSSAPI a échoué en raison d'un code de statut non valide
- Alarme reçue pour l'échec de la tâche Kerberos-tgt-update
- Fournisseur SSPI : serveur introuvable dans la base de données Kerberos
- La connexion a échoué pour l'utilisateur AD en raison d'un compte désactivé
- Échec de connexion à ArgoCD
- Impossible d'obtenir l'image du bac à sable
- Les pods ne s'affichent pas dans l'interface utilisateur ArgoCD
- Échec de la sonde Redis
- Le serveur RKE2 ne démarre pas
- Secret introuvable dans l'espace de noms UiPath
- ArgoCD passe à l'état Progression (Progressing) après la première installation
- Problèmes d'accès au compte ArgoCD en lecture seule
- Pods MongoDB en mode CrashLoopBackOff ou enregistrement PVC en attente après suppression
- Services défectueux après la restauration ou l'annulation du cluster
- Pods bloqués dans Init:0/X
- Prometheus en état CrashloopBackoff avec erreur de mémoire insuffisante (OOM)
- Métriques Ceph-rook manquantes dans les tableaux de bord de surveillance
- Document Understanding n'est pas affiché sur la barre de gauche d'Automation Suite
- État Échec (Failed) lors de la création d'une session de labellisation des données
- État Échec (Failed) lors de la tentative de déploiement d'une compétence ML
- La tâche de migration échoue dans ArgoCD
- La reconnaissance de l'écriture manuscrite avec l'Extracteur de formulaires intelligents (Intelligent Form Extractor) ne fonctionne pas
- Exécution de la haute disponibilité avec Process Mining
- Échec de l’ingestion de Process Mining lors de la connexion à l’aide de Kerberos
- Impossible de se connecter à la base de données AutomationSuite_ProcessMining_Authentication à l'aide d'une chaîne de connexion au format pyodbc
- L'installation d'airflow échoue avec sqlalchemy.exc.ArgumentError: impossible d'analyser l'URL rfc1738 de la chaîne ''
- Comment ajouter une règle de table d'adresse IP pour utiliser le port SQL Server 1433
- Utilisation de l'outil de diagnostic d'Automation Suite
- Utilisation de l'outil Automation Suite Support Bundle
- Explorer les journaux
Considérations relatives à l'architecture de base
Comme pour tout déploiement multi-sites, les principales considérations d'architecture pour Automation Suite concernent l'infrastructure, la latence, la source de données, la gestion, l'objectif de temps de récupération, l'objectif de point de récupération, etc.
Nous vous recommandons d’utiliser le même matériel pour les deux clusters. Cependant, le cluster Automation Suite fonctionnera probablement avec des configurations matérielles similaires avec peu de différences. Un matériel hétérogène peut augmenter la complexité et ralentir le dépannage.
Les deux clusters Automation Suite sont indépendants et ne partagent aucune configuration. Par conséquent, toute activité de gestion ou de maintenance doit être effectuée individuellement sur ces clusters. Par exemple, vous devez mettre à jour les chaînes de connexion SQL sur les deux clusters, configurer les certificats séparément, etc. De plus, vous devez surveiller les deux clusters indépendamment, les mettre à niveau individuellement, etc.
Le magasin d’objets, combiné à la base de données SQL, forme l’état d’un produit installé sur Automation Suite.
La configuration de serveur SQL joue un rôle essentiel dans un déploiement multi-sites. Bien que SQL Server soit un composant externe à Automation Suite, quelques étapes supplémentaires sont nécessaires pour garantir une véritable haute disponibilité lors de l'utilisation d'Automation Suite.
MultiSubnetFailover=True
dans la chaîne de connexion lorsque le serveur SQL/les bases de données sont répartis sur plusieurs sous-réseaux.
Pour plus de détails, consultez Groupes de disponibilité Always On et Prérequis, restrictions et recommandations pour Groupes de disponibilité Always On.
Le magasin d'objets externe est à l'abri d'une éventuelle corruption due à la défaillance d'un nœud. La réplication des données et la reprise après sinistre peuvent être effectuées indépendamment d'Automation Suite. Comme SQL Server, le magasin d'objets externe doit être configuré dans une configuration de Disaster Recovery haute disponibilité. L'instance Objectstore principale est physiquement située dans le centre de données principal, et au moins une instance secondaire est située dans le centre de données secondaire avec la synchronisation des données activée. Vous pouvez configurer un équilibreur de charge sur le magasin d'objets pour vous assurer que les deux clusters Automation Suite font référence aux mêmes points de terminaison. Cela rend le déploiement indépendant de la configuration interne du magasin d'objets.
Pour AWS S3, le point d'accès multi-région ne prend pas en charge toutes les API s3 requises par tous les produits s'exécutant dans Automation Suite. Pour plus de détails sur la liste des API de prise en charge, consultez Utilisation de points d'accès multi-régions avec des opérations d'API prises en charge.
Vous pouvez créer deux compartiments par produit/suite dans les deux régions et activer la synchronisation. Le cluster Automation Suite exécuté dans la même région fera référence aux compartiments de la même région.
La politique de votre organisation concernant les RTO est essentielle à la conception de votre cluster Automation Suite multi-sites. Pour atteindre le RTO souhaité, tenez compte des aspects suivants :
- Conception du gestionnaire de trafic ;
- Disponibilité des nœuds dans le cluster secondaire/passif ;
- Disponibilité de la charge de travail dynamique sur le cluster secondaire ; par exemple, CompétenceML ;
- Gestion de la configuration.
Vous pouvez réduire le temps de récupération en configurant Traffic Manager pour toujours acheminer le trafic vers le cluster principal lorsqu'il est disponible. La redirection vers le cluster secondaire doit être effectuée uniquement lorsque le cluster principal est en panne. Cela garantit que le basculement du trafic est automatique et réduit le temps nécessaire à un basculement manuel. Vous pouvez utiliser les points de terminaison de santé des deux clusters pour y parvenir.
Si tous les nœuds du cluster secondaire sont en cours d'exécution, vous pouvez gagner du temps en allumant les nœuds et en attendant que le cluster soit actif. Cependant, cela peut multiplier par deux le coût de votre infrastructure.
Quelques produits, tels qu'AI Center, déploient les compétences ML de manière dynamique au moment du runtime. Le déploiement des compétences dans un autre cluster est toujours asynchrone. Cela ne peut pas garantir leur disponibilité. Pour vous assurer que votre solution d'automatisation revient en ligne dans le délai souhaité, vous pouvez périodiquement synchroniser les compétences dans un autre cluster.
Comme les déploiements multi-sites d'Automation Suite consistent en deux clusters distincts, toute opération effectuée sur un cluster doit être exécutée sur l'autre cluster à temps pour réduire la dérive. Cela permet de s'assurer que les deux clusters possèdent des configurations similaires et qu'aucun effort supplémentaire n'est nécessaire pendant la phase de récupération.
La politique de votre organisation concernant l'objectif du point de récupération (RPO) est essentielle à la conception de votre cluster Automation Suite multi-sites. Pour atteindre le RPO souhaité, vous devez prendre en compte les aspects suivants :
- Synchronisation des données ;
- Sauvegarde planifiée.
Lorsqu'elles sont écrites dans la source de données principale, les données doivent également être synchronisées avec le cluster secondaire. Cependant, il existe un risque de perte de données lorsque le centre de données est en panne et que les données ne sont pas synchronisées. Des configurations réseau exemplaires, telles qu'une bande passante élevée et une faible latence entre les deux centres de données, peuvent accélérer la synchronisation.
La reprise après sinistre n'offre pas toujours une immunité totale contre la perte de données. Cependant, vous pouvez déployer une stratégie de sauvegarde régulière et périodique pour minimiser l'impact du sinistre sur la récupération des données. Pour plus de détails, voir Sauvegarder et restaurer le cluster.