- Vue d'ensemble (Overview)
- Prérequis
- Installation
- Questions et réponses : modèles de déploiement
- Configuration des machines
- Configurer l'équilibreur de charge
- Configuration du DNS
- Configuration de Microsoft SQL Server
- Configuration des certificats
- Installation de production en ligne multi-nœuds compatible haute disponibilité
- Installation de production hors ligne multi-nœuds compatible haute disponibilité
- Téléchargement des packages d'installation
- install-uipath.sh parameters
- Activation du module complémentaire Redis High Availability Add-on pour le cluster
- Fichier de configuration de Document Understanding
- Ajout d'un nœud d'agent dédié avec prise en charge GPU
- Connexion de l'application Task Mining
- Ajout d'un nœud d'agent dédié pour Task Mining
- Post-installation
- Administration du cluster
- Gestion des produits
- Gérer le cluster dans ArgoCD
- Configuration du serveur NFS externe
- Automatisé : activation de la sauvegarde sur le cluster
- Automatisé : Désactivation de la sauvegarde sur le cluster
- Automatisé, en ligne : restauration du cluster
- Manuel, hors ligne : Restauration du cluster
- Manuel : Activation de la sauvegarde sur le cluster
- Manuel : Activation de la sauvegarde sur le cluster
- Manuel en ligne : Restauration du cluster
- Manuel, hors ligne : Restauration du cluster
- Configuration supplémentaire
- Migration d'un magasin d'objets d'un volume persistant vers des disques bruts
- Surveillance et alerte
- Migration et mise à niveau
- Automatisée : mise à niveau en ligne
- Automatisée : mise à niveau hors ligne
- Manuel : mise à niveau en ligne
- Manuel : mise à niveau hors ligne
- Annulation en cas d'erreur
- Migration d'un disque physique Longhorn vers LVM
- Migration de Canal vers Cilium CNI
- Rétrogradation de Ceph de la version 16.2.6 à la version 15.2.9
- Options de migration :
- Étape 1 : Déplacement des données d'organisation Identity d'installation autonome vers Automation Suite
- Étape 2 : Restauration de la base de données du produit autonome
- Étape 3 : Sauvegarder la base de données de la plate-forme dans Automation Suite
- Étape 4 : Fusion des organisations dans Automation Suite
- Étape 5 : Mise à jour des chaînes de connexion du produit migré
- Étape 6 : migration de la version autonome d’Insights
- Étape 7 : suppression du locataire par défaut
- B) Migration à locataire unique
- Configuration spécifique au produit
- Bonnes pratiques et maintenance
- Résolution des problèmes
- Comment résoudre les problèmes des services lors de l'installation
- Comment désinstaller le cluster
- Comment nettoyer les artefacts hors ligne pour améliorer l'espace disque
- Comment effacer les données Redis
- Comment activer la journalisation Istio
- Comment nettoyer manuellement les journaux
- Comment nettoyer les anciens journaux stockés dans le compartiment sf-logs
- Comment désactiver les journaux de diffusion pour AI Center
- Comment déboguer les installations d'Automation Suite ayant échoué
- Comment supprimer des images de l’ancien programme d’installation après la mise à niveau
- Comment nettoyer automatiquement les instantanés Longhorn
- Comment désactiver le déchargement de la somme de contrôle txt
- Comment résoudre les chiffrements faibles dans TLS 1.2
- Impossible d'exécuter une installation hors ligne sur le système d'exploitation RHEL 8.4
- Erreur lors du téléchargement du bundle
- L'installation hors ligne échoue en raison d'un fichier binaire manquant
- Problème de certificat dans l'installation hors ligne
- La première installation échoue lors de la configuration de Longhorn
- Erreur de validation de la chaîne de connexion SQL
- Échec de la vérification des prérequis pour le module selinux iscsid
- Disque Azure non marqué comme SSD
- Échec après la mise à jour du certificat
- Automation Suite ne fonctionne pas après la mise à niveau du système d'exploitation
- Automation Suite requiert que Backlog_wait_time soit défini sur 1
- Volume impossible à monter car il n'est pas prêt pour les charges de travail
- RKE2 échoue lors de l'installation et de la mise à niveau
- Échec du chargement ou du téléchargement des données dans l'objectstore
- Le redimensionnement de la PVC ne répare pas Ceph
- Échec du redimensionnement du PVC objectstore
- Rook Ceph ou pod Looker bloqué dans l'état Init
- Erreur de pièce jointe du volume Ensembles d'états.
- Échec de la création de volumes persistants
- Correctif de récupération du stockage
- La sauvegarde a échoué en raison de l’erreur TropInstantanés (TooManySnapshots)
- Toutes les répliques Longhorn sont défaillantes
- Définition d'un délai d'expiration pour les portails de gestion
- Mettre à jour les connexions du répertoire sous-jacent
- Impossible de se connecter après la migration
- kinit : Impossible de trouver le KDC pour le domaine <AD Domain> lors de l'obtention des informations d'identification initiales
- Kinit : Keytab ne contient aucune clé appropriée pour *** lors de l'obtention des informations d'identification initiales
- L'opération GSSAPI a échoué en raison de l'erreur suivante : un code d'état non valide a été fourni (les informations d'identification du client ont été révoquées).
- Alarme reçue pour l'échec de la tâche Kerberos-tgt-update
- Fournisseur SSPI : serveur introuvable dans la base de données Kerberos
- La connexion a échoué pour l'utilisateur <ADDOMAIN><aduser>.Raison : Le compte est désactivé.
- Échec de connexion à ArgoCD
- Impossible d'obtenir l'image du bac à sable
- Les pods ne s'affichent pas dans l'interface utilisateur ArgoCD
- Échec de la sonde Redis
- Le serveur RKE2 ne démarre pas
- Secret introuvable dans l'espace de noms UiPath
- Après l'installation initiale, l'application ArgoCD est passée à l'état Progression (Progressing)
- Pods MongoDB en mode CrashLoopBackOff ou enregistrement PVC en attente après suppression
- INCOHÉRENCE INATTENDUE ; EXÉCUTER fsck MANUELLEMENT
- MongoDB ou applications métier dégradées après la restauration du cluster
- L’opérateur d’auto-guérison et le référentiel Sf-k8-utils manquants
- Services défectueux après la restauration ou la restauration du cluster
- Le pod RabbitMQ est bloqué dans CrashLoopBackOff
- Prometheus en état CrashloopBackoff avec erreur de mémoire insuffisante (OOM)
- Métriques Ceph-rook manquantes dans les tableaux de bord de surveillance
- Les pods ne peuvent pas communiquer avec le nom de domaine complet dans un environnement proxy
- Document Understanding n'est pas affiché sur la barre de gauche d'Automation Suite
- État Échec (Failed) lors de la création d'une session de labellisation des données
- État Échec (Failed) lors de la tentative de déploiement d'une compétence ML
- La tâche de migration échoue dans ArgoCD
- La reconnaissance de l'écriture manuscrite avec l'Extracteur de formulaires intelligents (Intelligent Form Extractor) ne fonctionne pas
- Utilisation de l'outil de diagnostic d'Automation Suite
- Utilisation du pack d'assistance Automation Suite
- Explorer les journaux

Guide d'installation d'Automation Suite
Manuel, hors ligne : Restauration du cluster
- Assurez-vous d'avoir suivi les prérequis.
- Assurez-vous que la sauvegarde est désactivée sur le cluster de sauvegarde. Des incohérences se produiront si une nouvelle sauvegarde est créée lors de la restauration du cluster. Pour plus de détails, consultez Automatisé : Désactivation de la sauvegarde sur le cluster.
- Assurez-vous que les packages wget, unzip, jq sont disponibles sur tous les nœuds de restauration.
- Toutes les sources de données externes doivent être identiques (SQL Server).
- Vous devez redémarrer le serveur NFS avant la restauration du cluster. Pour ce faire, exécutez la commande suivante sur le nœud du serveur NFS :
systemctl restart nfs-server
. - Le cluster de restauration doit avoir le même nom de domaine complet que le cluster de sauvegarde.
- Assurez-vous d'avoir préparé votre environnement pour l'utilisation de la commande
uipathctl.sh
. Pour plus de détails, consultez Utilisation de uipathctl.sh. -
Au moment de la restauration du cluster, vous devez fournir le fichier
inventory.ini
contenant l'adresse IP du nœud hôte Ansible et des informations sur la façon de connecter SSH à tous les nœuds. Le scriptuipathctl.sh
ne peut pas générer ce fichier automatiquement car le cluster n'est pas présent au moment du processus de restauration.Type d'installation
Instructions de configuration
Prérequis
Mode d'évaluation à nœud unique hors ligne
Téléchargez les fichiers suivants :
sf-installer.zip
- Obligatoire. Voir sf-installer.zip pour les instructions de téléchargement.sf-infra.tar.gz
- Obligatoire. Voir sf-infra.tar.gz pour les instructions de téléchargement.
Mode de production hors ligne multi-nœuds compatible haute disponibilité
Téléchargez les fichiers ci-dessous
sf-installer.zip
- Obligatoire. Voir sf-installer.zip pour les instructions de téléchargement.sf-infra.tar.gz
- Obligatoire. Voir sf-infra.tar.gz pour les instructions de téléchargement.
Server 1
, qui est le nœud hôte Ansible, utilise Ansible pour orchestrer la restauration de tous les nœuds du cluster.
uipathctl.sh
:
inventory.ini
: ce fichier contient des informations sur tous les nœuds du cluster et des détails SSH. Le scriptuipathctl.sh
ne génère pas le fichierinventory.ini
automatiquement car le cluster n'est pas présent au moment de la restauration du cluster.restore.json
: ce fichier contient la configuration de restauration. Pour plus de détails, consultez la section Préparation de la configuration de restauration.
Pour restaurer le cluster, exécutez la commande suivante avec les paramètres de base. Assurez-vous d'utiliser les valeurs de paramètre qui vous concernent.
./uipathctl.sh restore --install-type online --restore-config ./restore.json --inventory ./inventory.ini --offline-infra-bundle ../sf-infra.tar.gz
./uipathctl.sh restore --install-type online --restore-config ./restore.json --inventory ./inventory.ini --offline-infra-bundle ../sf-infra.tar.gz
Paramètre |
Description |
---|---|
|
Valeurs possibles :
online et offline .
Étant donné que cette page fournit des instructions de restauration pour en ligne, choisissez la valeur
offline .
|
|
Le fichier contient la configuration de restauration. Pour plus de détails, voir Préparation de la configuration de restauration. |
|
Le fichier contient des informations sur tous les nœuds du cluster et des détails SSH. Pour plus de détails, voir Génération du fichier Inventory.ini Ansible. |
Paramètre |
Description |
---|---|
|
Spécifiez le nom d'utilisateur que vous utiliserez pour les connexions SSH à tous les nœuds. La valeur par défaut est l'utilisateur actuel. Si vous utilisez un nom d'utilisateur différent pour tous les nœuds, au lieu d'utiliser ce paramètre, définissez le nom d'utilisateur pour tous les nœuds dans
inventory.ini et transmettez-le au script.
Exemple : lors de l'exécution du script, vous êtes connecté en tant que nom d'utilisateur
myadminuser . Cependant, si vous souhaitez utiliser le nom d'utilisateur testadmin pour vous connecter via SSH, vous devez fournir testadmin à une valeur pour ce paramètre.
|
cluster_config.json
pour référence future. Vous aurez peut-être besoin du fichier lors de l'ajout de nouveaux nœuds au cluster, lors de la mise à niveau, etc.
cluster_config.json
, exécutez la commande suivante à partir de l'un des nœuds du serveur :
./configureUiPathAS.sh config get -o ./cluster_config.json
./configureUiPathAS.sh config get -o ./cluster_config.json
La sauvegarde n'est pas activée sur le cluster restauré. Si vous souhaitez l'activer, reportez-vous à Activation de la sauvegarde sur le cluster.
La restauration du cluster n'est pas une opération idempotente. En cas d'échec de la restauration, suivez l'une des étapes suivantes avant de relancer l'opération :
- Désinstallez Automation Suite sur tous les nœuds. Pour obtenir des instructions, consultez Résolution des problèmes ( Troubleshooting).
- Suivez les étapes de restauration manuelle. Pour obtenir des instructions, consultez Manuel, en ligne : Restauration du cluster.
Après avoir restauré le cluster, assurez-vous d'ajouter vos certificats CA au magasin approuvé des machines virtuelles restaurées. Pour en savoir plus, consultez :