- Vue d'ensemble (Overview)
- Prérequis
- Installation
- Questions et réponses : modèles de déploiement
- Configuration des machines
- Configuration du magasin d'objets externe
- Configuration d'un registre Docker externe
- Configurer l'équilibreur de charge
- Configuration du DNS
- Configuration de Microsoft SQL Server
- Configuration des certificats
- Installation de production en ligne multi-nœuds compatible haute disponibilité
- Installation de production hors ligne multi-nœuds compatible haute disponibilité
- Disaster Recovery - Installation du cluster secondaire
- Téléchargement des packages d'installation
- install-uipath.sh parameters
- Activation du module complémentaire Redis High Availability Add-on pour le cluster
- Fichier de configuration de Document Understanding
- Ajout d'un nœud d'agent dédié avec prise en charge GPU
- Ajout d'un nœud d'agent dédié pour Task Mining
- Connexion de l'application Task Mining
- Ajout d'un nœud d'agent dédié pour les Automation Suite Robots
- Post-installation
- Administration du cluster
- Gestion des produits
- Premiers pas avec le portail d'administration du cluster
- Migration d'un magasin d'objets d'un volume persistant vers des disques bruts
- Migration des données entre les librairies
- Migration d'un magasin d'objets intégré au cluster vers un magasin d'objets externe
- Basculer vers le cluster secondaire
- Disaster Recovery : exécution d'opérations post-installation
- Conversion d'une installation existante en configuration multi-sites
- Directives sur la mise à niveau d'un déploiement actif/passif
- Directives pour la sauvegarde et la restauration d'un déploiement actif/passif
- Surveillance et alerte
- Migration et mise à niveau
- Chemins de mise à niveau Automation Suite
- Automatisée : mise à niveau en ligne
- Automatisée : mise à niveau hors ligne
- Manuel : mise à niveau en ligne
- Manuel : mise à niveau hors ligne
- Annulation en cas d'erreur
- Migration d'un disque physique Longhorn vers LVM
- Migration de Canal vers Cilium CNI
- Rétrogradation de Ceph de la version 16.2.6 à la version 15.2.9
- Options de migration :
- Étape 1 : Déplacement des données d'organisation Identity d'installation autonome vers Automation Suite
- Étape 2 : Restauration de la base de données du produit autonome
- Étape 3 : Sauvegarder la base de données de la plate-forme dans Automation Suite
- Étape 4 : Fusion des organisations dans Automation Suite
- Étape 5 : Mise à jour des chaînes de connexion du produit migré
- Étape 6 : migration de la version autonome d’Insights
- Étape 7 : suppression du locataire par défaut
- B) Migration à locataire unique
- Configuration spécifique au produit
- Rotation des informations d’identification de stockage d’objets blob
- Désactivation de l'utilisation d'URL pré-signées lors du téléchargement de données vers le stockage Amazon S3
- Configuration de la sécurité de l'application de processus
- Configurer une authentification Kerberos avec l’authentification MSSQL de base pour Process Mining
- Bonnes pratiques et maintenance
- Résolution des problèmes
- Comment résoudre les problèmes des services lors de l'installation
- Comment désinstaller le cluster
- Comment nettoyer les artefacts hors ligne pour améliorer l'espace disque
- Comment effacer les données Redis
- Comment activer la journalisation Istio
- Comment nettoyer manuellement les journaux
- Comment nettoyer les anciens journaux stockés dans le bundle sf-logs
- Comment désactiver les journaux de diffusion pour AI Center
- Comment déboguer les installations d'Automation Suite ayant échoué
- Comment supprimer des images de l’ancien programme d’installation après la mise à niveau
- Comment nettoyer automatiquement les instantanés Longhorn
- Comment désactiver le déchargement de la somme de contrôle txt
- Comment définir manuellement le niveau de journalisation d’ArgoCD sur Info
- Comment générer la valeur pull_secret_value encodée pour les registres externes
- Comment résoudre les chiffrements faibles dans TLS 1.2
- Impossible d'exécuter une installation hors ligne sur le système d'exploitation RHEL 8.4
- Erreur lors du téléchargement du bundle
- L'installation hors ligne échoue en raison d'un fichier binaire manquant
- Problème de certificat dans l'installation hors ligne
- La première installation échoue lors de la configuration de Longhorn
- Erreur de validation de la chaîne de connexion SQL
- Échec de la vérification des prérequis pour le module selinux iscsid
- Disque Azure non marqué comme SSD
- Échec après la mise à jour du certificat
- L'antivirus provoque des problèmes d'installation
- Automation Suite ne fonctionne pas après la mise à niveau du système d'exploitation
- Automation Suite requiert que backlog_wait_time soit défini sur 0
- Nœud GPU affecté par l'indisponibilité des ressources
- Volume impossible à monter car il n'est pas prêt pour les charges de travail
- Échec de la mise à niveau du nœud unique à l’étape Fabric
- Cluster défectueux après la mise à niveau automatisée à partir de la version 2021.10
- Échec de la mise à niveau en raison d’un Ceph défectueux
- RKE2 ne démarre pas en raison d'un problème d'espace
- Échec de la validation SQL lors de la mise à niveau
- Échec du chargement ou du téléchargement des données dans l'objectstore
- Le redimensionnement de la PVC ne répare pas Ceph
- Échec du redimensionnement du PVC
- Échec du redimensionnement du PVC objectstore
- Rook Ceph ou pod Looker bloqué dans l'état Init
- Erreur de pièce jointe du volume Ensembles d'états.
- Échec de la création de volumes persistants
- Correctif de récupération du stockage
- La sauvegarde a échoué en raison de l’erreur TropInstantanés (TooManySnapshots)
- Toutes les répliques Longhorn sont défaillantes
- Définition d'un délai d'expiration pour les portails de gestion
- Mettre à jour les connexions du répertoire sous-jacent
- L'authentification ne fonctionne pas après la migration
- kinit : Impossible de trouver le KDC pour le domaine <AD Domain> lors de l'obtention des informations d'identification initiales
- Kinit : Keytab ne contient aucune clé appropriée pour *** lors de l'obtention des informations d'identification initiales
- L'opération GSSAPI a échoué en raison d'un code de statut non valide
- Alarme reçue pour l'échec de la tâche Kerberos-tgt-update
- Fournisseur SSPI : serveur introuvable dans la base de données Kerberos
- La connexion a échoué pour l'utilisateur AD en raison d'un compte désactivé
- Échec de connexion à ArgoCD
- Impossible d'obtenir l'image du bac à sable
- Les pods ne s'affichent pas dans l'interface utilisateur ArgoCD
- Échec de la sonde Redis
- Le serveur RKE2 ne démarre pas
- Secret introuvable dans l'espace de noms UiPath
- ArgoCD passe à l'état Progression (Progressing) après la première installation
- Problèmes d'accès au compte ArgoCD en lecture seule
- Pods MongoDB en mode CrashLoopBackOff ou enregistrement PVC en attente après suppression
- Services défectueux après la restauration ou l'annulation du cluster
- Pods bloqués dans Init:0/X
- Prometheus en état CrashloopBackoff avec erreur de mémoire insuffisante (OOM)
- Métriques Ceph-rook manquantes dans les tableaux de bord de surveillance
- Document Understanding n'est pas affiché sur la barre de gauche d'Automation Suite
- État Échec (Failed) lors de la création d'une session de labellisation des données
- État Échec (Failed) lors de la tentative de déploiement d'une compétence ML
- La tâche de migration échoue dans ArgoCD
- La reconnaissance de l'écriture manuscrite avec l'Extracteur de formulaires intelligents (Intelligent Form Extractor) ne fonctionne pas
- Exécution de la haute disponibilité avec Process Mining
- Échec de l’ingestion de Process Mining lors de la connexion à l’aide de Kerberos
- Impossible de se connecter à la base de données AutomationSuite_ProcessMining_Authentication à l'aide d'une chaîne de connexion au format pyodbc
- L'installation d'airflow échoue avec sqlalchemy.exc.ArgumentError: impossible d'analyser l'URL rfc1738 de la chaîne ''
- Comment ajouter une règle de table d'adresse IP pour utiliser le port SQL Server 1433
- Utilisation de l'outil de diagnostic d'Automation Suite
- Utilisation de l'outil Automation Suite Support Bundle
- Explorer les journaux
Restauration de la sauvegarde
Une fois qu'un cluster est restauré, la sauvegarde d'instantané n'est pas activée. Pour l'activer après la restauration, consultez la section Activation de l'instantané de sauvegarde.
La restauration du cluster ne restaure pas les sources de données externes telles que SQL Server. Assurez-vous de restaurer le serveur SQL sur l'instantané approprié.
Pour restaurer le cluster, procédez comme suit :
- Installez l'infrastructure de cluster sur tous les nœuds de serveur.
- Configurez l'instantané sur le cluster restauré.
- Sélectionnez l'instantané à restaurer.
- Restaurez les données et les paramètres.
Prérequis : téléchargez et installez les programmes d'installation et les bundles requis :
- le programme d'installation de restauration – vous le trouverez dans le package as-installer.zip
- le bundle d'infrastructure hors ligne – localisez-le dans le package as-infra.tar.gz
dr_input.json
et rendez-le disponible sur tous les nœuds du cluster.
{
"fixed_rke_address": "fqdn",
"fqdn": " fqdn ",
"rke_token": "guid",
"profile" : "cluster_proflie"
"external_object_storage": { "enabled": false }
}
{
"fixed_rke_address": "fqdn",
"fqdn": " fqdn ",
"rke_token": "guid",
"profile" : "cluster_proflie"
"external_object_storage": { "enabled": false }
}
cluster_config.json
.
Paramètre |
Valeur (Value) |
---|---|
|
Nom de domaine complet du cluster Automation Suite. La valeur doit être la même que l'ancien nom de domaine complet. L'indication d'une valeur FQDN différente peut entraîner l'échec de la restauration. |
|
L’adresse fixe utilisée pour l’enregistrement des nœuds de l’équilibrage de charges et des requêtes de l’API kube. Si l'équilibreur de charge est configuré comme recommandé, la valeur doit être la même que celle de l'élément
fqdn . Sinon, utilisez la valeur fqdn du premier nœud de serveur. Consultez la section Configuration de l'équilibreur de charge pour plus de détails.
|
|
Utilisez un GUID nouvellement généré ici. Il s'agit d'une clé secrète pré-partagée, spécifique au cluster. Elle est nécessaire pour tous les nœuds rejoignant le cluster. |
|
Définit le profil de l'installation. Les profils disponibles sont :
|
Pour plus de détails sur l'installation, lisez la page Manuel : expérience d'installation avancée.
Installation de l'infrastructure de cluster sur le nœud de cluster de restauration principal
Pour installer l'infrastructure sur le nœud de cluster de restauration principal, exécutez les commandes suivantes :
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore --accept-license-agreement
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore --accept-license-agreement
dr_input.json
depuis le nœud de serveur principal vers les nœuds de serveur/d'agents restants. L'étape d'installation de l'infrastructure sur le nœud du serveur principal ajoute des valeurs supplémentaires dont les nœuds restants ont besoin.
Installation de l'infrastructure de cluster sur les serveurs secondaires
Pour installer l'infrastructure sur les serveurs secondaires :
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j server --accept-license-agreement
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j server --accept-license-agreement
Installation de l'infrastructure de cluster sur les nœuds d'agent
Pour installer l'infrastructure sur les nœuds de l'agent :
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j agent --accept-license-agreement
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j agent --accept-license-agreement
Installation de l'infrastructure de cluster sur les nœuds Task Mining
Pour installer l'infrastructure de cluster sur les nœuds Task Mining :
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j task-mining --accept-license-agreement
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j task-mining --accept-license-agreement
Installation de l'infrastructure de cluster sur les nœuds Robots Automation Suite
Pour installer l'infrastructure de cluster sur des nœuds Robots Automation Suite :
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j asrobots --accept-license-agreement
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j asrobots --accept-license-agreement
Installation de l'infrastructure de cluster sur les nœuds GPU
Pour installer l'infrastructure de cluster sur les nœuds GPU :
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j gpu --accept-license-agreement
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j gpu --accept-license-agreement
as-infra.tar.gz
disponible sur tous les nœuds du cluster :
- Copiez le bundle sous le répertoire
/uipath/
sur le nœud du serveur de restauration principal. - Copiez le bundle sous le répertoire
/opt/UiPathAutomationSuite/
sur les serveurs secondaires et les nœuds d'agent.
Installation de l'infrastructure de cluster sur le nœud de cluster de restauration principal
Pour installer l'infrastructure sur le nœud de cluster de restauration principal :
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore --accept-license-agreement --offline-bundle /uipath/as-infra.tar.gz --offline-tmp-folder /uipath/tmp
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore --accept-license-agreement --offline-bundle /uipath/as-infra.tar.gz --offline-tmp-folder /uipath/tmp
dr_input.json
depuis le nœud de serveur principal vers les nœuds de serveur/d'agents restants. L'étape d'installation de l'infrastructure sur le nœud du serveur principal ajoute des valeurs supplémentaires dont les nœuds restants ont besoin.
Installation de l'infrastructure de cluster sur les serveurs secondaires
Pour installer l'infrastructure sur les serveurs secondaires :
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j server --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/as-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j server --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/as-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp
Installation de l'infrastructure de cluster sur les nœuds d'agent
Pour installer l'infrastructure sur les nœuds de l'agent :
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j agent --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/as-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j agent --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/as-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp
Installation de l'infrastructure de cluster sur les nœuds Task Mining
Pour installer l'infrastructure sur les nœuds Task Mining :
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j task-mining --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/as-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j task-mining --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/as-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp
Installation de l'infrastructure de cluster sur les nœuds Robots Automation Suite
Pour installer l'infrastructure sur des nœuds Robots Automation Suite :
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j asrobots --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/as-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j asrobots --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/as-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp
Installation de l'infrastructure de cluster sur les nœuds GPU
Pour installer l'infrastructure sur des nœuds GPU :
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j gpu --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/as-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j gpu --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/as-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp
Une fois l'infrastructure installée, configurez l'instantané tout en fournissant les données minimales, telles que la cible, le point de terminaison et l'emplacement. Ces valeurs sont utilisées au moment de la restauration.
Pour configurer la sauvegarde du cluster restauré, suivez les étapes de la section Configurer l'instantané du cluster.
Après avoir configuré l'instantané, répertoriez les instantanés existants et choisissez celui que vous souhaitez utiliser comme point de restauration.
--from-snapshot <snapshot-name>
.
./configureUiPathAS.sh snapshot restore create --from-snapshot <snapshot name>
./configureUiPathAS.sh snapshot restore create --from-snapshot <snapshot name>
Si vous ne spécifiez pas le nom de l'instantané, le cluster restaure le dernier instantané réussi. Consultez la liste des instantanés pour connaître les instantanés disponibles.
cluster_config.json
pour une utilisation future, telle que l'ajout de nouveaux nœuds au cluster, la mise à niveau, etc.
cluster_config.json
:
./bin/uipathctl manifest get-revision >> ./cluster_config.json
./bin/uipathctl manifest get-revision >> ./cluster_config.json
Après avoir restauré le cluster, assurez-vous d'ajouter vos certificats CA au magasin approuvé des machines virtuelles restaurées. Pour en savoir plus, consultez :
Après avoir restauré un cluster Automation Suite, vous devez récupérer le nouveau mot de passe de surveillance. Pour cela, suivez les étapes décrites dans la section Accès aux outils de surveillance.
Après avoir restauré un cluster Automation Suite avec AI Center™ activé, suivez les étapes de la procédure Activation d'AI Center sur le cluster restauré .
- Étape 1 : Installation de l'infrastructure de cluster
- Installation en ligne
- Installation hors ligne
- Étape 2 : Configuration de l'instantané sur le cluster restauré
- Étape 3 : Sélection de l'instantané à restaurer
- Étape 4 : Restauration des données et des paramètres
- Restauration de cluster_config.json
- Ajout de certificats CA au magasin approuvé
- Récupérer le nouveau mot de passe de surveillance
- Activation d'AI Center sur le cluster restauré