- Vue d'ensemble (Overview)
- Prérequis
- Modèles de déploiement
- Manuel : Préparation de l'installation
- Manuel : Préparation de l'installation
- Étape 2 : configurer le registre compatible OCI pour les installations hors ligne
- Étape 3 : configurer le magasin d’objets externe
- Étape 4 : Configuration de High Availability Add-on
- Étape 5 : configurer les bases de données SQL
- Étape 6 : configurer l’équilibreur de charge
- Étape 7 : configurer le DNS
- Étape 8 : configuration des disques
- Étape 9 : configurer les paramètres au niveau du noyau et du système d’exploitation
- Étape 10 : configuration des ports de nœud
- Étape 11 : appliquer divers paramètres
- Étape 12 : Valider et installer les packages RPM requis
- Étape 13 : génération du fichier cluster_config.json
- Configuration du certificat
- Configuration de la base de données
- Configuration du magasin d'objets externe
- Configuration d'URL pré-signée
- Configuration de l'authentification Kerberos
- Configuration du registre externe compatible OCI
- Disaster Recovery : configurations actif/passif et actif/actif
- Configuration de High Availability Add-on
- Configuration spécifique à Orchestrator
- Configuration spécifique à Insights
- Configuration spécifique à Process Mining
- Configuration spécifique à Document Understanding
- Configuration spécifique à Automation Suite Robots
- Configuration de la surveillance
- Facultatif : configuration du serveur proxy
- Facultatif : Activation de la résilience aux échecs locaux dans un cluster en mode production multi-nœuds compatible haute disponibilité
- Facultatif : Transmettre le fichier personnalisé resolv.conf
- Facultatif : augmentation de la tolérance aux pannes
- install-uipath.sh parameters
- Ajout d'un nœud d'agent dédié avec prise en charge GPU
- Ajout d'un nœud d'agent dédié pour Task Mining
- Connexion de l'application Task Mining
- Ajout d'un nœud d'agent dédié pour les Automation Suite Robots
- Étape 15 : configuration du registre Docker temporaire pour les installations hors ligne
- Étape 16 : validation des prérequis de l’installation
- Manuel : Exécution de l'installation
- Post-installation
- Administration du cluster
- Gestion des produits
- Premiers pas avec le portail d'administration du cluster
- Migration d'un magasin d'objets d'un volume persistant vers des disques bruts
- Migration de High Availability Add-on du cluster vers une version externe
- Migration des données entre les librairies
- Migration d'un magasin d'objets intégré au cluster vers un magasin d'objets externe
- Migration du registre intégré au cluster vers un registre externe compatible OCI
- Basculer manuellement vers le cluster secondaire dans une configuration actif/passif
- Disaster Recovery : exécution d'opérations post-installation
- Conversion d'une installation existante en configuration multi-sites
- Recommandations pour mettre à niveau un déploiement actif/passif ou actif/actif
- Recommandations pour sauvegarder et restaurer un déploiement actif/passif ou actif/actif
- Rediriger vers le cluster principal le trafic pour les services non pris en charge
- Mise à l'échelle d'un déploiement à nœud unique (évaluation) vers un déploiement multi-nœuds (HA)
- Surveillance et alerte
- Migration et mise à niveau
- Étape 1 : Déplacement des données d'organisation Identity d'installation autonome vers Automation Suite
- Étape 2 : Restauration de la base de données du produit autonome
- Étape 3 : Sauvegarder la base de données de la plate-forme dans Automation Suite
- Étape 4 : Fusion des organisations dans Automation Suite
- Étape 5 : Mise à jour des chaînes de connexion du produit migré
- Étape 6 : migration de la version autonome d'Orchestrator
- Étape 7 : Migration d’Insights en version autonome
- Step 8: Migrating standalone Test Manager
- Étape 9 : suppression du locataire par défaut
- Exécution d'une seule migration de locataire
- Migration d'Automation Suite sur Linux vers Automation Suite sur EKS/AKS
- Mettre à niveau Automation Suite
- Téléchargement des packages d'installation et obtention de l'ensemble des fichiers sur le premier nœud de serveur
- Récupération de la dernière configuration appliquée à partir du cluster
- Mise à jour de la configuration du cluster
- Configuration du registre compatible OCI pour les installations hors ligne
- Exécution de la mise à niveau
- Exécution d'opérations post-mise à niveau
- Configuration spécifique au produit
- Utilisation de l'outil Orchestrator Configurator
- Configuration des paramètres d'Orchestrator
- Paramètres de l'application Orchestrator
- Configuration des paramètres d'application
- Configuration de la taille maximale de la requête
- Remplacement de la configuration du stockage au niveau du cluster
- Configuration des magasins d'informations d'identification
- Configuration de la clé de chiffrement par locataire
- Nettoyer la base de données Orchestrator
- Rotation des informations d’identification de stockage d’objets blob
- Désactivation de l'utilisation d'URL pré-signées lors du téléchargement de données vers le stockage Amazon S3
- Configuration de la sécurité de l'application de processus
- Configurer une authentification Kerberos avec l’authentification MSSQL de base pour Process Mining
- Bonnes pratiques et maintenance
- Résolution des problèmes
- Comment résoudre les problèmes des services lors de l'installation
- Comment désinstaller le cluster
- Comment nettoyer les artefacts hors ligne pour améliorer l'espace disque
- Comment effacer les données Redis
- Comment activer la journalisation Istio
- Comment nettoyer manuellement les journaux
- Comment nettoyer les anciens journaux stockés dans le compartiment sf-logs
- Comment désactiver les journaux de diffusion pour AI Center
- Comment déboguer les installations d'Automation Suite ayant échoué
- Comment supprimer des images de l’ancien programme d’installation après la mise à niveau
- Comment désactiver le déchargement de la somme de contrôle txt
- Comment mettre à niveau Automation Suite 2022.10.10 et 2022.4.11 vers 2023.10.2
- Comment définir manuellement le niveau de journalisation d’ArgoCD sur Info
- Comment augmenter le stockage d’AI Center
- Comment générer la valeur pull_secret_value encodée pour les registres externes
- Comment résoudre les chiffrements faibles dans TLS 1.2
- Comment travailler avec les certificats
- Comment transférer les journaux d'application vers Splunk
- Comment nettoyer les images Docker inutilisées à partir des pods de registre
- Comment collecter les données d'utilisation de DU avec le magasin d'objets intégré au cluster (Ceph)
- Comment installer RKE2 SELinux dans des environnements isolés
- Comment nettoyer les anciennes sauvegardes différentielles sur un serveur NFS
- Impossible d'exécuter une installation hors ligne sur le système d'exploitation RHEL 8.4
- Erreur lors du téléchargement du bundle
- L'installation hors ligne échoue en raison d'un fichier binaire manquant
- Problème de certificat dans l'installation hors ligne
- La première installation échoue lors de la configuration de Longhorn
- Erreur de validation de la chaîne de connexion SQL
- Échec de la vérification des prérequis pour le module selinux iscsid
- Disque Azure non marqué comme SSD
- Échec après la mise à jour du certificat
- L'antivirus provoque des problèmes d'installation
- Automation Suite ne fonctionne pas après la mise à niveau du système d'exploitation
- Automation Suite requiert que backlog_wait_time soit défini sur 0
- Volume impossible à monter car il n'est pas prêt pour les charges de travail
- Échec de la collecte du journal du pack d'assistance
- La chaîne de connexion SQL de l’automatisation de test est ignorée
- Perte de données lors de la réinstallation ou de la mise à niveau d'Insights après la mise à niveau d'Automation Suite
- Échec de la mise à niveau du nœud unique à l’étape Fabric
- Cluster défectueux après la mise à niveau automatisée à partir de la version 2021.10
- Échec de la mise à niveau en raison d’un Ceph défectueux
- RKE2 ne démarre pas en raison d'un problème d'espace
- Le volume ne peut pas être monté et reste à l'état de boucle d'attachement/détachement
- La mise à niveau échoue en raison d’objets classiques dans la base de données Orchestrator
- Cluster Ceph trouvé dans un état dégradé après une mise à niveau côte à côte
- Un composant Insights défectueux entraîne l’échec de la migration
- La mise à niveau du service échoue pour Apps
- Délais d'attente de mise à niveau sur place
- Migration du registre Docker bloquée lors de la suppression du PVC
- Échec de l’enregistrement d’AI Center après la mise à niveau vers la version 2023.10 ou une version ultérieure
- La mise à niveau échoue dans les environnements hors ligne
- Échec de la validation SQL lors de la mise à niveau
- Le pod d'instantané-contrôleur-crds dans l'état CrashLoopBackOff après la mise à niveau
- Erreur de mise à niveau/réinstallation du point de terminaison de l'API REST Longhorn
- La mise à niveau échoue en raison du remplacement des tailles de PVC Insights
- Échec du chargement ou du téléchargement des données dans l'objectstore
- Le redimensionnement de la PVC ne répare pas Ceph
- Échec du redimensionnement du PVC objectstore
- Rook Ceph ou pod Looker bloqué dans l'état Init
- Erreur de pièce jointe du volume Ensembles d'états.
- Échec de la création de volumes persistants
- Définition d'un délai d'expiration pour les portails de gestion
- L'authentification ne fonctionne pas après la migration
- kinit : Impossible de trouver le KDC pour le domaine <AD Domain> lors de l'obtention des informations d'identification initiales
- Kinit : Keytab ne contient aucune clé appropriée pour *** lors de l'obtention des informations d'identification initiales
- L'opération GSSAPI a échoué en raison d'un code de statut non valide
- Alarme reçue pour l'échec de la tâche Kerberos-tgt-update
- Fournisseur SSPI : serveur introuvable dans la base de données Kerberos
- La connexion a échoué pour l'utilisateur AD en raison d'un compte désactivé
- Échec de connexion à ArgoCD
- Mettre à jour les connexions du répertoire sous-jacent
- Impossible d'obtenir l'image du bac à sable
- Les pods ne s'affichent pas dans l'interface utilisateur ArgoCD
- Échec de la sonde Redis
- Le serveur RKE2 ne démarre pas
- Secret introuvable dans l'espace de noms UiPath
- ArgoCD passe à l'état Progression (Progressing) après la première installation
- Services défectueux après la restauration ou l'annulation du cluster
- Pods bloqués dans Init:0/X
- Métriques Ceph-rook manquantes dans les tableaux de bord de surveillance
- Les pods ne peuvent pas communiquer avec le nom de domaine complet dans un environnement proxy
- Échec de la configuration des alertes par e-mail après la mise à niveau
- Aucun problème sain en amont
- Document Understanding n'est pas affiché sur la barre de gauche d'Automation Suite
- État Échec (Failed) lors de la création d'une session de labellisation des données
- État Échec (Failed) lors de la tentative de déploiement d'une compétence ML
- La tâche de migration échoue dans ArgoCD
- La reconnaissance de l'écriture manuscrite avec l'Extracteur de formulaires intelligents (Intelligent Form Extractor) ne fonctionne pas
- Échec du déploiement de la compétence ML en raison de l'expiration du jeton
- Exécution de la haute disponibilité avec Process Mining
- Échec de l’ingestion de Process Mining lors de la connexion à l’aide de Kerberos
- Après Disaster Recovery, Dapr ne fonctionne pas correctement pour Process Mining
- Configuration de Dapr avec Redis en mode cluster
- Impossible de se connecter à la base de données AutomationSuite_ProcessMining_Authentication à l'aide d'une chaîne de connexion au format pyodbc
- L'installation d'airflow échoue avec sqlalchemy.exc.ArgumentError: impossible d'analyser l'URL rfc1738 de la chaîne ''
- Comment ajouter une règle de table d'adresse IP pour utiliser le port SQL Server 1433
- Le certificat Automation Suite n'est pas approuvé depuis le serveur sur lequel CData Sync est en cours d'exécution
- Exécution de l'outil de diagnostic
- Utilisation du pack d'assistance Automation Suite
- Explorer les journaux
- Explorer la télémétrie résumée

Guide d'installation d'Automation Suite sur Linux
Une fois qu'un cluster est restauré, la sauvegarde d'instantané n'est pas activée. Pour l'activer après la restauration, consultez la section Activation de l'instantané de sauvegarde.
La restauration du cluster ne restaure pas les sources de données externes telles que SQL Server, le magasin d'objets ou le registre compatible OCI. Assurez-vous de restaurer ces sources de données dans l'instantané pertinent.
Pour restaurer le cluster, procédez comme suit :
- Installez l'infrastructure de cluster sur tous les nœuds de serveur. Le matériel que vous fournissez pour le cluster de restauration doit être similaire au matériel du cluster de sauvegarde. Pour plus de détails, consultez la section Configuration matérielle et logicielle requise.
- Configurez l'instantané sur le cluster restauré.
- Sélectionnez l'instantané à restaurer.
- Restaurez les données et les paramètres.
Préparation
- Téléchargez le programme d'installation. Vous pouvez trouver ce fichier dans le package
as-installer.zip. Pour obtenir des instructions, consultez Téléchargement des packages d'installation. - Dans les environnements hors ligne, vous devez fournir un registre externe compatible OCI ou un registre temporaire. Notez que la configuration du registre doit rester la même que celle du cluster d'origine. Pour configurer le registre, consultez les instructions suivantes :
- Configuration du registre externe compatible OCI
- Configuration du registre Docker temporaire. Choisissez cette option uniquement si vous n'utilisiez pas de registre externe compatible OCI avant que le sinistre ne se produise.
- Préparez le fichier de configuration et rendez-le disponible sur tous les nœuds du cluster. Pour préparer le fichier de configuration, suivez l'une des étapes suivantes :
- Option A : réutilisez le fichier
cluster_config.jsonque vous avez appliqué au cluster avant que le sinistre ne se produise ; - Option B : Créez un fichier
cluster_config.jsonminimum avec les paramètres requis, comme indiqué dans l'exemple suivant :{ "fixed_rke_address": "fqdn", "fqdn": "fqdn", "rke_token": "guid", "profile": "cluster_profile", "external_object_storage": { "enabled": false }, "install_type": "offline or online", "proxy": { "enabled": false } }{ "fixed_rke_address": "fqdn", "fqdn": "fqdn", "rke_token": "guid", "profile": "cluster_profile", "external_object_storage": { "enabled": false }, "install_type": "offline or online", "proxy": { "enabled": false } }
- Option A : réutilisez le fichier
cluster_config.json. Assurez-vous de fournir les mêmes valeurs de paramètre que celles utilisées dans le cluster d'origine. Vous pouvez modifier les valeurs des paramètres après la restauration.
cluster_config.json répertoriés dans la table suivante, vous devez également fournir la configuration du registre externe compatible OCI. Pour plus de détails, consultez la section Configuration du registre externe compatible OCI.
|
Paramètre |
Valeur (Value) |
|---|---|
|
|
Nom de domaine complet du cluster Automation Suite. La valeur doit être la même que l'ancien nom de domaine complet. L'indication d'une valeur FQDN différente peut entraîner l'échec de la restauration. |
|
|
L’adresse fixe utilisée pour l’enregistrement des nœuds de l’équilibrage de charges et des requêtes de l’API kube. Si l'équilibreur de charge est configuré comme recommandé, la valeur doit être la même que celle de l'élément
fqdn. Sinon, utilisez la valeur fqdn du premier nœud de serveur. Consultez la section Configuration de l'équilibreur de charge pour plus de détails.
|
|
|
Utilisez un GUID nouvellement généré ici. Il s'agit d'une clé secrète pré-partagée, spécifique au cluster. Elle est nécessaire pour tous les nœuds rejoignant le cluster. |
|
|
Définit le profil de l'installation. Les profils disponibles sont :
|
|
|
Indique le type d'installation que vous prévoyez d'effectuer. Vos options sont les suivantes :
|
|
|
Ce paramètre n'est obligatoire que si le proxy est activé. Pour plus de détails, consultez Facultatif : configuration du serveur proxy. |
cluster_config.json, consultez la section Manuel : Expérience d'installation avancée.
Exécution
Installation de l'infrastructure de cluster sur le nœud de cluster de restauration principal
Pour installer l'infrastructure sur le nœud de cluster de restauration principal, exécutez les commandes suivantes :
cd <installer directory>
./install-uipath.sh -i ../../cluster_config.json -o output.json --accept-license-agreementcd <installer directory>
./install-uipath.sh -i ../../cluster_config.json -o output.json --accept-license-agreementcluster_config.json depuis le nœud de serveur principal vers les nœuds de serveur/d'agents restants. L'étape d'installation de l'infrastructure sur le nœud du serveur principal ajoute des valeurs supplémentaires dont les nœuds restants ont besoin.
Installation de l'infrastructure de cluster sur les serveurs secondaires
Pour installer l'infrastructure sur les serveurs secondaires :
cd <installer directory>
./install-uipath.sh -i ../../cluster_config.json -o output.json -j server --accept-license-agreementcd <installer directory>
./install-uipath.sh -i ../../cluster_config.json -o output.json -j server --accept-license-agreementInstallation de l'infrastructure de cluster sur les nœuds d'agent
Pour installer l'infrastructure sur les nœuds de l'agent :
cd <installer directory>
./install-uipath.sh -i ../../cluster_config.json -o output.json -j agent --accept-license-agreementcd <installer directory>
./install-uipath.sh -i ../../cluster_config.json -o output.json -j agent --accept-license-agreementInstallation de l'infrastructure de cluster sur les nœuds Task Mining
Pour installer l'infrastructure de cluster sur les nœuds Task Mining :
cd <installer directory>
./install-uipath.sh -i ../../cluster_config.json -o output.json -j task-mining --accept-license-agreementcd <installer directory>
./install-uipath.sh -i ../../cluster_config.json -o output.json -j task-mining --accept-license-agreementInstallation de l'infrastructure de cluster sur les nœuds Robots Automation Suite
Pour installer l'infrastructure de cluster sur des nœuds Robots Automation Suite :
cd <installer directory>
./install-uipath.sh -i ../../cluster_config.json -o output.json -j asrobots --accept-license-agreementcd <installer directory>
./install-uipath.sh -i ../../cluster_config.json -o output.json -j asrobots --accept-license-agreementInstallation de l'infrastructure de cluster sur les nœuds GPU
Pour installer l'infrastructure de cluster sur les nœuds GPU :
cd <installer directory>
./install-uipath.sh -i ../../cluster_config.json -o output.json -j gpu --accept-license-agreementcd <installer directory>
./install-uipath.sh -i ../../cluster_config.json -o output.json -j gpu --accept-license-agreementUne fois l'infrastructure installée, configurez l'instantané tout en fournissant les données minimales, telles que la cible, le point de terminaison et l'emplacement. Ces valeurs sont utilisées au moment de la restauration.
Pour configurer la sauvegarde du cluster restauré, suivez les étapes de la section Configurer l'instantané du cluster.
Après avoir configuré l'instantané, répertoriez les instantanés existants et choisissez celui que vous souhaitez utiliser comme point de restauration.
--from-snapshot <snapshot-name> .
./configureUiPathAS.sh snapshot restore create --from-snapshot <snapshot name>./configureUiPathAS.sh snapshot restore create --from-snapshot <snapshot name>Si vous ne spécifiez pas le nom de l'instantané, le cluster restaure le dernier instantané réussi. Consultez la liste des instantanés pour connaître les instantanés disponibles.
Restauration de cluster_config.json
cluster_config.json pour une utilisation future, telle que l'ajout de nouveaux nœuds au cluster, la mise à niveau, etc.
cluster_config.json :
./bin/uipathctl manifest get-revision >> ./cluster_config.json./bin/uipathctl manifest get-revision >> ./cluster_config.jsonAjout de certificats CA au magasin approuvé
Après avoir restauré le cluster, assurez-vous d'ajouter vos certificats CA au magasin approuvé des machines virtuelles restaurées. Pour en savoir plus, consultez :
Récupérer le nouveau mot de passe de surveillance
Après avoir restauré un cluster Automation Suite, vous devez récupérer le nouveau mot de passe de surveillance. Pour cela, suivez les étapes décrites dans la section Accès aux outils de surveillance.
Activation d'AI Center sur le cluster restauré
Après avoir restauré un cluster Automation Suite avec AI Center™ activé, suivez les étapes de la procédure Activation d'AI Center sur le cluster restauré .
Génération d’un nouveau ticket Kerberos
Si l'authentification Kerberos est configurée, vous devez vous assurer que le ticket Kerberos n'a pas expiré.
Pour générer un nouveau ticket Kerberos, exécutez les commandes suivantes :
kubectl get cronjobs -A | grep kerberos //to identify the job with name kerberos-tgt-update
kubectl create job --from=cronjob/<cron-job-name> <new_job_name> -n <namespace>kubectl get cronjobs -A | grep kerberos //to identify the job with name kerberos-tgt-update
kubectl create job --from=cronjob/<cron-job-name> <new_job_name> -n <namespace><cron-job-name>, <new_job_name> et <namespace> par le nom réel de votre tâche cron, le nom prévu pour la nouvelle tâche et votre espace de noms réel respectivement.
- Étape 1 : Installation de l'infrastructure de cluster
- Préparation
- Exécution
- Étape 2 : Configuration de l'instantané sur le cluster restauré
- Étape 3 : Sélection de l'instantané à restaurer
- Étape 4 : Restauration des données et des paramètres
- Restauration de cluster_config.json
- Ajout de certificats CA au magasin approuvé
- Récupérer le nouveau mot de passe de surveillance
- Activation d'AI Center sur le cluster restauré
- Génération d’un nouveau ticket Kerberos