- Vue d'ensemble (Overview)
- Prérequis
- Recommandé : modèles de déploiement
- Manuel : Préparation de l'installation
- Manuel : Préparation de l'installation
- Étape 1 : Configuration du registre compatible OCI pour les installations hors ligne
- Étape 2 : configuration du magasin d'objets externe
- Étape 3 : Configuration du module complémentaire High Availability Add-on
- Étape 4 : configurer Microsoft SQL Server
- Étape 5 : configurer l’équilibreur de charge
- Étape 6 : configurer le DNS
- Step 7: Configuring kernel and OS level settings
- Step 8: Configuring the disks
- Step 9: Configuring the node ports
- Step 10: Applying miscellaneous settings
- Étape 12 : Validation et installation des packages RPM requis
- Step 13: Generating cluster_config.json
- Configuration du certificat
- Configuration de la base de données
- Configuration du magasin d'objets externe
- Configuration d'URL pré-signée
- Configuration du registre externe compatible OCI
- Disaster Recovery : configurations Active/Passive et Active/Active
- Configuration du module complémentaire High Availability Add-on
- Configuration spécifique à Orchestrator
- Configuration spécifique à Insights
- Configuration spécifique à Process Mining
- Configuration spécifique à Document Understanding
- Configuration spécifique à Automation Suite Robots
- Configuration de la surveillance
- Facultatif : configuration du serveur proxy
- Facultatif : Activation de la résilience aux échecs locaux dans un cluster en mode production multi-nœuds compatible haute disponibilité
- Facultatif : Transmettre le fichier personnalisé resolv.conf
- Facultatif : augmentation de la tolérance aux pannes
- install-uipath.sh parameters
- Ajout d'un nœud d'agent dédié avec prise en charge GPU
- Ajout d'un nœud d'agent dédié pour Task Mining
- Connexion de l'application Task Mining
- Ajout d'un nœud d'agent dédié pour les Automation Suite Robots
- Step 15: Configuring the temporary Docker registry for offline installations
- Step 16: Validating the prerequisites for the installation
- Manuel : Exécution de l'installation
- Post-installation
- Administration du cluster
- Gestion des produits
- Premiers pas avec le portail d'administration du cluster
- Migration d'un magasin d'objets d'un volume persistant vers des disques bruts
- Migration du module complémentaire High Availability Add-on externe vers un module complémentaire High Availability Add-on externe
- Migration des données entre les librairies
- Migration d'un magasin d'objets intégré au cluster vers un magasin d'objets externe
- Basculer manuellement vers le cluster secondaire dans une configuration active/passive
- Disaster Recovery : exécution d'opérations post-installation
- Conversion d'une installation existante en configuration multi-sites
- Guidelines on upgrading an Active/Passive or Active/Active deployment
- Guidelines on backing up and restoring an Active/Passive or Active/Active deployment
- Redirecting traffic for the unsupported services to the primary cluster
- Surveillance et alerte
- Migration et mise à niveau
- Étape 1 : Déplacement des données d'organisation Identity d'installation autonome vers Automation Suite
- Étape 2 : Restauration de la base de données de produits autonome
- Étape 3 : Sauvegarder la base de données de la plate-forme dans Automation Suite
- Étape 4 : Fusion des organisations dans Automation Suite
- Étape 5 : Mise à jour des chaînes de connexion du produit migré
- Étape 6 : migration de la version autonome d'Orchestrator
- Étape 7 : Migration d'Insights autonome
- Step 8: Deleting the default tenant
- B) Migration à locataire unique
- Migration d'Automation Suite sur Linux vers Automation Suite sur EKS/AKS
- Mettre à niveau Automation Suite
- Téléchargement des packages d'installation et obtention de l'ensemble des fichiers sur le premier nœud de serveur
- Récupération de la dernière configuration appliquée à partir du cluster
- Mise à jour de la configuration du cluster
- Configuration du registre compatible OCI pour les installations hors ligne
- Migration vers un registre externe compatible OCI
- Exécution de la mise à niveau
- Exécution d'opérations post-mise à niveau
- Configuration spécifique au produit
- Utilisation de l'outil Orchestrator Configurator
- Configuration des paramètres d'Orchestrator
- Paramètres de l'application Orchestrator
- Configuration des paramètres d'application
- Configuration de la taille maximale de la requête
- Remplacement de la configuration du stockage au niveau du cluster
- Configuration des magasins d'informations d'identification
- Configuration de la clé de chiffrement par locataire
- Bonnes pratiques et maintenance
- Résolution des problèmes
- Comment résoudre les problèmes des services lors de l'installation
- Comment désinstaller le cluster
- Comment nettoyer les artefacts hors ligne pour améliorer l'espace disque
- Comment effacer les données Redis
- Comment activer la journalisation Istio
- Comment nettoyer manuellement les journaux
- Comment nettoyer les anciens journaux stockés dans le bundle sf-logs
- Comment désactiver les journaux de diffusion pour AI Center
- Comment déboguer les installations d'Automation Suite ayant échoué
- Comment supprimer des images de l’ancien programme d’installation après la mise à niveau
- Comment désactiver le déchargement de la somme de contrôle de la carte réseau
- Comment mettre à niveau Automation Suite 2022.10.10 et 2022.4.11 vers 2023.10.2
- Comment définir manuellement le niveau de journal ArgoCD sur Info
- Impossible d'exécuter une installation hors ligne sur le système d'exploitation RHEL 8.4
- Erreur lors du téléchargement du bundle
- L'installation hors ligne échoue en raison d'un fichier binaire manquant
- Problème de certificat dans l'installation hors ligne
- La première installation échoue lors de la configuration de Longhorn
- Erreur de validation de la chaîne de connexion SQL
- Échec de la vérification des prérequis pour le module selinux iscsid
- Disque Azure non marqué comme SSD
- Échec après la mise à jour du certificat
- L'antivirus provoque des problèmes d'installation
- Automation Suite ne fonctionne pas après la mise à niveau du système d'exploitation
- Automation Suite requiert que backlog_wait_time soit défini sur 0
- Volume impossible à monter car il n'est pas prêt pour les charges de travail
- Cluster défectueux après la mise à niveau automatisée à partir de la version 2021.10
- Échec de la mise à niveau en raison d’un Ceph défectueux
- RKE2 ne démarre pas en raison d'un problème d'espace
- Le volume ne peut pas être monté et reste à l'état de boucle d'attachement/détachement
- La mise à niveau échoue en raison d’objets classiques dans la base de données Orchestrator
- Cluster Ceph trouvé dans un état dégradé après une mise à niveau côte à côte
- Un composant Insights défectueux entraîne l’échec de la migration
- La mise à niveau du service échoue pour Apps
- Délais d'attente de mise à niveau sur place
- Migration du registre Docker bloquée lors de la suppression du PVC
- Échec de l'enregistrement d'AI Center après la mise à niveau vers 2023.10
- La mise à niveau échoue dans les environnements hors ligne
- Échec du chargement ou du téléchargement des données dans l'objectstore
- Le redimensionnement de la PVC ne répare pas Ceph
- Échec du redimensionnement du PVC objectstore
- Rook Ceph ou pod Looker bloqué dans l'état Init
- Erreur de pièce jointe du volume Ensembles d'états.
- Échec de la création de volumes persistants
- Définition d'un délai d'expiration pour les portails de gestion
- L'authentification ne fonctionne pas après la migration
- Kinit : Impossible de trouver le KDC pour le domaine <AD Domain> lors de l'obtention des informations d'identification initiales
- Kinit : Keytab ne contient aucune clé appropriée pour *** lors de l'obtention des informations d'identification initiales
- L'opération GSSAPI a échoué en raison d'un code de statut non valide
- Alarme reçue pour l'échec de la tâche Kerberos-tgt-update
- Fournisseur SSPI : serveur introuvable dans la base de données Kerberos
- La connexion a échoué pour l'utilisateur AD en raison d'un compte désactivé
- Échec de connexion à ArgoCD
- Mettre à jour les connexions du répertoire sous-jacent
- Impossible d'obtenir l'image du bac à sable
- Les pods ne s'affichent pas dans l'interface utilisateur ArgoCD
- Échec de la sonde Redis
- Le serveur RKE2 ne démarre pas
- Secret introuvable dans l'espace de noms UiPath
- ArgoCD passe à l'état Progression (Progressing) après la première installation
- Pods MongoDB en mode CrashLoopBackOff ou enregistrement PVC en attente après suppression
- Services défectueux après la restauration ou l'annulation du cluster
- Pods bloqués dans Init:0/X
- Métriques Ceph-rook manquants dans les tableaux de bord de surveillance
- Document Understanding n'est pas affiché sur la barre de gauche d'Automation Suite
- État Échec (Failed) lors de la création d'une session de labellisation des données
- État Échec (Failed) lors de la tentative de déploiement d'une compétence ML
- La tâche de migration échoue dans ArgoCD
- La reconnaissance de l'écriture manuscrite avec l'Extracteur de formulaires intelligents (Intelligent Form Extractor) ne fonctionne pas
- Exécution de l'outil de diagnostic
- Utilisation de l'outil Automation Suite Support Bundle
- Explorer les journaux
Étape 3 : étapes post-déploiement
En raison du mode de fonctionnement des déploiements de GCP Marketplace, il n’est pas possible d’attendre que les scripts d’installation soient terminés. Le déploiement est terminé une fois l’infrastructure déployée avec succès.
Pour obtenir le statut de l’installation, vous devez utiliser SSH pour vous connecter au premier nœud de serveur en procédant comme suit :
kubernetes/infrastructure
dans les fichiers suivants :
-
/tmp/prereqs.logs
-
/opt/UiPathAutomationSuite/install.logs
Le processus d'installation génère des certificats auto-signés en votre nom. Ces certificats sont conformes à FIPS 140-2 et expireront dans 90 jours. Vous devez les remplacer par des certificats signés par une autorité de certification (CA) approuvée dès la fin de l'installation. Si vous ne mettez pas à jour les certificats, l'installation cessera d'être opérationnelle après 90 jours.
Si vous avez installé Automation Suite sur un hôte compatible FIPS 140-2 et que vous souhaitez mettre à jour les certificats, assurez-vous qu'ils sont compatibles avec FIPS 140-2.
Pour obtenir des instructions, consultez la Gestion des certificats.
Après avoir terminé une installation d'Automation Suite à l'aide du modèle de déploiement GCP, vous pouvez activer FIPS 140-2 sur vos machines. Pour obtenir des instructions, consultez Sécurité et conformité.
Solution output
, comme illustré dans l’image suivante :
Les sorties vous donnent les informations nécessaires pour accéder à la suite et au cluster.
Le tableau suivant décrit les valeurs :
Clé (Key) |
Description |
---|---|
|
Nom de domaine complet fourni pour l'installation. Assurez-vous d'utiliser le même lors de la configuration du DNS. Pour obtenir des instructions sur la configuration du DNS, consultez Configuration du DNS. |
|
L'adresse IP de l'équilibreur de charge utilisée pour configurer le DNS. |
|
L'adresse IP de la MV bastion nécessaire pour accéder au cluster via SSH. |
|
ID de déploiement inclus dans le nom de toutes les ressources d'un déploiement. |
|
L'URL de la clé secrète contenant les informations d'identification pour la base de données. |
|
L'URL de la clé secrète contenant les informations d'identification de l'organisation hôte dans le portail Automation Suite. |
|
L'URL de la clé secrète contenant les informations d'identification de l'organisation hôte dans le portail Automation Suite. |
|
L'URL de la clé secrète contenant les informations d'identification pour la console ArgoCD utilisée pour gérer les produits installés. |
|
L’URL vers les outils de surveillance (Grafana) du tableau de bord :
https://monitoring.${var.lb_fqdn}/dashboard |
|
L’URL vers les outils de surveillance des métriques (Prometheus) :
https://monitoring.${var.lb_fqdn}/metrics |
|
L’URL vers les outils de surveillance Alertmanager :
https://monitoring.${var.lb_fqdn}/alertmanager |
Le portail d'administration du cluster est un emplacement centralisé où vous pouvez trouver toutes les ressources nécessaires pour terminer une installation d'Automation Suite et effectuer les opérations post-installation courantes. Pour plus de détails, consultez la section Premiers pas avec le portail d'administration du cluster.
Pour accéder au portail d'administration du cluster, procédez comme suit :
https://${CONFIG_CLUSTER_FQDN}/uipath-management
.Pour accéder aux services, vous devez avoir un DNS configuré. Consultez Configuration du DNS dans une configuration en mode production multi-nœuds compatible haute disponibilité pour plus de détails.
Vous pouvez également suivre les instructions de Configuration d'une machine cliente pour accéder au cluster à des fins de test uniquement.
Si vous utilisez un certificat auto-signé, vous pouvez obtenir une erreur de certificat, comme illustré dans l'image suivante.
Cliquez sur Passer à… (Proceed to…), puis mettez à jour les certificats de cluster comme expliqué dans Configuration des certificats dans une configuration en mode d'évaluation à nœud unique ou Configuration des certificats dans une configuration en mode production multi-nœuds compatible haute disponibilité.
https://<fqdn>
. Vous pouvez obtenir les informations d'identification via la clé secrète disponible sur :
As Host Credentials
URL de l'organisation hôte ;As Default Credentials
URL de l'organisation par défaut.
https://alm.<fqdn>
. Vous pouvez obtenir les informations d'identification via une clé secrète disponible à l'URL argocd_credentials
.
Pour accéder aux outils de surveillance pour la première fois, connectez-vous en tant qu'administrateur avec les informations d'identification par défaut suivantes :
- Nom d’utilisateur : admin
- Mot de passe (Password) : pour récupérer le mot de passe, exécutez la commande suivante :
kubectl get secrets/dex-static-credential -n uipath-auth -o "jsonpath={.data['password']}" | base64 -d
kubectl get secrets/dex-static-credential -n uipath-auth -o "jsonpath={.data['password']}" | base64 -d
Pour mettre à jour le mot de passe par défaut utilisé pour accéder aux outils de surveillance, procédez comme suit :
-
Exécutez la commande suivante en remplaçant
newpassword
par votre nouveau mot de passe :password="newpassword" password=$(echo -n $password | base64) kubectl patch secret dex-static-credential -n uipath-auth --type='json' -p="[{'op': 'replace', 'path': '/data/password', 'value': '$password'}]"
password="newpassword" password=$(echo -n $password | base64) kubectl patch secret dex-static-credential -n uipath-auth --type='json' -p="[{'op': 'replace', 'path': '/data/password', 'value': '$password'}]" -
Exécutez la commande suivante en remplaçant
<cluster_config.json>
par le chemin d'accès à votre fichier de configuration :/opt/UiPathAutomationSuite/UiPath_Installer/install-uipath.sh -i <cluster_config.json> -f -o output.json --accept-license-agreement
/opt/UiPathAutomationSuite/UiPath_Installer/install-uipath.sh -i <cluster_config.json> -f -o output.json --accept-license-agreement
Pour accéder aux machines du cluster via SSH, assurez-vous de configurer et d’utiliser SSH dans le navigateur. Pour plus d’informations, consultez la documentation Google.
Utilisez la console GPC pour modifier le nombre de nœuds (nœuds de serveur ou d'agent) comme suit :
- Vérifier le statut de l’installation
- Mise à jour des certificats
- Activation de FIPS 140-2
- Accéder aux sorties du déploiement
- Définitions d'une sortie
- Accéder au portail d'administration du cluster
- Accéder aux services
- Accéder au portail Automation Suite
- Accéder à ArgoCD
- Accès aux outils de surveillance
- Accéder au cluster
- Modification du nombre de nœuds
- Supprimer le déploiement