- Vue d'ensemble (Overview)
- Prérequis
- Installation
- Questions et réponses : modèles de déploiement
- Configuration des machines
- Configurer l'équilibreur de charge
- Configuration du DNS
- Configuration de Microsoft SQL Server
- Configuration des certificats
- Installation de production en ligne multi-nœuds compatible haute disponibilité
- Installation de production hors ligne multi-nœuds compatible haute disponibilité
- Téléchargement des packages d'installation
- install-uipath.sh parameters
- Activation du module complémentaire Redis High Availability Add-on pour le cluster
- Fichier de configuration de Document Understanding
- Ajout d'un nœud d'agent dédié avec prise en charge GPU
- Connexion de l'application Task Mining
- Ajout d'un nœud d'agent dédié pour Task Mining
- Post-installation
- Administration du cluster
- Gestion des produits
- Gérer le cluster dans ArgoCD
- Configuration du serveur NFS externe
- Automatisé : activation de la sauvegarde sur le cluster
- Automatisé : Désactivation de la sauvegarde sur le cluster
- Automatisé, en ligne : restauration du cluster
- Manuel, hors ligne : Restauration du cluster
- Manuel : Activation de la sauvegarde sur le cluster
- Manuel : Activation de la sauvegarde sur le cluster
- Manuel en ligne : Restauration du cluster
- Manuel, hors ligne : Restauration du cluster
- Configuration supplémentaire
- Migration d'un magasin d'objets d'un volume persistant vers des disques bruts
- Surveillance et alerte
- Migration et mise à niveau
- Automatisée : mise à niveau en ligne
- Automatisée : mise à niveau hors ligne
- Manuel : mise à niveau en ligne
- Manuel : mise à niveau hors ligne
- Annulation en cas d'erreur
- Migration d'un disque physique Longhorn vers LVM
- Migration de Canal vers Cilium CNI
- Rétrogradation de Ceph de la version 16.2.6 à la version 15.2.9
- Options de migration :
- Étape 1 : Déplacement des données d'organisation Identity d'installation autonome vers Automation Suite
- Étape 2 : Restauration de la base de données du produit autonome
- Étape 3 : Sauvegarder la base de données de la plate-forme dans Automation Suite
- Étape 4 : Fusion des organisations dans Automation Suite
- Étape 5 : Mise à jour des chaînes de connexion du produit migré
- Étape 6 : migration de la version autonome d’Insights
- Étape 7 : suppression du locataire par défaut
- B) Migration à locataire unique
- Configuration spécifique au produit
- Bonnes pratiques et maintenance
- Résolution des problèmes
- Comment résoudre les problèmes des services lors de l'installation
- Comment désinstaller le cluster
- Comment nettoyer les artefacts hors ligne pour améliorer l'espace disque
- Comment effacer les données Redis
- Comment activer la journalisation Istio
- Comment nettoyer manuellement les journaux
- Comment nettoyer les anciens journaux stockés dans le compartiment sf-logs
- Comment désactiver les journaux de diffusion pour AI Center
- Comment déboguer les installations d'Automation Suite ayant échoué
- Comment supprimer des images de l’ancien programme d’installation après la mise à niveau
- Comment nettoyer automatiquement les instantanés Longhorn
- Comment désactiver le déchargement de la somme de contrôle txt
- Comment résoudre les chiffrements faibles dans TLS 1.2
- Impossible d'exécuter une installation hors ligne sur le système d'exploitation RHEL 8.4
- Erreur lors du téléchargement du bundle
- L'installation hors ligne échoue en raison d'un fichier binaire manquant
- Problème de certificat dans l'installation hors ligne
- La première installation échoue lors de la configuration de Longhorn
- Erreur de validation de la chaîne de connexion SQL
- Échec de la vérification des prérequis pour le module selinux iscsid
- Disque Azure non marqué comme SSD
- Échec après la mise à jour du certificat
- Automation Suite ne fonctionne pas après la mise à niveau du système d'exploitation
- Automation Suite requiert que Backlog_wait_time soit défini sur 1
- Volume impossible à monter car il n'est pas prêt pour les charges de travail
- RKE2 échoue lors de l'installation et de la mise à niveau
- Échec du chargement ou du téléchargement des données dans l'objectstore
- Le redimensionnement de la PVC ne répare pas Ceph
- Échec du redimensionnement du PVC objectstore
- Rook Ceph ou pod Looker bloqué dans l'état Init
- Erreur de pièce jointe du volume Ensembles d'états.
- Échec de la création de volumes persistants
- Correctif de récupération du stockage
- La sauvegarde a échoué en raison de l’erreur TropInstantanés (TooManySnapshots)
- Toutes les répliques Longhorn sont défaillantes
- Définition d'un délai d'expiration pour les portails de gestion
- Mettre à jour les connexions du répertoire sous-jacent
- Impossible de se connecter après la migration
- kinit : Impossible de trouver le KDC pour le domaine <AD Domain> lors de l'obtention des informations d'identification initiales
- Kinit : Keytab ne contient aucune clé appropriée pour *** lors de l'obtention des informations d'identification initiales
- L'opération GSSAPI a échoué en raison de l'erreur suivante : un code d'état non valide a été fourni (les informations d'identification du client ont été révoquées).
- Alarme reçue pour l'échec de la tâche Kerberos-tgt-update
- Fournisseur SSPI : serveur introuvable dans la base de données Kerberos
- La connexion a échoué pour l'utilisateur <ADDOMAIN><aduser>.Raison : Le compte est désactivé.
- Échec de connexion à ArgoCD
- Impossible d'obtenir l'image du bac à sable
- Les pods ne s'affichent pas dans l'interface utilisateur ArgoCD
- Échec de la sonde Redis
- Le serveur RKE2 ne démarre pas
- Secret introuvable dans l'espace de noms UiPath
- Après l'installation initiale, l'application ArgoCD est passée à l'état Progression (Progressing)
- Pods MongoDB en mode CrashLoopBackOff ou enregistrement PVC en attente après suppression
- INCOHÉRENCE INATTENDUE ; EXÉCUTER fsck MANUELLEMENT
- MongoDB ou applications métier dégradées après la restauration du cluster
- L’opérateur d’auto-guérison et le référentiel Sf-k8-utils manquants
- Services défectueux après la restauration ou la restauration du cluster
- Le pod RabbitMQ est bloqué dans CrashLoopBackOff
- Prometheus en état CrashloopBackoff avec erreur de mémoire insuffisante (OOM)
- Métriques Ceph-rook manquantes dans les tableaux de bord de surveillance
- Les pods ne peuvent pas communiquer avec le nom de domaine complet dans un environnement proxy
- Document Understanding n'est pas affiché sur la barre de gauche d'Automation Suite
- État Échec (Failed) lors de la création d'une session de labellisation des données
- État Échec (Failed) lors de la tentative de déploiement d'une compétence ML
- La tâche de migration échoue dans ArgoCD
- La reconnaissance de l'écriture manuscrite avec l'Extracteur de formulaires intelligents (Intelligent Form Extractor) ne fonctionne pas
- Utilisation de l'outil de diagnostic d'Automation Suite
- Utilisation du pack d'assistance Automation Suite
- Explorer les journaux
Installation de production hors ligne multi-nœuds compatible haute disponibilité
Cette page explique comment effectuer une installation hors ligne d'Automation Suite avec une configuration en mode production multi-nœuds compatible haute disponibilité.
Vous devez remplir les prérequis matériels et logiciels avant de procéder à l'installation. Voir Prérequis logiciels et matériels.
Vous pouvez utiliser un script dédié pour valider les prérequis de l'installation et l'état de préparation de l'infrastructure. Voir Validation des prérequis.
Pour une expérience d'installation fluide, assurez-vous de suivre nos meilleures pratiques. Consultez .
Utilisez les étapes d'installation hors ligne de ce document lors du déploiement de la suite UiPath Automation dans un environnement isolé sans accès à Internet.
Le processus d'installation comporte les étapes générales suivantes :
Étape |
Description |
---|---|
Étape 1 : Téléchargez les packages d'installation |
Cette étape doit être effectuée à partir d'une machine ayant accès à Internet et aux machines isolées sur lesquelles Automation Suite sera déployée. En attendant la fin du téléchargement, vous pouvez effectuer certaines des étapes suivantes. Cela peut être fait à partir d'une machine Linux ou Windows. |
Étape 2 : Configuration de l'installation |
Exécutez l'assistant d'installation interactif pour configurer les options d'installation L'outil rassemble les entrées pour les options d'installation les plus courantes et génère un fichier de configuration qui peut être utilisé lors de l'installation. Configurez les options d'installation avancées (facultatif) La configuration d'installation par défaut inclut les produits utilisés dans l'automatisation principale et un serveur SQL partagé pouvant être utilisé par tous les produits. Pour personnaliser les produits installés ou utiliser des serveurs SQL distincts pour des produits spécifiques, vous pouvez modifier le fichier de configuration. |
Étape 3 : Copiez les fichiers d'installation sur toutes les machines |
Sur la première machine, copiez les fichiers téléchargés dans le dossier d'installation créé par l'assistant d'installation à l'étape 2. Sur les autres machines du cluster, copiez l'intégralité du dossier d'installation de la première machine vers le même chemin de dossier sur chaque machine. |
Étape 4 : Lancer l'installation |
Créez le cluster et joignez toutes les machines À partir de la première machine, installez le reste de la suite. |
Étape 5 : Terminer l'installation |
Étape 5 : Vous avez terminé l'installation avec succès et pouvez passer aux étapes post-installation. Vous pouvez désormais accéder au cluster et à la suite nouvellement créés, mettre à jour les certificats, redimensionner le PVC, etc. |
La version du noyau RHEL kernel-4.18.0-477.10.1.el8_8 est affectée par un problème qui interrompt l'installation ou la gestion du cluster Automation Suite. Assurez-vous qu'aucun des nœuds Automation Suite n'utilise cette version du noyau, que ce soit avant ou après l'installation. Vous pouvez mettre à jour la version du noyau en exécutant la commande suivante :
dnf install -y kernel kernel-tools kernel-tools-libs
dnf install -y kernel kernel-tools kernel-tools-libs
Étape 1 : Téléchargement du package d'installation et obtention de l'ensemble des fichiers sur la première machine
Cette machine peut être sous Linux ou Windows. Les commandes de ce guide sont destinées aux systèmes d'exploitation basés sur RHEL. Pour Windows ou d'autres systèmes d'exploitation, ajustez les commandes équivalentes spécifiques à ces environnements.
Le programme d'installation d'Automation Suite est un wrapper de plusieurs packages qui installe également certaines dépendances à l'aide du gestionnaire de packages Red Hat Package Manager (RPM). Il propose une expérience interactive pour vous aider à configurer des ressources externes telles que SQL, ainsi que d'autres options d'installation.
SUR LA MACHINE SÉPARÉE AVEC ACCÈS À INTERNET
Cette section explique comment obtenir les fichiers requis afin de démarrer le processus d'installation.
Assurez-vous de suivre les étapes suivantes :
- Vérifiez que tous les fichiers ont été téléchargés sur la machine avec accès à Internet ;
- Créez le dossier cible sur la machine ;
- Copiez les fichiers de la machine en ligne vers la machine cible.
SUR TOUTES LES MACHINES DU CLUSTER
Créez les dossiers d'installation en exécutant la commande suivante :
sudo su -
mkdir -p /opt/UiPathAutomationSuite/
chmod -R 777 /opt/UiPathAutomationSuite
mkdir -p /uipath/tmp
chmod -R 777 /uipath/tmp
sudo su -
mkdir -p /opt/UiPathAutomationSuite/
chmod -R 777 /opt/UiPathAutomationSuite
mkdir -p /uipath/tmp
chmod -R 777 /uipath/tmp
mkdir -p /opt/UiPathAutomationSuite/
n'est pas requise si vous utilisez le script configureUiPathDisks.sh
.
SUR LA MACHINE SÉPARÉE AVEC ACCÈS À INTERNET
Copiez les fichiers sur le premier nœud en procédant comme suit :
- À partir de la machine avec accès à Internet, copiez les fichiers dans le dossier d'installation sur la machine cible et le(s) bundle(s) hors ligne dans le dossier
/uipath/tmp
.scp ~/installUiPathAS.sh ~/sf-installer.zip ~/sf-infra.tar.gz <username>@<node dns>:/uipath/tmp scp ~/sf.tar.gz <username>@<node dns>:/uipath/tmp/
scp ~/installUiPathAS.sh ~/sf-installer.zip ~/sf-infra.tar.gz <username>@<node dns>:/uipath/tmp scp ~/sf.tar.gz <username>@<node dns>:/uipath/tmp/ - (Facultatif) Pour utiliser Document Understanding, copiez le bundle suivant dans le dossier
/uipath/tmp
:scp ~/du-ondemand.tar.gz <username>@<node dns>:/uipath/tmp/
scp ~/du-ondemand.tar.gz <username>@<node dns>:/uipath/tmp/Avertissement : : Ne pas suivre cette étape facultative empêche l'accès aux services Document Understanding. - (Facultatif) Pour utiliser Computer Vision, copiez le bundle suivant dans le dossier
/uipath/tmp
:scp ~/cv-ondemand.tar.gz <username>@<node dns>:/uipath/tmp/
scp ~/cv-ondemand.tar.gz <username>@<node dns>:/uipath/tmp/Avertissement : Ne pas suivre cette étape facultative empêche l'accès aux services Computer Vision.
Exécution de l'assistant interactif en mode hors ligne multi-nœuds
Cette étape est facultative.
En exécutant l'installation à l'aide de la configuration par défaut, vous choisissez d'exécuter notre sélection de produits de base. Vous installerez notre plate-forme principale : Orchestrator, Insights, Test Manager, Action Center, Automation Ops, Automation Hub et Data Service.
Vous pouvez configurer le fichier pour des configurations plus avancées. Vous pouvez activer des produits supplémentaires, désactiver l'un des produits par défaut, configurer vos bases de données SQL et leurs chaînes de connexion et certificats respectifs. Pour le mode de production multi-nœuds compatible haute disponibilité, la haute disponibilité est activée par défaut, mais vous pouvez la désactiver si nécessaire.
Pour une configuration avancée, vous pouvez suivre les instructions suivantes : Expérience d'installation avancée.
cluster_config.json
sur toutes les autres machines.
SUR LA PREMIÈRE MACHINE DU CLUSTER
Il existe deux types de machines : serveur et agent.
- Serveur (Server) - Machines sur lesquelles l'infrastructure Kubernetes (c'est-à-dire apiserver, etcd) s'exécute. Ces composants gèrent l'ensemble du cluster.
- Agent - version standard de la machine utilisée pour exécuter les charges de travail
Le mode de production multi-nœuds compatible haute disponibilité nécessite un minimum de 3 machines serveurs. L'installation de Task Mining nécessite l'ajout d'une machine supplémentaire qui sera utilisée comme agent.
- Pour une installation de production multi-nœuds compatible haute disponibilité, vous avez besoin d'un équilibreur de charge. Assurez-vous qu'il a été créé et que le trafic est réparti entre les nœuds. Le nom de domaine de l'équilibreur de charge doit être utilisé dans le fichier
cluster_config.json
. - Vous devez avoir au moins un nœud de serveur et pour la haute disponibilité, vous avez besoin d'au moins trois nœuds de serveur. Un nombre impair de nœuds de serveur est requis.
Avant de lancer l'installation, veillez à lire le contrat de licence (License Agreement).
Pour accepter le contrat de licence, choisissez l'une des méthodes suivantes :
- Option 1 (variable d'environnement) - Définissez la variable d'environnement
LICENSE_AGREEMENT
pour qu'elle accepte en exécutant la commande suivante :export LICENSE_AGREEMENT=accept
- Option 2 (paramètre en ligne) : Vous pouvez également ajouter
--accept-license-agreement
à chaque exécution deinstall-uipath.sh
.
Fin de l'installation sur le premier nœud
Une fois tous les nœuds joints, basculez vers le premier serveur pour terminer l'installation d'Automation Suite :
-
Vérifiez si les nœuds ont été correctement ajoutés en exécutant la commande suivante :
sudo su export KUBECONFIG=/etc/rancher/rke2/rke2.yaml PATH=$PATH:/var/lib/rancher/rke2/bin kubectl get nodes
sudo su export KUBECONFIG=/etc/rancher/rke2/rke2.yaml PATH=$PATH:/var/lib/rancher/rke2/bin kubectl get nodes -
Vous devriez voir plus d'un nœud dans la liste si le processus s'est correctement déroulé.
-
Terminez l'installation en exécutant la commande suivante :
cd /opt/UiPathAutomationSuite ./install-uipath.sh -i ./cluster_config.json -o ./output.json -f -s --offline-bundle /opt/UiPathAutomationSuite/sf.tar.gz --offline-tmp-folder /uipath/tmp --accept-license-agreement
cd /opt/UiPathAutomationSuite ./install-uipath.sh -i ./cluster_config.json -o ./output.json -f -s --offline-bundle /opt/UiPathAutomationSuite/sf.tar.gz --offline-tmp-folder /uipath/tmp --accept-license-agreement
C'est l'opération la plus longue. Attendez-vous à ce que cela prenne environ 2 heures.
Chargement des bundles facultatifs
-
Pour charger les bundles Document Understanding facultatifs, exécutez les commandes suivantes :
./configureUiPathAS.sh registry upload --optional-offline-bundle "/uipath/tmp/du-ondemand.tar.gz" --offline-tmp-folder "/uipath/tmp"
./configureUiPathAS.sh registry upload --optional-offline-bundle "/uipath/tmp/du-ondemand.tar.gz" --offline-tmp-folder "/uipath/tmp" -
Pour charger le bundle Computer Vision facultatif, exécutez la commande suivante :
./configureUiPathAS.sh registry upload --optional-offline-bundle "/uipath/tmp/cv-ondemand.tar.gz" --offline-tmp-folder "/uipath/tmp"
./configureUiPathAS.sh registry upload --optional-offline-bundle "/uipath/tmp/cv-ondemand.tar.gz" --offline-tmp-folder "/uipath/tmp"
Le processus d'installation génère des certificats auto-signés en votre nom. Toutefois, le modèle de déploiement Azure vous donne également la possibilité de fournir un certificat de serveur émis par une autorité de certification au moment de l'installation au lieu d'utiliser un certificat auto-signé généré automatiquement.
Ces certificats expireront sous 90 jours et vous devrez les remplacer par des certificats signés par une autorité de certification (CA) approuvée dès que l'installation sera terminée. Si vous ne mettez pas à jour les certificats, l'installation cessera d'être opérationnelle après 90 jours.
Pour obtenir des instructions, consultez la Gestion des certificats.
Pour accéder au cluster et à la suite nouvellement créés, voir Accéder à Automation Suite.
Pour redimensionner le PVC, voir Redimensionner le PVC.
200
immédiatement après l'installation pour éviter les temps d'arrêt. Pour plus d'informations à ce sujet, consultez Redimensionner le PVC pour AI Center.
Si vous avez installé AI Center TM, vous devez importer et exporter l'image Rancher. Pour plus d'informations à ce sujet, consultez Adding rancher/pause:3.5 to offline registry.
- Vue d'ensemble (Overview)
- Étape 1 : Téléchargement du package d'installation et obtention de l'ensemble des fichiers sur la première machine
- Étape 1.1 : Téléchargement du package d'installation
- Étape 1.2 : Obtenir tous les fichiers téléchargés sur la première machine
- Étape 2 : Configuration de l'installation
- Étape 2.1 : Configuration de base
- Étape 2.2 : (Facultatif) Configuration avancée
- Étape 3 : copie des fichiers d'installation sur toutes les autres machines du cluster
- Étape 4 : Lancer l'installation
- Étape 4.1 : Accepter le contrat de licence
- Étape 4.2 : Créer et joindre toutes les machines au cluster
- Étape 4.3 : Terminer l'installation de la suite
- Étape 5 : Finalisation de l'installation
- Mise à jour des certificats
- Accéder à Automation Suite
- Redimensionner le PVC
- Ajout du rancher/pause : 3.5