- Vue d'ensemble (Overview)
- Prérequis
- Exigences relatives aux privilèges root
- Haute disponibilité – Trois zones de disponibilité
- Exigences en matière de certificat
- Configuration requise pour le réseau
- Validation des prérequis dans une configuration d'évaluation à nœud unique
- Validation des prérequis dans une configuration de production multi-nœuds compatible haute disponibilité
- Installation
- Questions et réponses : modèles de déploiement
- Configuration des machines
- Configurer l'équilibreur de charge
- Configuration du DNS
- Configuration de Microsoft SQL Server
- Configuration des certificats
- Installation de production en ligne multi-nœuds compatible haute disponibilité
- Installation de production hors ligne multi-nœuds compatible haute disponibilité
- Téléchargement des packages d'installation
- install-uipath.sh parameters
- Activation du module complémentaire Redis High Availability Add-on pour le cluster
- Fichier de configuration de Document Understanding
- Ajout d'un nœud d'agent dédié avec prise en charge GPU
- Connexion de l'application Task Mining
- Ajout d'un nœud d'agent dédié pour Task Mining
- Post-installation
- Administration du cluster
- Gestion des produits
- Gérer le cluster dans ArgoCD
- Configuration du serveur NFS externe
- Automatisé : activation de la sauvegarde sur le cluster
- Automatisé : Désactivation de la sauvegarde sur le cluster
- Automatisé, en ligne : restauration du cluster
- Manuel, hors ligne : Restauration du cluster
- Manuel : Activation de la sauvegarde sur le cluster
- Manuel : Activation de la sauvegarde sur le cluster
- Manuel en ligne : Restauration du cluster
- Manuel, hors ligne : Restauration du cluster
- Configuration supplémentaire
- Migration d'un magasin d'objets d'un volume persistant vers des disques bruts
- Surveillance et alerte
- Migration et mise à niveau
- Automatisée : mise à niveau en ligne
- Automatisée : mise à niveau hors ligne
- Manuel : mise à niveau en ligne
- Manuel : mise à niveau hors ligne
- Annulation en cas d'erreur
- Migration d'un disque physique Longhorn vers LVM
- Migration de Canal vers Cilium CNI
- Rétrogradation de Ceph de la version 16.2.6 à la version 15.2.9
- Options de migration :
- Étape 1 : Déplacement des données d'organisation Identity d'installation autonome vers Automation Suite
- Étape 2 : Restauration de la base de données du produit autonome
- Étape 3 : Sauvegarder la base de données de la plate-forme dans Automation Suite
- Étape 4 : Fusion des organisations dans Automation Suite
- Étape 5 : Mise à jour des chaînes de connexion du produit migré
- Étape 6 : migration de la version autonome d’Insights
- Étape 7 : suppression du locataire par défaut
- B) Migration à locataire unique
- Configuration spécifique au produit
- Bonnes pratiques et maintenance
- Résolution des problèmes
- Comment résoudre les problèmes des services lors de l'installation
- Comment désinstaller le cluster
- Comment nettoyer les artefacts hors ligne pour améliorer l'espace disque
- Comment effacer les données Redis
- Comment activer la journalisation Istio
- Comment nettoyer manuellement les journaux
- Comment nettoyer les anciens journaux stockés dans le compartiment sf-logs
- Comment désactiver les journaux de diffusion pour AI Center
- Comment déboguer les installations d'Automation Suite ayant échoué
- Comment supprimer des images de l’ancien programme d’installation après la mise à niveau
- Comment nettoyer automatiquement les instantanés Longhorn
- Comment désactiver le déchargement de la somme de contrôle txt
- Comment résoudre les chiffrements faibles dans TLS 1.2
- Impossible d'exécuter une installation hors ligne sur le système d'exploitation RHEL 8.4
- Erreur lors du téléchargement du bundle
- L'installation hors ligne échoue en raison d'un fichier binaire manquant
- Problème de certificat dans l'installation hors ligne
- La première installation échoue lors de la configuration de Longhorn
- Erreur de validation de la chaîne de connexion SQL
- Échec de la vérification des prérequis pour le module selinux iscsid
- Disque Azure non marqué comme SSD
- Échec après la mise à jour du certificat
- Automation Suite ne fonctionne pas après la mise à niveau du système d'exploitation
- Automation Suite requiert que Backlog_wait_time soit défini sur 1
- Volume impossible à monter car il n'est pas prêt pour les charges de travail
- RKE2 échoue lors de l'installation et de la mise à niveau
- Échec du chargement ou du téléchargement des données dans l'objectstore
- Le redimensionnement de la PVC ne répare pas Ceph
- Échec du redimensionnement du PVC objectstore
- Rook Ceph ou pod Looker bloqué dans l'état Init
- Erreur de pièce jointe du volume Ensembles d'états.
- Échec de la création de volumes persistants
- Correctif de récupération du stockage
- La sauvegarde a échoué en raison de l’erreur TropInstantanés (TooManySnapshots)
- Toutes les répliques Longhorn sont défaillantes
- Définition d'un délai d'expiration pour les portails de gestion
- Mettre à jour les connexions du répertoire sous-jacent
- Impossible de se connecter après la migration
- kinit : Impossible de trouver le KDC pour le domaine <AD Domain> lors de l'obtention des informations d'identification initiales
- Kinit : Keytab ne contient aucune clé appropriée pour *** lors de l'obtention des informations d'identification initiales
- L'opération GSSAPI a échoué en raison de l'erreur suivante : un code d'état non valide a été fourni (les informations d'identification du client ont été révoquées).
- Alarme reçue pour l'échec de la tâche Kerberos-tgt-update
- Fournisseur SSPI : serveur introuvable dans la base de données Kerberos
- La connexion a échoué pour l'utilisateur <ADDOMAIN><aduser>.Raison : Le compte est désactivé.
- Échec de connexion à ArgoCD
- Impossible d'obtenir l'image du bac à sable
- Les pods ne s'affichent pas dans l'interface utilisateur ArgoCD
- Échec de la sonde Redis
- Le serveur RKE2 ne démarre pas
- Secret introuvable dans l'espace de noms UiPath
- Après l'installation initiale, l'application ArgoCD est passée à l'état Progression (Progressing)
- Pods MongoDB en mode CrashLoopBackOff ou enregistrement PVC en attente après suppression
- INCOHÉRENCE INATTENDUE ; EXÉCUTER fsck MANUELLEMENT
- MongoDB ou applications métier dégradées après la restauration du cluster
- L’opérateur d’auto-guérison et le référentiel Sf-k8-utils manquants
- Services défectueux après la restauration ou la restauration du cluster
- Le pod RabbitMQ est bloqué dans CrashLoopBackOff
- Prometheus en état CrashloopBackoff avec erreur de mémoire insuffisante (OOM)
- Métriques Ceph-rook manquantes dans les tableaux de bord de surveillance
- Les pods ne peuvent pas communiquer avec le nom de domaine complet dans un environnement proxy
- Document Understanding n'est pas affiché sur la barre de gauche d'Automation Suite
- État Échec (Failed) lors de la création d'une session de labellisation des données
- État Échec (Failed) lors de la tentative de déploiement d'une compétence ML
- La tâche de migration échoue dans ArgoCD
- La reconnaissance de l'écriture manuscrite avec l'Extracteur de formulaires intelligents (Intelligent Form Extractor) ne fonctionne pas
- Utilisation de l'outil de diagnostic d'Automation Suite
- Utilisation du pack d'assistance Automation Suite
- Explorer les journaux

Guide d'installation d'Automation Suite
Validation des prérequis dans une configuration d'évaluation à nœud unique
Avant d'installer Automation Suite, il est recommandé de valider les conditions préalables à l'installation et la préparation de l'infrastructure. Vous pouvez utiliser le script dédié pour évaluer votre environnement et générer un résumé avant d'effectuer l'installation.
sf-installer.zip
, et les outils de prise en charge sont regroupés en tant que sf-infra.tar.gz
pour le mode hors connexion uniquement. Vous avez besoin de ces fichiers pour générer un rapport sur toutes les machines sur lesquelles vous prévoyez d'installer Automation Suite.
Type d'installation |
Fichiers à télécharger |
---|---|
En ligne |
sf-installer.zip - Obligatoire. Pour obtenir des instructions de téléchargement, consultez sf-installer.zip.
|
Hors ligne |
sf-installer.zip - Obligatoire. Pour obtenir des instructions de téléchargement, consultez sf-installer.zip.
sf-infra.tar.gz – Obligatoire ( Mandatory). Pour obtenir des instructions de téléchargement, voir sf-infra.tar.gz.
|
-
Devenez root en exécutant la commande suivante :
sudo su -
sudo su - -
Copiez les fichiers dans le dossier
/opt/UiPathAutomationSuite/{version}
en exécutant la commande suivante :VERSION="" #add the version number you are trying to install. Ex: for 2022.4.0 Set VERSION="2022.4.0" mkdir -p /opt/UiPathAutomationSuite/${VERSION} # For below command replace the /path/to where actually the files are present. cp /path/to/sf-installer.zip /opt/UiPathAutomationSuite/${VERSION} # Additionally for offline, copy sf-infra.tar.gz as well to /opt/UiPathAutomationSuite/{VERSION} folder cp /path/to/sf-infra.tar.gz /opt/UiPathAutomationSuite/${VERSION} cd /opt/UiPathAutomationSuite/${VERSION}
VERSION="" #add the version number you are trying to install. Ex: for 2022.4.0 Set VERSION="2022.4.0" mkdir -p /opt/UiPathAutomationSuite/${VERSION} # For below command replace the /path/to where actually the files are present. cp /path/to/sf-installer.zip /opt/UiPathAutomationSuite/${VERSION} # Additionally for offline, copy sf-infra.tar.gz as well to /opt/UiPathAutomationSuite/{VERSION} folder cp /path/to/sf-infra.tar.gz /opt/UiPathAutomationSuite/${VERSION} cd /opt/UiPathAutomationSuite/${VERSION} -
Décompressez le package en exécutant la commande suivante :
unzip sf-installer.zip -d installer
unzip sf-installer.zip -d installer -
Attribuez les autorisations nécessaires et accédez au dossier de script en exécutant la commande suivante :
chmod -R 755 installer cd installer
chmod -R 755 installer cd installer
Pour afficher la section d'aide et les indicateurs pris en charge, exécutez la commande suivante :
./validateUiPathASReadiness.sh --help
./validateUiPathASReadiness.sh --help
Sortie :
***************************************************************************************
validateUiPathASReadiness.sh Runs pre-install validation checks
Arguments:
-i|--input Specify cluster config json file
-m|--machines Comma separated IP address / hostnames of all the machines
-n|--node-type Possible values [server|agent|task-mining|gpu]. Defaults to server
--install-type Possible values [online|offline]. Defaults to online
--install-standalone-aicenter Run checks for standalone aicenter service only
--prereq-bundle </uipath/sf-infra.tar.gz> Specify the path to the prereq bundle, only for offline installation
--prereq-tmp-folder </uipath> Specify parent directory for the temporary install folder, only for offline installation
-h|--help Display help
***************************************************************************************
***************************************************************************************
validateUiPathASReadiness.sh Runs pre-install validation checks
Arguments:
-i|--input Specify cluster config json file
-m|--machines Comma separated IP address / hostnames of all the machines
-n|--node-type Possible values [server|agent|task-mining|gpu]. Defaults to server
--install-type Possible values [online|offline]. Defaults to online
--install-standalone-aicenter Run checks for standalone aicenter service only
--prereq-bundle </uipath/sf-infra.tar.gz> Specify the path to the prereq bundle, only for offline installation
--prereq-tmp-folder </uipath> Specify parent directory for the temporary install folder, only for offline installation
-h|--help Display help
***************************************************************************************
Le tableau suivant décrit les paramètres que vous pouvez utiliser lors de l'exécution du script :
Paramètre |
Description |
---|---|
|
Accepte le fichier
cluster_config.json comme entrée. Ce fichier définit les paramètres et préférences appliqués aux services UiPath déployés via Automation Suite. Pour plus de détails, voir Expérience d'installation avancée ( Advanced Installation Experience) .
Si vous ne fournissez pas ce fichier, le script déclenchera l'expérience interactive pour collecter ces entrées. Le fichier sera ensuite généré en votre nom. |
|
Accepte les adresses IP/noms d'hôte séparés par des virgules de toutes les machines. Cela est nécessaire pour vérifier la connectivité entre tous les nœuds sur le port requis. Le paramètre est obligatoire pour les installations de production multi-nœuds compatibles haute disponibilité. En plus de cela, le paramètre est également requis si vous prévoyez d'ajouter un nœud Task Mining ou GPU dans un cluster d'évaluation à nœud unique. |
|
Accepte le type du nœud actuel. Les valeurs possibles sont :
server , agent , task-mining et gpu .
La valeur par défaut est
server .
|
|
Accepte la méthode d'installation :
online ou offline .
La valeur par défaut est
online .
|
|
Il s'agit d'un indicateur booléen. Acceptez-le si vous prévoyez d'installer AI Center autonome. |
|
Accepte le chemin d'accès absolu où se trouve
sf-infra.tar.gz .
|
|
Accepte le chemin d'accès absolu où le bundle
sf-infra.tar.gz sera temporairement extrait. Si ce chemin n'est pas fourni, le programme d'installation sélectionnera le dossier /tmp .
|
En ligne
Pour valider une machine d'évaluation à nœud unique, exécutez la commande suivante :
./validateUiPathASReadiness.sh \
--node-type server \ # replace server with task-mining, gpu if you wish to install.
--install-type online
./validateUiPathASReadiness.sh \
--node-type server \ # replace server with task-mining, gpu if you wish to install.
--install-type online
Hors ligne
Pour valider une machine à nœud unique, exécutez la commande suivante :
./validateUiPathASReadiness.sh \
--node-type server \
--install-type offline \
--prereq-bundle ../sf-infra.tar.gz \
--prereq-tmp-folder /opt/UiPathAutomationSuite/tmp
./validateUiPathASReadiness.sh \
--node-type server \
--install-type offline \
--prereq-bundle ../sf-infra.tar.gz \
--prereq-tmp-folder /opt/UiPathAutomationSuite/tmp
Pour valider un nœud Task Mining ou GPU, procédez comme suit :
-
Copiez le fichier
cluster_config.json
généré sur la machine serveur sur toutes les machines agent :scp /opt/UiPathAutomationSuite/cluster_config.json <username>@<node dns>:/opt/UiPathAutomationSuite
scp /opt/UiPathAutomationSuite/cluster_config.json <username>@<node dns>:/opt/UiPathAutomationSuiteRemarque :Si vous ne parvenez pas à copier le fichier dans le dossier/opt/UiPathAutomationSuite
en raison d'une erreur d'autorisation, vous pouvez le copier temporairement dans/var/tmp
sur les nouvelles machines, puis le déplacer vers/opt/UiPathAutomationSuite
.Vous pouvez également fournir des autorisations d'accès complètes (777
) au dossier/opt/UiPathAutomationSuite
sur les nouvelles machines, en exécutant la commande suivante :chmod -R 777 /opt/UiPathAutomationSuite
. -
Pour valider l'environnement, exécutez la commande suivante sur les machines agent :
Remarque : si vous exécutez la commande sur un nœud Task Mining ou GPU, remplacez--node-type agent
par--node-type task-mining
ou--node-type gpu
, respectivement.
En ligne
./validateUiPathASReadiness.sh \
--input /opt/UiPathAutomationSuite/cluster_config.json \
--node-type agent \ # replace agent with task-mining, gpu if you wish to install.
--install-type online \ #replace with offline for airgap
--machines "10.0.1.8, 10.0.1.9" #replace with actual machine IP of all the nodes in cluster
./validateUiPathASReadiness.sh \
--input /opt/UiPathAutomationSuite/cluster_config.json \
--node-type agent \ # replace agent with task-mining, gpu if you wish to install.
--install-type online \ #replace with offline for airgap
--machines "10.0.1.8, 10.0.1.9" #replace with actual machine IP of all the nodes in cluster
Hors ligne
./validateUiPathASReadiness.sh \
--input /opt/UiPathAutomationSuite/cluster_config.json \
--node-type agent \ # replace agent with task-mining, gpu if you wish to install.
--install-type online \ #replace with offline for airgap
--machines "10.0.1.8, 10.0.1.9" #replace with actual machine IP of all the nodes in cluster
./validateUiPathASReadiness.sh \
--input /opt/UiPathAutomationSuite/cluster_config.json \
--node-type agent \ # replace agent with task-mining, gpu if you wish to install.
--install-type online \ #replace with offline for airgap
--machines "10.0.1.8, 10.0.1.9" #replace with actual machine IP of all the nodes in cluster