- Vue d'ensemble (Overview)
- Prérequis
- Installation
- Questions et réponses : modèles de déploiement
- Configuration des machines
- Configuration du magasin d'objets externe
- Configurer l'équilibreur de charge
- Configuration du DNS
- Configuration de Microsoft SQL Server
- Configuration des certificats
- Installation de production en ligne multi-nœuds compatible haute disponibilité
- Installation de production hors ligne multi-nœuds compatible haute disponibilité
- Téléchargement des packages d'installation
- install-uipath.sh parameters
- Activation du module complémentaire Redis High Availability Add-on pour le cluster
- Fichier de configuration de Document Understanding
- Ajout d'un nœud d'agent dédié avec prise en charge GPU
- Connexion de l'application Task Mining
- Ajout d'un nœud d'agent dédié pour Task Mining
- Ajout d'un nœud d'agent dédié pour les Automation Suite Robots
- Post-installation
- Administration du cluster
- Gestion des produits
- Premiers pas avec le portail d'administration du cluster
- Migration d'un magasin d'objets d'un volume persistant vers des disques bruts
- Migration des données entre les librairies
- Migration d'un magasin d'objets intégré au cluster vers un magasin d'objets externe
- Configuration du nom complet de domaine après l'installation
- Configurer une authentification Kerberos
- Configurer Elasticsearch et Kibana
- Enregistrement des journaux du robot dans Elasticsearch
- Transfert des journaux d'application vers Splunk
- Surveillance et alerte
- Migration et mise à niveau
- Chemins de mise à niveau Automation Suite
- Automatisée : mise à niveau en ligne
- Automatisée : mise à niveau hors ligne
- Manuel : mise à niveau en ligne
- Manuel : mise à niveau hors ligne
- Annulation en cas d'erreur
- Migration d'un disque physique Longhorn vers LVM
- Migration de Canal vers Cilium CNI
- Rétrogradation de Ceph de la version 16.2.6 à la version 15.2.9
- Options de migration :
- Étape 1 : Déplacement des données d'organisation Identity d'installation autonome vers Automation Suite
- Étape 2 : Restauration de la base de données du produit autonome
- Étape 3 : Sauvegarder la base de données de la plate-forme dans Automation Suite
- Étape 4 : Fusion des organisations dans Automation Suite
- Étape 5 : Mise à jour des chaînes de connexion du produit migré
- Étape 6 : migration de la version autonome d’Insights
- Étape 7 : suppression du locataire par défaut
- B) Migration à locataire unique
- Configuration spécifique au produit
- Bonnes pratiques et maintenance
- Résolution des problèmes
- Comment résoudre les problèmes des services lors de l'installation
- Comment désinstaller le cluster
- Comment nettoyer les artefacts hors ligne pour améliorer l'espace disque
- Comment effacer les données Redis
- Comment activer la journalisation Istio
- Comment nettoyer manuellement les journaux
- Comment nettoyer les anciens journaux stockés dans le compartiment sf-logs
- Comment désactiver les journaux de diffusion pour AI Center
- Comment déboguer les installations d'Automation Suite ayant échoué
- Comment supprimer des images de l’ancien programme d’installation après la mise à niveau
- Comment nettoyer automatiquement les instantanés Longhorn
- Comment désactiver le déchargement de la somme de contrôle txt
- Comment résoudre les chiffrements faibles dans TLS 1.2
- Impossible d'exécuter une installation hors ligne sur le système d'exploitation RHEL 8.4
- Erreur lors du téléchargement du bundle
- L'installation hors ligne échoue en raison d'un fichier binaire manquant
- Problème de certificat dans l'installation hors ligne
- La première installation échoue lors de la configuration de Longhorn
- Erreur de validation de la chaîne de connexion SQL
- Échec de la vérification des prérequis pour le module selinux iscsid
- Disque Azure non marqué comme SSD
- Échec après la mise à jour du certificat
- L'antivirus provoque des problèmes d'installation
- Automation Suite ne fonctionne pas après la mise à niveau du système d'exploitation
- Automation Suite requiert que backlog_wait_time soit défini sur 0
- Volume impossible à monter car il n'est pas prêt pour les charges de travail
- Impossible de lancer Automation Hub et Apps avec la configuration proxy
- Échec du chargement ou du téléchargement des données dans l'objectstore
- Le redimensionnement de la PVC ne répare pas Ceph
- Échec du redimensionnement du PVC
- Échec du redimensionnement du PVC objectstore
- Rook Ceph ou pod Looker bloqué dans l'état Init
- Erreur de pièce jointe du volume Ensembles d'états.
- Échec de la création de volumes persistants
- Correctif de récupération du stockage
- La sauvegarde a échoué en raison de l’erreur TropInstantanés (TooManySnapshots)
- Toutes les répliques Longhorn sont défaillantes
- Définition d'un délai d'expiration pour les portails de gestion
- Mettre à jour les connexions du répertoire sous-jacent
- L'authentification ne fonctionne pas après la migration
- kinit : Impossible de trouver le KDC pour le domaine <AD Domain> lors de l'obtention des informations d'identification initiales
- Kinit : Keytab ne contient aucune clé appropriée pour *** lors de l'obtention des informations d'identification initiales
- L'opération GSSAPI a échoué en raison d'un code de statut non valide
- Alarme reçue pour l'échec de la tâche Kerberos-tgt-update
- Fournisseur SSPI : serveur introuvable dans la base de données Kerberos
- La connexion a échoué pour l'utilisateur AD en raison d'un compte désactivé
- Échec de connexion à ArgoCD
- Impossible d'obtenir l'image du bac à sable
- Les pods ne s'affichent pas dans l'interface utilisateur ArgoCD
- Échec de la sonde Redis
- Le serveur RKE2 ne démarre pas
- Secret introuvable dans l'espace de noms UiPath
- ArgoCD passe à l'état Progression (Progressing) après la première installation
- Incohérence inattendue ; exécuter fsck manuellement
- Pods MongoDB en mode CrashLoopBackOff ou enregistrement PVC en attente après suppression
- Le pod MongoDB ne parvient pas à mettre à niveau la version 4.4.4-ent vers la version 5.0.7-ent
- Services défectueux après la restauration ou l'annulation du cluster
- Pods bloqués dans Init:0/X
- Prometheus en état CrashloopBackoff avec erreur de mémoire insuffisante (OOM)
- Métriques Ceph-rook manquantes dans les tableaux de bord de surveillance
- Les pods ne peuvent pas communiquer avec le nom de domaine complet dans un environnement proxy
- Document Understanding n'est pas affiché sur la barre de gauche d'Automation Suite
- État Échec (Failed) lors de la création d'une session de labellisation des données
- État Échec (Failed) lors de la tentative de déploiement d'une compétence ML
- La tâche de migration échoue dans ArgoCD
- La reconnaissance de l'écriture manuscrite avec l'Extracteur de formulaires intelligents (Intelligent Form Extractor) ne fonctionne pas
- Utilisation de l'outil de diagnostic d'Automation Suite
- Utilisation du pack d'assistance Automation Suite
- Explorer les journaux
Guide d'installation d'Automation Suite
Configuration du nom complet de domaine après l'installation
cluster_config.json
pour tous les nœuds du cluster.
fqdn
: mettez à jour ce champ avec le nouveau nom de domaine complet dont vous avez besoin pour accéder au cluster.Important :Le champfqdn
ne prend en charge que les lettres minuscules.
fixed_rke_address
- si cette valeur est identique au champfqdn
danscluster_config.json
, vous devez également mettre à jour cette valeur pour refléter le nouveau nom de domaine complet.Remarque :La modification du nom de domaine complet nécessite également de nouveaux certificats de serveur. Si un nouveau certificat est disponible, vous avez deux options : soit continuer avec le nouveau certificat auto-signé configuré automatiquement par le programme d'installation, soit arrêter l'installation et fournir un nouveau certificat.
Vous pouvez configurer le certificat via le champserver_certificate
danscluster_config.json
.
Pour mettre à jour le nom de domaine complet en mode d'évaluation à nœud unique, procédez comme suit :
- Accédez au dossier
UiPathAutomationSuite
(l'emplacement du bundle d'installation). - Exécutez la commande suivante pour mettre à jour le nom de domaine complet :
En ligne
sudo ./install-uipath.sh -i ./cluster_config.json -o output.json -a --accept-license-agreement
sudo ./install-uipath.sh -i ./cluster_config.json -o output.json -a --accept-license-agreement
Hors ligne
Exécutez la commande suivante pour mettre à jour le nom de domaine complet de l'infrastructure :
sudo ./install-uipath.sh -i ./cluster_config.json -o ./output.json -k --offline-bundle ./sf-infra.tar.gz --offline-tmp-folder /uipath/tmp --accept-license-agreement
sudo ./install-uipath.sh -i ./cluster_config.json -o ./output.json -k --offline-bundle ./sf-infra.tar.gz --offline-tmp-folder /uipath/tmp --accept-license-agreement
Exécutez la commande suivante pour mettre à jour le nom de domaine complet de Fabric et des services :
sudo ./install-uipath.sh -i ./cluster_config.json -o ./output.json -f -s --install-type offline --accept-license-agreement
sudo ./install-uipath.sh -i ./cluster_config.json -o ./output.json -f -s --install-type offline --accept-license-agreement
Mettre à jour le nom de domaine complet en mode de production multi-nœuds compatible haute disponibilité
Pour mettre à jour le nom de domaine complet en mode de production multi-nœuds compatible haute disponibilité, procédez comme suit :
Il existe des variations entre les commandes que vous exécutez sur le premier nœud de serveur, celles que vous exécutez sur les nœuds de serveur subséquents et celles que vous utilisez sur les nœuds d’agent, comme suit :
- L’option
-a
est exclusivement destinée aux commandes exécutées sur le premier nœud de serveur. C’est ici que vous devez exécuter le programme d’installation de Fabric et du service. - L’option
-k
s’applique spécifiquement aux commandes exécutées sur les nœuds de serveur suivants et ignore l’exécution du programme d’installation de Fabric et du service. - L’option
-j server
est utilisée pour faire la distinction entre les nœuds de serveur et les nœuds d’agent.