- Vue d'ensemble (Overview)
- Prérequis
- Installation
- Questions et réponses : modèles de déploiement
- Configuration des machines
- Configurer l'équilibreur de charge
- Configuration du DNS
- Configuration de Microsoft SQL Server
- Configuration des certificats
- Installation de production en ligne multi-nœuds compatible haute disponibilité
- Installation de production hors ligne multi-nœuds compatible haute disponibilité
- Téléchargement des packages d'installation
- install-uipath.sh parameters
- Activation du module complémentaire Redis High Availability Add-on pour le cluster
- Fichier de configuration de Document Understanding
- Ajout d'un nœud d'agent dédié avec prise en charge GPU
- Connexion de l'application Task Mining
- Ajout d'un nœud d'agent dédié pour Task Mining
- Post-installation
- Administration du cluster
- Gestion des produits
- Gérer le cluster dans ArgoCD
- Configuration du serveur NFS externe
- Automatisé : activation de la sauvegarde sur le cluster
- Automatisé : Désactivation de la sauvegarde sur le cluster
- Automatisé, en ligne : restauration du cluster
- Manuel, hors ligne : Restauration du cluster
- Manuel : Activation de la sauvegarde sur le cluster
- Manuel : Activation de la sauvegarde sur le cluster
- Manuel en ligne : Restauration du cluster
- Manuel, hors ligne : Restauration du cluster
- Configuration supplémentaire
- Migration d'un magasin d'objets d'un volume persistant vers des disques bruts
- Surveillance et alerte
- Migration et mise à niveau
- Automatisée : mise à niveau en ligne
- Automatisée : mise à niveau hors ligne
- Manuel : mise à niveau en ligne
- Manuel : mise à niveau hors ligne
- Annulation en cas d'erreur
- Migration d'un disque physique Longhorn vers LVM
- Migration de Canal vers Cilium CNI
- Rétrogradation de Ceph de la version 16.2.6 à la version 15.2.9
- Options de migration :
- Étape 1 : Déplacement des données d'organisation Identity d'installation autonome vers Automation Suite
- Étape 2 : Restauration de la base de données du produit autonome
- Étape 3 : Sauvegarder la base de données de la plate-forme dans Automation Suite
- Étape 4 : Fusion des organisations dans Automation Suite
- Étape 5 : Mise à jour des chaînes de connexion du produit migré
- Step 6: Migrating standalone Insights
- Étape 7 : suppression du locataire par défaut
- B) Migration à locataire unique
- Configuration spécifique au produit
- Bonnes pratiques et maintenance
- Résolution des problèmes
- Comment résoudre les problèmes des services lors de l'installation
- Comment désinstaller le cluster
- Comment nettoyer les artefacts hors ligne pour améliorer l'espace disque
- Comment effacer les données Redis
- Comment activer la journalisation Istio
- Comment nettoyer manuellement les journaux
- Comment nettoyer les anciens journaux stockés dans le bundle sf-logs
- Comment désactiver les journaux de diffusion pour AI Center
- Comment déboguer les installations d'Automation Suite ayant échoué
- Comment supprimer des images de l’ancien programme d’installation après la mise à niveau
- Comment nettoyer automatiquement les instantanés Longhorn
- Comment désactiver le déchargement de la somme de contrôle de la carte réseau
- Impossible d'exécuter une installation hors ligne sur le système d'exploitation RHEL 8.4
- Erreur lors du téléchargement du bundle
- L'installation hors ligne échoue en raison d'un fichier binaire manquant
- Problème de certificat dans l'installation hors ligne
- La première installation échoue lors de la configuration de Longhorn
- Erreur de validation de la chaîne de connexion SQL
- Échec de la vérification des prérequis pour le module selinux iscsid
- Disque Azure non marqué comme SSD
- Échec après la mise à jour du certificat
- Automation Suite ne fonctionne pas après la mise à niveau du système d'exploitation
- Automation Suite requiert que Backlog_wait_time soit défini sur 1
- Volume impossible à monter car il n'est pas prêt pour les charges de travail
- RKE2 échoue lors de l'installation et de la mise à niveau
- Échec du chargement ou du téléchargement des données dans l'objectstore
- Le redimensionnement de la PVC ne répare pas Ceph
- Échec du redimensionnement du PVC objectstore
- Rook Ceph ou pod Looker bloqué dans l'état Init
- Erreur de pièce jointe du volume Ensembles d'états.
- Échec de la création de volumes persistants
- Correctif de récupération du stockage
- La sauvegarde a échoué en raison de l’erreur TropInstantanés (TooManySnapshots)
- Toutes les répliques Longhorn sont défaillantes
- Définition d'un délai d'expiration pour les portails de gestion
- Mettre à jour les connexions du répertoire sous-jacent
- Impossible de se connecter après la migration
- Kinit : impossible de trouver le KDC pour le domaine <domaine AD> lors de l’obtention des informations d’identification initiales
- Kinit : Keytab ne contient aucune clé appropriée pour *** lors de l'obtention des informations d'identification initiales
- L'opération GSSAPI a échoué en raison de l'erreur suivante : un code d'état non valide a été fourni (les informations d'identification du client ont été révoquées).
- Alarme reçue pour l'échec de la tâche Kerberos-tgt-update
- Fournisseur SSPI : serveur introuvable dans la base de données Kerberos
- Échec de la connexion de l'utilisateur <ADDOMAIN><aduser>. Raison : le compte est désactivé.
- Échec de connexion à ArgoCD
- Impossible d'obtenir l'image du bac à sable
- Les pods ne s'affichent pas dans l'interface utilisateur ArgoCD
- Échec de la sonde Redis
- Le serveur RKE2 ne démarre pas
- Secret introuvable dans l'espace de noms UiPath
- Après l'installation initiale, l'application ArgoCD est passée à l'état Progression (Progressing)
- Pods MongoDB en mode CrashLoopBackOff ou enregistrement PVC en attente après suppression
- INCOHÉRENCE INATTENDUE ; EXÉCUTER fsck MANUELLEMENT
- MongoDB ou applications métier dégradées après la restauration du cluster
- L’opérateur d’auto-guérison et le référentiel Sf-k8-utils manquants
- Services défectueux après la restauration ou la restauration du cluster
- Le pod RabbitMQ est bloqué dans CrashLoopBackOff
- Prometheus en état CrashloopBackoff avec erreur de mémoire insuffisante (OOM)
- Métriques Ceph-rook manquantes dans les tableaux de bord de surveillance
- Document Understanding n'est pas affiché sur la barre de gauche d'Automation Suite
- État Échec (Failed) lors de la création d'une session de labellisation des données
- État Échec (Failed) lors de la tentative de déploiement d'une compétence ML
- La tâche de migration échoue dans ArgoCD
- La reconnaissance de l'écriture manuscrite avec l'Extracteur de formulaires intelligents (Intelligent Form Extractor) ne fonctionne pas
- Utilisation de l'outil de diagnostic d'Automation Suite
- Utilisation de l'outil Automation Suite Support Bundle
- Explorer les journaux
Architecture de déploiement GCP
Cette page offre un aperçu de l'architecture de déploiement sur GCP, les composants requis et toutes les limitations connues.
-
Réseau virtuel
- Un sous-réseau où résident tous les nœuds.
- Une passerelle NAT pour la connectivité sortante (une ressource Cloud Nat attachée à un routeur cloud) ;
- Règles de pare-feu pour sécuriser le trafic du sous-réseau.
- Une zone privée DNS nécessaire à l'installation. Pour plus de détails, consultez la section Limitations connues.
-
3 Groupes d'instances gérés. Vous pouvez choisir le type d'instance pour les nœuds de serveur et d'agent. Veillez à vérifier les exigences de la machine en mode de production multi-nœuds compatible haute disponibilité ainsi que les exigences de la machine en mode d'évaluation à nœud unique afin de répondre à la configuration matérielle requise. Chaque machine virtuelle dispose d'un système d'exploitation de 128 Go et de fichiers binaires de cluster de 256 Go et d'un disque d'état. Les nœuds de serveur disposent d'un disque de données supplémentaire de 512 Go/2048 Go, selon que les produits AI sont installés ou non.
- Nœuds de serveur (plan de contrôle du cluster). Les nœuds de serveur exécutent également des charges de travail.
- Nœuds d'agent. Conçus pour exécuter uniquement des charges de travail (ils n'ont pas de services de plan de contrôle). Si le nombre de nœuds d'agent souhaités est de 0, un groupe d'instances géré vide est créé.
- Nœuds GPU. Nœuds utilisés spécifiquement pour les modèles ML dotés de cartes vidéo. Si le nombre de nœuds GPU souhaités est de 0, aucun groupe d'instances gérées n'est créé.
- Équilibreur de charge public utilisé pour équilibrer le trafic HTTPS depuis le port
443
vers les nœuds. - 2 équilibreurs de charge internes et 1 groupe d'instances géré nécessaires pour transférer les demandes d'enregistrement de nœud. Les MV ont la plus petite taille d'instance possible.
- Nœud Task Mining déployé en tant que machine virtuelle distincte. Son type d'instance est n2-standard-32.
- Instance de bastion utilisée pour accéder aux autres nœuds. Elle possède une adresse IP publique et SSH activé.
-
Instance de base de données SQL :
- 8 cœurs et 32 Go de RAM
- Taille de disque de 1 000 Go pouvant être étendue manuellement
- Les bases de données sont créées par l'installateur
- Gestionnaire de clés secrètes utilisé pour stocker les informations d'identification générées automatiquement pour le serveur SQL, la plate-forme Automation Suite et la console ArgoCD.
Dns
- En raison du fait qu'un DNS ne peut pas être automatiquement attaché au LB :
- Les étapes de configuration du DNS ne peuvent être effectuées qu'après l'installation, alors qu'elles sont nécessaires lors de l'installation. La zone DNS privée résout ce problème et peut être supprimée en toute sécurité une fois l'installation terminée. Alternativement, à des fins de test, vérifiez l'Étape 4 : Configuration du DNS.
- Les serveurs DNS principaux en amont doivent être forcés à correspondre aux serveurs de noms du nœud. Cela pourrait entraîner la corruption du fichier de configuration rke (
/etc/rancher/rke2/config.yaml
) au redémarrage de la machine virtuelle, ce qui peut avoir un impact sur le processus de mise à niveau post-installation.
RHEL
- Google peut mettre à jour la version RHEL sans préavis, laissant ainsi les déploiements d'Automation Suite en dehors du support. Actuellement, les déploiements manuels à l'aide d'images RHEL personnalisées sont le seul moyen d'obtenir et de rester en support.