- Vue d'ensemble (Overview)
- Prérequis
- Pré-installation
- Installation
- Post-installation
- Migration et mise à niveau
- Mettre à niveau Automation Suite
- Migration de produits autonomes vers Automation Suite
- Étape 1 : Restauration de la base de données du produit autonome
- Étape 2 : Mise à jour du schéma de la base de données de produits restaurée
- Étape 3 : Déplacement des données d’organisation depuis une version autonome d’Identity vers Automation Suite
- Étape 4 : Sauvegarder la base de données de la plate-forme dans Automation Suite
- Étape 5 : Fusion des organisations dans Automation Suite
- Étape 6 : Mise à jour des chaînes de connexion du produit migré
- Étape 7 : migration de la version autonome d'Orchestrator
- Étape 8 : migration de la version autonome d’Insights
- Étape 9 : Migration de Test Manager en version autonome
- Étape 10 : suppression du locataire par défaut
- Exécution d'une seule migration de locataire
- Migration entre les clusters Automation Suite
- Migration d' Automation Suite sur EKS/AKS vers Automation Suite sur OpenShift
- Surveillance et alerte
- Administration du cluster
- Configuration spécifique au produit
- Configuration des paramètres d'Orchestrator
- Configuration des paramètres d'application
- Configuration de la taille maximale de la requête
- Remplacement de la configuration du stockage au niveau du cluster
- Configuration de NLog
- Enregistrement des journaux du robot dans Elasticsearch
- Configuration des magasins d'informations d'identification
- Configuration de la clé de chiffrement par locataire
- Nettoyer la base de données Orchestrator
- Rotation des informations d’identification de stockage d’objets blob
- Désactivation de l'utilisation d'URL pré-signées lors du téléchargement de données vers le stockage Amazon S3
- Configuration de la sécurité de l'application de processus
- Configurer une authentification Kerberos avec l’authentification MSSQL de base pour Process Mining
- Résolution des problèmes
- Impossible d’accéder à Automation Hub après la mise à niveau vers Automation Suite 2024.10.0
- Échec de l’enregistrement d’AI Center après la mise à niveau vers la version 2023.10 ou une version ultérieure
- Volumes Insights créés dans deux zones différentes après la migration
- La mise à niveau échoue en raison du remplacement des tailles de PVC Insights
- La configuration de sauvegarde ne fonctionne pas en raison d’un échec de connexion à Azure Government
- Pods dans l'espace de noms uipath bloqués lors de l'activation des rejets de nœuds personnalisés
- Impossible de lancer Automation Hub et Apps avec la configuration proxy
- Le Robot ne peut pas se connecter à une instance Automation Suite Orchestrator
- La diffusion des journaux ne fonctionne pas dans les configurations proxy
- La sauvegarde de Velero échoue avec l'erreur FailedValidation
- L'accès au nom de domaine complet renvoie RBAC : erreur d'accès refusé

Guide d'installation d'Automation Suite sur EKS/AKS
Application de diverses configurations
Appliquez les configurations de cette section uniquement si vous ne pouvez pas fournir de privilèges d'administrateur au programme d'installation d'Automation Suite. Si vous pouvez fournir les autorisations requises au programme d'installation, vous n'avez pas besoin d'appliquer les configurations dans cette section.
Création d'une classe de priorité
Pour créer une classe de priorité pour les applications UiPath®, procédez comme suit :
- Enregistrez la configuration suivante sous forme de fichier YAML :
--- apiVersion: scheduling.k8s.io/v1 kind: PriorityClass metadata: name: uipath-high-priority value: 1000000 preemptionPolicy: PreemptLowerPriority globalDefault: false description: "Priority class for uipath applications"--- apiVersion: scheduling.k8s.io/v1 kind: PriorityClass metadata: name: uipath-high-priority value: 1000000 preemptionPolicy: PreemptLowerPriority globalDefault: false description: "Priority class for uipath applications" - Exécutez la commande suivante, en remplaçant l'espace réservé
<file_name.yaml>par le nom réel de votre fichier YAML :kubectl apply -f <file_name.yaml>kubectl apply -f <file_name.yaml>
Labellisation des espaces de noms
Pour créer des libellés d'espace de noms, exécutez les commandes suivantes :
kubectl label namespace <uipath> uipath-injection=enabled
kubectl label namespace <uipath> istio-injection=enabled
kubectl label namespace <uipath> uipath-injection=enabled
kubectl label namespace <uipath> istio-injection=enabled
Configuration de CoreDNS
Si vous utilisez une configuration proxy, des modifications de configuration CoreDNS spécifiques sont requises pour garantir une installation et un fonctionnement réussis d'Automation Hub et d'Apps.
Nous vous recommandons d'ajouter cela aux paramètres CoreDNS car il permet à toutes les requêtes de service à service, qui utilisent le FQDN du cluster, de contourner l'équilibreur de charge et de s'acheminer en interne via Istio.
Suivez ces étapes pour configurer votre cluster lors de l'installation :
-
Capturez l'objet configmap
corednsexistant à partir du cluster en cours d'exécution :kubectl get configmap -n kube-system coredns -o yaml > coredns-config.yamlkubectl get configmap -n kube-system coredns -o yaml > coredns-config.yaml -
Modifiez le fichier
coredns-config.yamlpour ajouter la réécriture defqdnà la configuration.- Renommez l'objet configmap en
coredns-custom. - Ajoutez le bloc de code suivant à votre fichier
coredns-config.yaml. Assurez-vous que le bloc de code se trouve avant la lignekubernetes cluster.local in-addr.arpa ip6.arp.rewrite stop { name exact <cluster-fqdn> istio-ingressgateway.istio-system.svc.cluster.local }rewrite stop { name exact <cluster-fqdn> istio-ingressgateway.istio-system.svc.cluster.local } - Remplacez
<cluster-fqdn>par la valeur réelle.
Une fois que vous avez terminé ces étapes, votre fichier devrait ressembler à l'exemple suivant :
apiVersion: v1 data: Corefile: | .:53 { errors log health rewrite stop { name exact mycluster.autosuite.com istio-ingressgateway.istio-system.svc.cluster.local } kubernetes cluster.local in-addr.arpa ip6.arpa { pods insecure fallthrough in-addr.arpa ip6.arpa } prometheus :9153 forward . /etc/resolv.conf cache 30 loop reload loadbalance } kind: ConfigMap metadata: name: coredns-custom namespace: kube-systemapiVersion: v1 data: Corefile: | .:53 { errors log health rewrite stop { name exact mycluster.autosuite.com istio-ingressgateway.istio-system.svc.cluster.local } kubernetes cluster.local in-addr.arpa ip6.arpa { pods insecure fallthrough in-addr.arpa ip6.arpa } prometheus :9153 forward . /etc/resolv.conf cache 30 loop reload loadbalance } kind: ConfigMap metadata: name: coredns-custom namespace: kube-system - Renommez l'objet configmap en
-
Créez l'objet configmap
coredns-custom:kubectl apply -f coredns-config.yamlkubectl apply -f coredns-config.yaml -
Remplacez la référence de volume
corednsparcoredns-customdans le déploiementcorednsdans l'espace de nomskube-system:volumes: - emptyDir: {} name: tmp - configMap: defaultMode: 420 items: - key: Corefile path: Corefile name: coredns-custom name: config-volumevolumes: - emptyDir: {} name: tmp - configMap: defaultMode: 420 items: - key: Corefile path: Corefile name: coredns-custom name: config-volume -
Redémarrez le déploiement
corednset assurez-vous que les podscorednssont opérationnels et ne présentent aucun problème :kubectl rollout restart deployment -n kube-system corednskubectl rollout restart deployment -n kube-system coredns
Une fois ces étapes terminées, Automation Hub et Apps devraient se lancer avec succès dans l'environnement activé par le proxy.