- Vue d'ensemble (Overview)
- Prérequis
- Installation
- Vérifications des prérequis
- Téléchargement des packages d'installation
- cluster uipathctl
- maintenance du cluster uipathctl
- uipathctl cluster maintenance disable
- uipathctl cluster maintenance enable
- uipathctl cluster maintenance is-enabled
- uipathctl cluster migration
- uipathctl cluster migration export
- uipathctl cluster migration import
- uipathctl cluster migration run
- mise à niveau du cluster uipathctl
- Configuration uipathctl
- uipathctl config add-host-admin
- uipathctl config additional-ca-certificates
- uipathctl config additional-ca-certificates get
- uipathctl config additional-ca-certificates update
- alertes de configuration uipathctl
- uipathctl - configuration des alertes - ajouter une adresse e-mail
- uipathctl config alerts remove-email
- uipathctl config alerts update-email
- uipathctl config argocd
- uipathctl config argocd ca-certificates
- uipathctl config argocd ca-certificates get
- uipathctl config argocd ca-certificates update
- uipathctl config argocd generate-dex-config
- uipathctl config argocd generate-rbac
- uipathctl config argocd registry
- uipathctl config argocd registry get
- uipathctl config argocd registry update
- uipathctl config enable-basic-auth
- uipathctl config Orchestrator
- uipathctl config Orchestrator get-config
- uipathctl config orchestrator update-config
- uipathctl config saml-certificates get
- uipathctl config saml-certificates rotate
- uipathctl config saml-certificates update
- uipathctl config tls-certificates
- uipathctl config tls-certificates get
- uipathctl config tls-certificates update
- uipathctl config token-signing-certificates
- uipathctl config token-signing-certificates get
- uipathctl config token-signing-certificates rotate
- uipathctl config token-signing-certificates update
- uipathctl santé
- bundle d'intégrité uipathctl
- vérification de l'état uipathctl
- uipathctl health diagnose
- uipathctl health test
- manifeste uipathctl
- uipathctl manifest apply
- uipathctl manifest diff
- uipathctl manifest get
- uipathctl manifest get-revision
- uipathctl manifeste liste-applications
- uipathctl manifest list-revisions
- uipathctl manifest render
- uipathctl prérequis
- uipathctl prereq create
- uipathctl prereq run
- Ressource uipathctl
- rapport de ressource uipathctl
- instantané uipathctl
- sauvegarde d'instantané uipathctl
- uipathctl snapshot backup create
- uipathctl snapshot backup disable
- uipathctl snapshot backup enable
- uipathctl snapshot delete
- uipathctl snapshot list
- uipathctl snapshot restore
- uipathctl snapshot restore create
- uipathctl snapshot restore delete
- uipathctl snapshot restore history
- uipathctl snapshot restore logs
- uipathctl version
- Post-installation
- Migration et mise à niveau
- Mise à niveau d'Automation Suite sur EKS/AKS
- Étape 1 : Déplacement des données d'organisation Identity d'installation autonome vers Automation Suite
- Étape 2 : Restauration de la base de données du produit autonome
- Étape 3 : Sauvegarder la base de données de la plate-forme dans Automation Suite
- Étape 4 : Fusion des organisations dans Automation Suite
- Étape 5 : Mise à jour des chaînes de connexion du produit migré
- Étape 6 : migration de la version autonome d'Orchestrator
- Étape 7 : Migration d’Insights en version autonome
- Étape 8 : suppression du locataire par défaut
- B) Migration à locataire unique
- Migration d'Automation Suite sur Linux vers Automation Suite sur EKS/AKS
- Surveillance et alerte
- Administration du cluster
- Configuration spécifique au produit
- Utilisation de l'outil Orchestrator Configurator
- Configuration des paramètres d'Orchestrator
- Paramètres de l'application Orchestrator
- Configuration des paramètres d'application
- Configuration de la taille maximale de la requête
- Remplacement de la configuration du stockage au niveau du cluster
- Configuration des magasins d'informations d'identification
- Configuration de la clé de chiffrement par locataire
- Résolution des problèmes
- Résolution des problèmes
Résolution des problèmes
Après avoir installé Automation Suite sur AKS, lorsque vous vérifiez le statut d'intégrité du pod des Automation Suite Robots, il renvoie un statut défectueux : « [POD_UNHEALTHY] Pod asrobots-migrations-cvzfn in namespace uipath is in Failed status ».
Les pods de l'espace de noms uipath ne s'exécutent pas lorsque les rejets de nœud personnalisés sont activés. Les pods ne peuvent pas communiquer avec le Webhook adminctl qui injecte les tolérances de pod dans un environnement EKS.
admctl
à partir du CIDR du cluster ou 0.0.0.0/0
.
kind: NetworkPolicy
apiVersion: networking.k8s.io/v1
metadata:
name: allow-all-ingress-to-admctl
namespace: uipath
spec:
podSelector:
matchLabels:
app: admctl-webhook
ingress:
- from:
- ipBlock:
cidr: <cluster-pod-cdr> or "0.0.0.0/0"
kind: NetworkPolicy
apiVersion: networking.k8s.io/v1
metadata:
name: allow-all-ingress-to-admctl
namespace: uipath
spec:
podSelector:
matchLabels:
app: admctl-webhook
ingress:
- from:
- ipBlock:
cidr: <cluster-pod-cdr> or "0.0.0.0/0"
Les pods ne peuvent pas communiquer avec le nom de domaine complet sur un environnement proxy et l'erreur suivante s'affiche :
System.Net.Http.HttpRequestException: The proxy tunnel request to proxy 'http://<proxyFQDN>:8080/' failed with status code '404'.
System.Net.Http.HttpRequestException: The proxy tunnel request to proxy 'http://<proxyFQDN>:8080/' failed with status code '404'.
ServiceEntry
, comme illustré dans l'exemple suivant :
apiVersion: networking.istio.io/v1beta1
kind: ServiceEntry
metadata:
name: proxy
namespace: uipath
spec:
hosts:
- <proxy-host>
addresses:
- <proxy-ip>/32
ports:
- number: <proxy-port>
name: tcp
protocol: TCP
location: MESH_EXTERNAL
apiVersion: networking.istio.io/v1beta1
kind: ServiceEntry
metadata:
name: proxy
namespace: uipath
spec:
hosts:
- <proxy-host>
addresses:
- <proxy-ip>/32
ports:
- number: <proxy-port>
name: tcp
protocol: TCP
location: MESH_EXTERNAL
L'échec se produit principalement sur des nœuds activés par FIPS lors de l'utilisation d'Azure Files avec le protocole NFS.
asrobots-pvc-package-cache
échoue.
Cela se produit parce que le cluster AKS ne peut pas se connecter à Azure Files.
Par exemple, le message d'erreur suivant peut s'afficher :
failed to provision volume with StorageClass "azurefile-csi-nfs": rpc error: code = Internal desc = update service endpoints failed with error: failed to get the subnet ci-asaks4421698 under vnet ci-asaks4421698: &{false 403 0001-01-01 00:00:00 +0000 UTC {"error":{"code":"AuthorizationFailed","message":"The client '4c200854-2a79-4893-9432-3111795beea0' with object id '4c200854-2a79-4893-9432-3111795beea0' does not have authorization to perform action 'Microsoft.Network/virtualNetworks/subnets/read' over scope '/subscriptions/64fdac10-935b-40e6-bf28-f7dc093f7f76/resourceGroups/ci-asaks4421698/providers/Microsoft.Network/virtualNetworks/ci-asaks4421698/subnets/ci-asaks4421698' or the scope is invalid. If access was recently granted, please refresh your credentials."}}}
failed to provision volume with StorageClass "azurefile-csi-nfs": rpc error: code = Internal desc = update service endpoints failed with error: failed to get the subnet ci-asaks4421698 under vnet ci-asaks4421698: &{false 403 0001-01-01 00:00:00 +0000 UTC {"error":{"code":"AuthorizationFailed","message":"The client '4c200854-2a79-4893-9432-3111795beea0' with object id '4c200854-2a79-4893-9432-3111795beea0' does not have authorization to perform action 'Microsoft.Network/virtualNetworks/subnets/read' over scope '/subscriptions/64fdac10-935b-40e6-bf28-f7dc093f7f76/resourceGroups/ci-asaks4421698/providers/Microsoft.Network/virtualNetworks/ci-asaks4421698/subnets/ci-asaks4421698' or the scope is invalid. If access was recently granted, please refresh your credentials."}}}
Pour contourner ce problème, vous devez accorder à Automation Suite l'accès à la ressource Azure.
- Dans Azure, accédez au groupe de ressources AKS, puis ouvrez la page du réseau virtuel souhaitée. Par exemple, dans ce cas, le réseau virtuel est
ci-asaks4421698
. - Dans la liste Sous-réseaux (Subnets), sélectionnez le sous-réseau souhaité. Par exemple, dans ce cas, le sous-réseau est
ci-asaks4421698
. - En haut de la liste des sous-réseaux, cliquez sur Gérer les utilisateurs (Manage Users). La page Contrôle d'accès (Access Control) s'ouvre.
- Cliquez sur Ajouter une attribution de rôle (Add role assignation).
- Recherchez le rôle Contributeur réseau (Network Contributor).
- Sélectionnez Identité gérée (Managed Identity).
- Basculez sur l'onglet Membres (Members).
- Sélectionnez Identité gérée (Managed Identity), puis Kubernetes Service.
- Sélectionnez le nom du cluster AKS.
- Cliquez sur Examiner et affecter (Review and Assign).
Lors de la mise à niveau de 2023.4.3 vers 2023.10, vous rencontrez des problèmes avec l'enregistrement d'AI Center.
"exception":"sun.security.pkcs11.wrapper.PKCS11Exception: CKR_KEY_SIZE_RANGE
Vous pouvez résoudre le problème en procédant comme suit :
-
Capturez l'objet configmap
coredns
existant à partir du cluster en cours d'exécution :kubectl get configmap -n kube-system coredns -o yaml > coredns-config.yaml
kubectl get configmap -n kube-system coredns -o yaml > coredns-config.yaml -
Modifiez le fichier
coredns-config.yaml
pour ajouter la réécriture defqdn
à la configuration.-
Renommez l'objet configmap en
coredns-custom
. -
Ajoutez le bloc de code suivant à votre fichier
coredns-config.yaml
. Assurez-vous que le bloc de code se trouve avant la lignekubernetes cluster.local in-addr.arpa ip6.arp
.rewrite stop { name exact <cluster-fqdn> istio-ingressgateway.istio-system.svc.cluster.local }
rewrite stop { name exact <cluster-fqdn> istio-ingressgateway.istio-system.svc.cluster.local } -
Remplacez
<cluster-fqdn>
par la valeur réelle.
apiVersion: v1 data: Corefile: | .:53 { errors log health rewrite stop { name exact mycluster.autosuite.com istio-ingressgateway.istio-system.svc.cluster.local } kubernetes cluster.local in-addr.arpa ip6.arpa { pods insecure fallthrough in-addr.arpa ip6.arpa } prometheus :9153 forward . /etc/resolv.conf cache 30 loop reload loadbalance } kind: ConfigMap metadata: name: coredns-custom namespace: kube-system
apiVersion: v1 data: Corefile: | .:53 { errors log health rewrite stop { name exact mycluster.autosuite.com istio-ingressgateway.istio-system.svc.cluster.local } kubernetes cluster.local in-addr.arpa ip6.arpa { pods insecure fallthrough in-addr.arpa ip6.arpa } prometheus :9153 forward . /etc/resolv.conf cache 30 loop reload loadbalance } kind: ConfigMap metadata: name: coredns-custom namespace: kube-system -
-
Créez l'objet configmap
coredns-custom
:kubectl apply -f coredns-config.yaml
kubectl apply -f coredns-config.yaml -
Remplacez la référence de volume
coredns
parcoredns-custom
dans le déploiementcoredns
dans l'espace de nomskube-system
:volumes: - emptyDir: {} name: tmp - configMap: defaultMode: 420 items: - key: Corefile path: Corefile name: coredns-custom name: config-volume
volumes: - emptyDir: {} name: tmp - configMap: defaultMode: 420 items: - key: Corefile path: Corefile name: coredns-custom name: config-volume -
Redémarrez le déploiement
coredns
et assurez-vous que les podscoredns
sont opérationnels et ne présentent aucun problème :kubectl rollout restart deployment -n kube-system coredns
kubectl rollout restart deployment -n kube-system coredns -
Vous devriez maintenant pouvoir lancer Automation Hub et Apps.
- Échec de la vérification de l'intégrité du Automation Suite Robot
- Description
- Problème potentiel
- Solution
- Pods dans l'espace de noms uipath bloqués lors de l'activation des rejets de nœuds personnalisés
- Description
- Solution
- Les pods ne peuvent pas communiquer avec le nom de domaine complet dans un environnement proxy
- Description
- Solution
- L'enregistrement des Automation Suite Robots échoue
- Description
- Problème potentiel
- Solution
- Échec de l'enregistrement d'AI Center après la mise à niveau vers 2023.10
- Description
- Solution
- Impossible de lancer Automation Hub et Apps avec la configuration proxy
- Description
- Solution