Automation Suite
2023.10
False
Image de fond de la bannière
Guide d'installation d'Automation Suite sur EKS/AKS
Dernière mise à jour 19 avr. 2024

Résolution des problèmes

Échec de la vérification de l'intégrité du Automation Suite Robot

Description

Après avoir installé Automation Suite sur AKS, lorsque vous vérifiez le statut d'intégrité du pod des Automation Suite Robots, il renvoie un statut défectueux : « [POD_UNHEALTHY] Pod asrobots-migrations-cvzfn in namespace uipath is in Failed status ».

Problème potentiel

En de rares occasions, les migrations de bases de données pour Orchestrator et Automation Suite Robot peuvent s'exécuter simultanément. Dans ce cas, la migration de la base de données du Automation Suite Robot échoue. Dans Argo CD, vous pouvez voir deux pods de migration : un avec un statut sain, un avec un statut défectueux.
docs image

Solution

La migration de la base de données pour Automation Suite Robot est automatiquement relancée et réussie. Cependant, Argo CD ne met pas à jour le statut. Vous pouvez ignorer le statut défectueux.

Pods dans l'espace de noms uipath bloqués lors de l'activation des rejets de nœuds personnalisés

Description

Les pods de l'espace de noms uipath ne s'exécutent pas lorsque les rejets de nœud personnalisés sont activés. Les pods ne peuvent pas communiquer avec le Webhook adminctl qui injecte les tolérances de pod dans un environnement EKS.

Solution

Pour résoudre le problème, créez une stratégie réseau pour autoriser le trafic vers le Webhook admctl à partir du CIDR du cluster ou 0.0.0.0/0.
kind: NetworkPolicy
apiVersion: networking.k8s.io/v1
metadata:
  name: allow-all-ingress-to-admctl
  namespace: uipath
spec:
  podSelector:
    matchLabels:
      app: admctl-webhook
  ingress:
    - from:
        - ipBlock:
            cidr: <cluster-pod-cdr> or "0.0.0.0/0"kind: NetworkPolicy
apiVersion: networking.k8s.io/v1
metadata:
  name: allow-all-ingress-to-admctl
  namespace: uipath
spec:
  podSelector:
    matchLabels:
      app: admctl-webhook
  ingress:
    - from:
        - ipBlock:
            cidr: <cluster-pod-cdr> or "0.0.0.0/0"

Les pods ne peuvent pas communiquer avec le nom de domaine complet dans un environnement proxy

Description

Les pods ne peuvent pas communiquer avec le nom de domaine complet sur un environnement proxy et l'erreur suivante s'affiche :

System.Net.Http.HttpRequestException: The proxy tunnel request to proxy 'http://<proxyFQDN>:8080/' failed with status code '404'.System.Net.Http.HttpRequestException: The proxy tunnel request to proxy 'http://<proxyFQDN>:8080/' failed with status code '404'.

Solution

Pour résoudre le problème, vous devez créer un ServiceEntry, comme illustré dans l'exemple suivant :
apiVersion: networking.istio.io/v1beta1
kind: ServiceEntry
metadata:
  name: proxy
  namespace: uipath
spec:
  hosts:
  - <proxy-host>
  addresses:
  - <proxy-ip>/32
  ports:
  - number: <proxy-port>
    name: tcp
    protocol: TCP
  location: MESH_EXTERNALapiVersion: networking.istio.io/v1beta1
kind: ServiceEntry
metadata:
  name: proxy
  namespace: uipath
spec:
  hosts:
  - <proxy-host>
  addresses:
  - <proxy-ip>/32
  ports:
  - number: <proxy-port>
    name: tcp
    protocol: TCP
  location: MESH_EXTERNAL

L'enregistrement des Automation Suite Robots échoue

Description

L'échec se produit principalement sur des nœuds activés par FIPS lors de l'utilisation d'Azure Files avec le protocole NFS.

Lors de l'installation d'Automation Suite sur AKS, la création du PVC pour le composant Automation Suite Robots asrobots-pvc-package-cache échoue.

Problème potentiel

Cela se produit parce que le cluster AKS ne peut pas se connecter à Azure Files.

Par exemple, le message d'erreur suivant peut s'afficher :

failed to provision volume with StorageClass "azurefile-csi-nfs": rpc error: code = Internal desc = update service endpoints failed with error: failed to get the subnet ci-asaks4421698 under vnet ci-asaks4421698: &{false 403 0001-01-01 00:00:00 +0000 UTC {"error":{"code":"AuthorizationFailed","message":"The client '4c200854-2a79-4893-9432-3111795beea0' with object id '4c200854-2a79-4893-9432-3111795beea0' does not have authorization to perform action 'Microsoft.Network/virtualNetworks/subnets/read' over scope '/subscriptions/64fdac10-935b-40e6-bf28-f7dc093f7f76/resourceGroups/ci-asaks4421698/providers/Microsoft.Network/virtualNetworks/ci-asaks4421698/subnets/ci-asaks4421698' or the scope is invalid. If access was recently granted, please refresh your credentials."}}}failed to provision volume with StorageClass "azurefile-csi-nfs": rpc error: code = Internal desc = update service endpoints failed with error: failed to get the subnet ci-asaks4421698 under vnet ci-asaks4421698: &{false 403 0001-01-01 00:00:00 +0000 UTC {"error":{"code":"AuthorizationFailed","message":"The client '4c200854-2a79-4893-9432-3111795beea0' with object id '4c200854-2a79-4893-9432-3111795beea0' does not have authorization to perform action 'Microsoft.Network/virtualNetworks/subnets/read' over scope '/subscriptions/64fdac10-935b-40e6-bf28-f7dc093f7f76/resourceGroups/ci-asaks4421698/providers/Microsoft.Network/virtualNetworks/ci-asaks4421698/subnets/ci-asaks4421698' or the scope is invalid. If access was recently granted, please refresh your credentials."}}}

Solution

Pour contourner ce problème, vous devez accorder à Automation Suite l'accès à la ressource Azure.

  1. Dans Azure, accédez au groupe de ressources AKS, puis ouvrez la page du réseau virtuel souhaitée. Par exemple, dans ce cas, le réseau virtuel est ci-asaks4421698.
  2. Dans la liste Sous-réseaux (Subnets), sélectionnez le sous-réseau souhaité. Par exemple, dans ce cas, le sous-réseau est ci-asaks4421698.
  3. En haut de la liste des sous-réseaux, cliquez sur Gérer les utilisateurs (Manage Users). La page Contrôle d'accès (Access Control) s'ouvre.
  4. Cliquez sur Ajouter une attribution de rôle (Add role assignation).
  5. Recherchez le rôle Contributeur réseau (Network Contributor).
  6. Sélectionnez Identité gérée (Managed Identity).
  7. Basculez sur l'onglet Membres (Members).
  8. Sélectionnez Identité gérée (Managed Identity), puis Kubernetes Service.
  9. Sélectionnez le nom du cluster AKS.
  10. Cliquez sur Examiner et affecter (Review and Assign).

Échec de l'enregistrement d'AI Center après la mise à niveau vers 2023.10

Description

Lors de la mise à niveau de 2023.4.3 vers 2023.10, vous rencontrez des problèmes avec l'enregistrement d'AI Center.

Le système affiche l’exception suivante et la création du locataire échoue : "exception":"sun.security.pkcs11.wrapper.PKCS11Exception: CKR_KEY_SIZE_RANGE

Solution

Pour résoudre ce problème, vous devez effectuer un redémarrage du déploiement de ai-trainer. Pour ce faire, exécutez la commande suivante :
kubectl -n uipath rollout restart deploy ai-trainer-deploymentkubectl -n uipath rollout restart deploy ai-trainer-deployment

Impossible de lancer Automation Hub et Apps avec la configuration proxy

Description

Si vous utilisez une configuration proxy, vous pouvez rencontrer des problèmes lors de la tentative de lancement d’Automation Hub et d'Apps.

Solution

Vous pouvez résoudre le problème en procédant comme suit :

  1. Capturez l'objet configmap coredns existant à partir du cluster en cours d'exécution :
    kubectl get configmap -n kube-system coredns -o yaml > coredns-config.yamlkubectl get configmap -n kube-system coredns -o yaml > coredns-config.yaml
  2. Modifiez le fichier coredns-config.yaml pour ajouter la réécriture de fqdn à la configuration.
    1. Renommez l'objet configmap en coredns-custom.
    2. Ajoutez le bloc de code suivant à votre fichier coredns-config.yaml. Assurez-vous que le bloc de code se trouve avant la ligne kubernetes cluster.local in-addr.arpa ip6.arp.
      rewrite stop {
                  name exact <cluster-fqdn> istio-ingressgateway.istio-system.svc.cluster.local
              }rewrite stop {
                  name exact <cluster-fqdn> istio-ingressgateway.istio-system.svc.cluster.local
              }
    3. Remplacez <cluster-fqdn> par la valeur réelle.
    Une fois que vous avez terminé ces étapes, votre fichier devrait ressembler à l'exemple suivant :
    apiVersion: v1
    data:
      Corefile: |
        .:53 {
            errors
            log
            health
            rewrite stop {
                name exact mycluster.autosuite.com istio-ingressgateway.istio-system.svc.cluster.local
            }
            kubernetes cluster.local in-addr.arpa ip6.arpa {
              pods insecure
              fallthrough in-addr.arpa ip6.arpa
            }
            prometheus :9153
            forward . /etc/resolv.conf
            cache 30
            loop
            reload
            loadbalance
        }
    kind: ConfigMap
    metadata:
      name: coredns-custom
      namespace: kube-systemapiVersion: v1
    data:
      Corefile: |
        .:53 {
            errors
            log
            health
            rewrite stop {
                name exact mycluster.autosuite.com istio-ingressgateway.istio-system.svc.cluster.local
            }
            kubernetes cluster.local in-addr.arpa ip6.arpa {
              pods insecure
              fallthrough in-addr.arpa ip6.arpa
            }
            prometheus :9153
            forward . /etc/resolv.conf
            cache 30
            loop
            reload
            loadbalance
        }
    kind: ConfigMap
    metadata:
      name: coredns-custom
      namespace: kube-system
  3. Créez l'objet configmap coredns-custom :
    kubectl apply -f coredns-config.yamlkubectl apply -f coredns-config.yaml
  4. Remplacez la référence de volume coredns par coredns-custom dans le déploiement coredns dans l'espace de noms kube-system :
    volumes:
      - emptyDir: {}
        name: tmp
      - configMap:
          defaultMode: 420
          items:
          - key: Corefile
            path: Corefile
          name: coredns-custom
        name: config-volumevolumes:
      - emptyDir: {}
        name: tmp
      - configMap:
          defaultMode: 420
          items:
          - key: Corefile
            path: Corefile
          name: coredns-custom
        name: config-volume
  5. Redémarrez le déploiement coredns et assurez-vous que les pods coredns sont opérationnels et ne présentent aucun problème :
    kubectl rollout restart deployment -n kube-system corednskubectl rollout restart deployment -n kube-system coredns
  6. Vous devriez maintenant pouvoir lancer Automation Hub et Apps.

Cette page vous a-t-elle été utile ?

Obtenez l'aide dont vous avez besoin
Formation RPA - Cours d'automatisation
Forum de la communauté UiPath
Logo Uipath blanc
Confiance et sécurité
© 2005-2024 UiPath. All rights reserved.