Automation Suite
2023.10
False
Imagen de fondo del banner
Guía de instalación de Automation Suite en EKS / AKS
Última actualización 19 de abr. de 2024

Solución de problemas

Error en la comprobación de estado del Automation Suite Robot

Descripción

Después de instalar Automation Suite en AKS, cuando compruebas el estado del Automation Suite Robot , este devuelve un estado incorrecto: "[POD_UNHEALTHY] El pod asrobots-migraciones-cvzfn del espacio de nombres uipath está en estado fallido.

Posible problema

En raras ocasiones, las migraciones de bases de datos para Orchestrator y Automation Suite Robot pueden ejecutarse al mismo tiempo. En este caso, se produce un error al migrar la base de datos del Automation Suite Robot . En Argo CD, puede ver dos pods de migración: uno con un estado correcto y otro con un estado incorrecto.
docs image

Solución

La migración de la base de datos para el Automation Suite Robot se vuelve a intentar automáticamente y se procesa correctamente. Sin embargo, Argo CD no actualiza el estado. Puede ignorar el estado incorrecto.

Los pods en el espacio de nombres de UiPath se atascaban al habilitar los taints de nodo personalizados

Descripción

Los pods en el espacio de nombres de UiPath no se ejecutan cuando se habilitan los taints de nodo personalizados. Los pods no pueden comunicarse con el webhook adminctl que inyecta tolerancias de pod en un entorno EKS.

Solución

Para solucionar el problema, crea una política de red para permitir el tráfico en el webhook admctl desde el CIDR del clúster o 0.0.0.0/0.
kind: NetworkPolicy
apiVersion: networking.k8s.io/v1
metadata:
  name: allow-all-ingress-to-admctl
  namespace: uipath
spec:
  podSelector:
    matchLabels:
      app: admctl-webhook
  ingress:
    - from:
        - ipBlock:
            cidr: <cluster-pod-cdr> or "0.0.0.0/0"kind: NetworkPolicy
apiVersion: networking.k8s.io/v1
metadata:
  name: allow-all-ingress-to-admctl
  namespace: uipath
spec:
  podSelector:
    matchLabels:
      app: admctl-webhook
  ingress:
    - from:
        - ipBlock:
            cidr: <cluster-pod-cdr> or "0.0.0.0/0"

Los pods no pueden comunicarse con FQDN en un entorno de proxy

Descripción

Los pods no pueden comunicarse con el FQDN en un entorno de proxy y se muestra el siguiente error:

System.Net.Http.HttpRequestException: The proxy tunnel request to proxy 'http://<proxyFQDN>:8080/' failed with status code '404'.System.Net.Http.HttpRequestException: The proxy tunnel request to proxy 'http://<proxyFQDN>:8080/' failed with status code '404'.

Solución

Para solucionar el problema, debes crear un ServiceEntry, como se muestra en el siguiente ejemplo:
apiVersion: networking.istio.io/v1beta1
kind: ServiceEntry
metadata:
  name: proxy
  namespace: uipath
spec:
  hosts:
  - <proxy-host>
  addresses:
  - <proxy-ip>/32
  ports:
  - number: <proxy-port>
    name: tcp
    protocol: TCP
  location: MESH_EXTERNALapiVersion: networking.istio.io/v1beta1
kind: ServiceEntry
metadata:
  name: proxy
  namespace: uipath
spec:
  hosts:
  - <proxy-host>
  addresses:
  - <proxy-ip>/32
  ports:
  - number: <proxy-port>
    name: tcp
    protocol: TCP
  location: MESH_EXTERNAL

El aprovisionamiento de Automation Suite Robots falla

Descripción

El fallo se produce principalmente en los nodos habilitados para FIPS al utilizar Azure Files con el protocolo NFS.

Durante la instalación de Automation Suite en AKS, la creación del PVC para Automation Suite Robots asrobots-pvc-package-cache falla.

Posible problema

Esto sucede porque el clúster de AKS no puede conectarse a Azure Files.

Por ejemplo, puede mostrarse el siguiente mensaje de error:

failed to provision volume with StorageClass "azurefile-csi-nfs": rpc error: code = Internal desc = update service endpoints failed with error: failed to get the subnet ci-asaks4421698 under vnet ci-asaks4421698: &{false 403 0001-01-01 00:00:00 +0000 UTC {"error":{"code":"AuthorizationFailed","message":"The client '4c200854-2a79-4893-9432-3111795beea0' with object id '4c200854-2a79-4893-9432-3111795beea0' does not have authorization to perform action 'Microsoft.Network/virtualNetworks/subnets/read' over scope '/subscriptions/64fdac10-935b-40e6-bf28-f7dc093f7f76/resourceGroups/ci-asaks4421698/providers/Microsoft.Network/virtualNetworks/ci-asaks4421698/subnets/ci-asaks4421698' or the scope is invalid. If access was recently granted, please refresh your credentials."}}}failed to provision volume with StorageClass "azurefile-csi-nfs": rpc error: code = Internal desc = update service endpoints failed with error: failed to get the subnet ci-asaks4421698 under vnet ci-asaks4421698: &{false 403 0001-01-01 00:00:00 +0000 UTC {"error":{"code":"AuthorizationFailed","message":"The client '4c200854-2a79-4893-9432-3111795beea0' with object id '4c200854-2a79-4893-9432-3111795beea0' does not have authorization to perform action 'Microsoft.Network/virtualNetworks/subnets/read' over scope '/subscriptions/64fdac10-935b-40e6-bf28-f7dc093f7f76/resourceGroups/ci-asaks4421698/providers/Microsoft.Network/virtualNetworks/ci-asaks4421698/subnets/ci-asaks4421698' or the scope is invalid. If access was recently granted, please refresh your credentials."}}}

Solución

Para solucionar este problema, debes conceder a Automation Suite acceso al recurso de Azure

  1. En Azure, navega al grupo de recursos de AKS y luego abre la página de red virtual deseada. Por ejemplo, en este caso, la red virtual es ci-asaks4421698.
  2. En la lista Subredes, selecciona la subred deseada. Por ejemplo, en este caso, la subred es ci-asaks4421698.
  3. En la parte superior de la lista de subredes, haz clic en Gestionar usuarios. Se abre la página Control de acceso.
  4. Haz clic en Añadir asignación de rol.
  5. Busca el rol de Colaborador de red.
  6. Selecciona Identidad gestionada.
  7. Cambia a la pestaña Miembros.
  8. Selecciona Identidad gestionada y luego selecciona Kubernetes Service.
  9. Selecciona el nombre del clúster de AKS.
  10. Haz clic en Revisar y Asignar.

Fallo de aprovisionamiento de AI Center después de actualizar a 2023.10

Descripción

Al actualizar de la versión 2023.4.3 a 2023.10, tienes problemas con el aprovisionamiento de AI Center.

El sistema muestra la siguiente excepción y la creación del tenant falla: "exception":"sun.security.pkcs11.wrapper.PKCS11Exception: CKR_KEY_SIZE_RANGE

Solución

Para resolver este problema, debes realizar un reinicio de la implementación ai-trainer. Para ello, ejecuta el siguiente comando:
kubectl -n uipath rollout restart deploy ai-trainer-deploymentkubectl -n uipath rollout restart deploy ai-trainer-deployment

No se puede iniciar Automation Hub y Apps con la configuración de proxy

Descripción

Si utilizas una configuración de proxy, puedes tener problemas al intentar iniciar Automation Hub y Apps.

Solución

Puedes solucionar el problema siguiendo los siguientes pasos:

  1. Captura el configmap coredns existente desde el clúster en ejecución:
    kubectl get configmap -n kube-system coredns -o yaml > coredns-config.yamlkubectl get configmap -n kube-system coredns -o yaml > coredns-config.yaml
  2. Edita el archivo coredns-config.yaml para anexar la reescritura fqdn en la configuración.
    1. Cambia el nombre del configmap a coredns-custom.
    2. Añade el siguiente bloque de código a tu archivo coredns-config.yaml. Asegúrate de que el bloque de código esté antes de la línea kubernetes cluster.local in-addr.arpa ip6.arp.
      rewrite stop {
                  name exact <cluster-fqdn> istio-ingressgateway.istio-system.svc.cluster.local
              }rewrite stop {
                  name exact <cluster-fqdn> istio-ingressgateway.istio-system.svc.cluster.local
              }
    3. Reemplaza <cluster-fqdn> por el valor real.
    Una vez completados estos pasos, tu archivo debe parecerse al siguiente ejemplo:
    apiVersion: v1
    data:
      Corefile: |
        .:53 {
            errors
            log
            health
            rewrite stop {
                name exact mycluster.autosuite.com istio-ingressgateway.istio-system.svc.cluster.local
            }
            kubernetes cluster.local in-addr.arpa ip6.arpa {
              pods insecure
              fallthrough in-addr.arpa ip6.arpa
            }
            prometheus :9153
            forward . /etc/resolv.conf
            cache 30
            loop
            reload
            loadbalance
        }
    kind: ConfigMap
    metadata:
      name: coredns-custom
      namespace: kube-systemapiVersion: v1
    data:
      Corefile: |
        .:53 {
            errors
            log
            health
            rewrite stop {
                name exact mycluster.autosuite.com istio-ingressgateway.istio-system.svc.cluster.local
            }
            kubernetes cluster.local in-addr.arpa ip6.arpa {
              pods insecure
              fallthrough in-addr.arpa ip6.arpa
            }
            prometheus :9153
            forward . /etc/resolv.conf
            cache 30
            loop
            reload
            loadbalance
        }
    kind: ConfigMap
    metadata:
      name: coredns-custom
      namespace: kube-system
  3. Crea el configmap coredns-custom:
    kubectl apply -f coredns-config.yamlkubectl apply -f coredns-config.yaml
  4. Reemplaza la referencia del volumen desde coredns a coredns-custom en la implementación coredns en el espacio de nombres kube-system:
    volumes:
      - emptyDir: {}
        name: tmp
      - configMap:
          defaultMode: 420
          items:
          - key: Corefile
            path: Corefile
          name: coredns-custom
        name: config-volumevolumes:
      - emptyDir: {}
        name: tmp
      - configMap:
          defaultMode: 420
          items:
          - key: Corefile
            path: Corefile
          name: coredns-custom
        name: config-volume
  5. Reinicia la implementación coredns y asegúrate de que los pods coredns estén en funcionamiento sin ningún problema:
    kubectl rollout restart deployment -n kube-system corednskubectl rollout restart deployment -n kube-system coredns
  6. Ahora deberías poder iniciar Automation Hub y Apps.

Was this page helpful?

Obtén la ayuda que necesitas
RPA para el aprendizaje - Cursos de automatización
Foro de la comunidad UiPath
Logotipo blanco de UiPath
Confianza y seguridad
© 2005-2024 UiPath. All rights reserved.