Automation Suite
2023.10
falso
Imagem de fundo do banner
Automation Suite no guia de instalação do EKS/AKS
Última atualização 19 de abr de 2024

Solução de problemas

A verificação de integridade do Automation Suite Robot falha

Description

Após instalar o Automation Suite no AKS, quando você verifica o status de integridade do pod do Automation Suite Robot , ele retorna um status não corrompido: "[POD_UNHEALTHY] O pod asrobots-migrations-cvzfn in namespace uipath está com status de Falha".

Problema potencial

Em ocasiões raras, as migrações de banco de dados para o Orchestrator e o Automation Suite Robot podem ser executadas ao mesmo tempo. Nesse caso, a migração do banco de dados do Automation Suite Robot falha. No ArgoCD, você pode ver dois pods de migração: um com status íntegra, outro com status não opções.
docs image

Solução

A migração do banco de dados para o Automation Suite Robot é repetida automaticamente e renderiza com sucesso. No entanto, o ArgoCD não atualiza o status. Você pode ignorar o status não íntegro.

Pods no namespace uipath travaram ao habilitar taints de nó personalizado

Description

Os pods no namespace uipath não estão em execução quando os taints de nó personalizados estão habilitados. Os pods não podem se comunicar com o webhook adminctl que injeta tolerâncias de pod em um ambiente EKS.

Solução

Para corrigir o problema, crie uma política de rede para permitir o tráfego para o webhook admctl a partir do CIDR do cluster ou 0.0.0.0/0.
kind: NetworkPolicy
apiVersion: networking.k8s.io/v1
metadata:
  name: allow-all-ingress-to-admctl
  namespace: uipath
spec:
  podSelector:
    matchLabels:
      app: admctl-webhook
  ingress:
    - from:
        - ipBlock:
            cidr: <cluster-pod-cdr> or "0.0.0.0/0"kind: NetworkPolicy
apiVersion: networking.k8s.io/v1
metadata:
  name: allow-all-ingress-to-admctl
  namespace: uipath
spec:
  podSelector:
    matchLabels:
      app: admctl-webhook
  ingress:
    - from:
        - ipBlock:
            cidr: <cluster-pod-cdr> or "0.0.0.0/0"

Os pods não podem se comunicar com o FQDN em um ambiente de proxy

Description

Os pods não podem se comunicar com o FQDN em um ambiente de proxy, e o seguinte erro é exibido:

System.Net.Http.HttpRequestException: The proxy tunnel request to proxy 'http://<proxyFQDN>:8080/' failed with status code '404'.System.Net.Http.HttpRequestException: The proxy tunnel request to proxy 'http://<proxyFQDN>:8080/' failed with status code '404'.

Solução

Para corrigir o problema, você deve criar um ServiceEntry, conforme mostrado no exemplo a seguir:
apiVersion: networking.istio.io/v1beta1
kind: ServiceEntry
metadata:
  name: proxy
  namespace: uipath
spec:
  hosts:
  - <proxy-host>
  addresses:
  - <proxy-ip>/32
  ports:
  - number: <proxy-port>
    name: tcp
    protocol: TCP
  location: MESH_EXTERNALapiVersion: networking.istio.io/v1beta1
kind: ServiceEntry
metadata:
  name: proxy
  namespace: uipath
spec:
  hosts:
  - <proxy-host>
  addresses:
  - <proxy-ip>/32
  ports:
  - number: <proxy-port>
    name: tcp
    protocol: TCP
  location: MESH_EXTERNAL

O provisionamento do Automation Suite Robots falha

Description

A falha ocorre principalmente em nós habilitados para o FIPS ao usar o Azure Files com o protocolo do NFS.

Durante a instalação do Automation Suite no AKS, a criação do PVC para o Automation Suite Robots asrobots-pvc-package-cache falha.

Problema potencial

Isso acontece porque o cluster do AKS não pode se conectar ao Azure Files.

Por exemplo, a seguinte mensagem de erro pode ser exibida:

failed to provision volume with StorageClass "azurefile-csi-nfs": rpc error: code = Internal desc = update service endpoints failed with error: failed to get the subnet ci-asaks4421698 under vnet ci-asaks4421698: &{false 403 0001-01-01 00:00:00 +0000 UTC {"error":{"code":"AuthorizationFailed","message":"The client '4c200854-2a79-4893-9432-3111795beea0' with object id '4c200854-2a79-4893-9432-3111795beea0' does not have authorization to perform action 'Microsoft.Network/virtualNetworks/subnets/read' over scope '/subscriptions/64fdac10-935b-40e6-bf28-f7dc093f7f76/resourceGroups/ci-asaks4421698/providers/Microsoft.Network/virtualNetworks/ci-asaks4421698/subnets/ci-asaks4421698' or the scope is invalid. If access was recently granted, please refresh your credentials."}}}failed to provision volume with StorageClass "azurefile-csi-nfs": rpc error: code = Internal desc = update service endpoints failed with error: failed to get the subnet ci-asaks4421698 under vnet ci-asaks4421698: &{false 403 0001-01-01 00:00:00 +0000 UTC {"error":{"code":"AuthorizationFailed","message":"The client '4c200854-2a79-4893-9432-3111795beea0' with object id '4c200854-2a79-4893-9432-3111795beea0' does not have authorization to perform action 'Microsoft.Network/virtualNetworks/subnets/read' over scope '/subscriptions/64fdac10-935b-40e6-bf28-f7dc093f7f76/resourceGroups/ci-asaks4421698/providers/Microsoft.Network/virtualNetworks/ci-asaks4421698/subnets/ci-asaks4421698' or the scope is invalid. If access was recently granted, please refresh your credentials."}}}

Solução

Para superar esse problema, você precisa conceder ao Automation Suite acesso ao recurso do Azure

  1. No Azure, navegue até o grupo de recursos do AKS e abra a página da rede virtual desejada. Por exemplo, neste caso, a rede virtual é ci-asaks4421698.
  2. Na lista Sub-redes, selecione a sub-rede desejada. Por exemplo, neste caso, a sub-rede é ci-asaks4421698.
  3. Na parte superior da lista Sub-redes, clique em Gerenciar usuários. A página Controle de acesso é aberta.
  4. Clique em Adicionar atribuição de função.
  5. Procure a função Colaborador de rede.
  6. Selecione Identidade gerenciada.
  7. Alterne para a guia Membros.
  8. Selecione Identidade gerenciada e, em seguida, selecione Serviço do Kubernetes.
  9. Selecione o nome do cluster do AKS.
  10. Clique em Revisar e atribuir.

Falha no provisionamento do AI Center após a atualização para a 2023.10

Description

Ao atualizar da 2023.4.3 para a 2023.10, você tem problemas com o provisionamento do AI Center.

O sistema mostra a seguinte exceção, e a criação do tenant falha: "exception":"sun.security.pkcs11.wrapper.PKCS11Exception: CKR_KEY_SIZE_RANGE

Solução

Para resolver esse problema, você precisa executar uma reinicialização da implantação do ai-trainer. Para fazê-lo, execute o seguinte comando:
kubectl -n uipath rollout restart deploy ai-trainer-deploymentkubectl -n uipath rollout restart deploy ai-trainer-deployment

Não é possível iniciar o Automation Hub e o Apps com configuração de proxy

Description

Se você estiver usando uma configuração de proxy, pode ter problemas ao tentar iniciar o Automation Hub e o Apps.

Solução

Você pode corrigir o problema adotando as seguintes etapas:

  1. Capture o configmap coredns existente no cluster em execução:
    kubectl get configmap -n kube-system coredns -o yaml > coredns-config.yamlkubectl get configmap -n kube-system coredns -o yaml > coredns-config.yaml
  2. Edite o arquivo coredns-config.yaml para anexar a regravação de fqdn à configuração.
    1. Renomeie o configmap como coredns-custom.
    2. Adicione o seguinte bloco de código a seu arquivo coredns-config.yaml. Certifique-se de que o bloco de código venha antes da linha kubernetes cluster.local in-addr.arpa ip6.arp.
      rewrite stop {
                  name exact <cluster-fqdn> istio-ingressgateway.istio-system.svc.cluster.local
              }rewrite stop {
                  name exact <cluster-fqdn> istio-ingressgateway.istio-system.svc.cluster.local
              }
    3. Substitua <cluster-fqdn> pelo valor real.
    Depois de concluir essas etapas, seu arquivo deve ser semelhante ao seguinte exemplo:
    apiVersion: v1
    data:
      Corefile: |
        .:53 {
            errors
            log
            health
            rewrite stop {
                name exact mycluster.autosuite.com istio-ingressgateway.istio-system.svc.cluster.local
            }
            kubernetes cluster.local in-addr.arpa ip6.arpa {
              pods insecure
              fallthrough in-addr.arpa ip6.arpa
            }
            prometheus :9153
            forward . /etc/resolv.conf
            cache 30
            loop
            reload
            loadbalance
        }
    kind: ConfigMap
    metadata:
      name: coredns-custom
      namespace: kube-systemapiVersion: v1
    data:
      Corefile: |
        .:53 {
            errors
            log
            health
            rewrite stop {
                name exact mycluster.autosuite.com istio-ingressgateway.istio-system.svc.cluster.local
            }
            kubernetes cluster.local in-addr.arpa ip6.arpa {
              pods insecure
              fallthrough in-addr.arpa ip6.arpa
            }
            prometheus :9153
            forward . /etc/resolv.conf
            cache 30
            loop
            reload
            loadbalance
        }
    kind: ConfigMap
    metadata:
      name: coredns-custom
      namespace: kube-system
  3. Crie o configmap coredns-custom:
    kubectl apply -f coredns-config.yamlkubectl apply -f coredns-config.yaml
  4. Substitua a referência de volume de coredns para coredns-custom na implantação do coredns no namespace kube-system:
    volumes:
      - emptyDir: {}
        name: tmp
      - configMap:
          defaultMode: 420
          items:
          - key: Corefile
            path: Corefile
          name: coredns-custom
        name: config-volumevolumes:
      - emptyDir: {}
        name: tmp
      - configMap:
          defaultMode: 420
          items:
          - key: Corefile
            path: Corefile
          name: coredns-custom
        name: config-volume
  5. Reinicie a implantação do coredns e certifique-se de que os pods coredns estejam em execução sem problemas:
    kubectl rollout restart deployment -n kube-system corednskubectl rollout restart deployment -n kube-system coredns
  6. Agora você deve poder iniciar o Automation Hub e o Apps.

Was this page helpful?

Obtenha a ajuda que você precisa
Aprendendo RPA - Cursos de automação
Fórum da comunidade da Uipath
Logotipo branco da Uipath
Confiança e segurança
© 2005-2024 UiPath. All rights reserved.