automation-suite
2024.10
false
Importante :
A tradução automática foi aplicada parcialmente neste conteúdo. A localização de um conteúdo recém-publicado pode levar de 1 a 2 semanas para ficar disponível.
UiPath logo, featuring letters U and I in white

Guia de instalação do Automation Suite no EKS/AKS

Última atualização 3 de mar de 2026

Cluster e nós do Kubernetes

Cluster e permissões

Você pode trazer seu próprio cluster do Kubernetes e seguir suas práticas padrão para provisioná-lo e gerenciá-lo.

Se você conceder os privilégios de administrador do instalador do Automation Suite, o UiPath® instala e gerencia todos os componentes necessários para executar o Automation Suite. No entanto, se você não puder conceder os privilégios de administrador do instalador no cluster, a instalação de alguns componentes necessários será impossível. Portanto, antes de instalar o Automation Suite em um cluster ao qual você não concedeu os privilégios de administrador do instalador, um usuário administrador deve instalar componentes necessários específicos separadamente, antes da instalação da plataforma do Automation Suite. Aqui estão as principais etapas que você deve executar se não puder conceder privilégios de administrador ao instalador do Automation Suite:

Após instalar os componentes necessários, você pode executar o instalador com permissões mais inferiores. Para a lista de permissões necessárias, consulte Concedendo permissões de instalação.

Versões do EKS/AKS compatíveis

Cada versão de suporte de longo prazo do Automation Suite vem com uma matriz de compatibilidade. Para versões do EKS ou do AKS compatíveis, consulte Matriz de compatibilidade.

Testamos a compatibilidade do Automation Suite com os seguintes sistemas operacionais Linux:

Provedor de nuvem SO
AKS
  • Ubuntu 22.04
EKS
  • Amazon Linux 2 e Amazon Linux 2023 para todas as versões do EKS
  • RHEL 8.8 para EKS 1.27
  • Bottlerocket 1.19.2

O Automation Suite no EKS/AKS oferece suporte apenas à arquitetura x86 EKS/AKS e não oferece suporte ao ARM64.

Capacidade de nó

Para estimar a capacidade do nó com base em seus requisitos de produto e escala, use a Calculadora de dimensionamento de instalação do UiPath Automation Suite.

O requisito de volume raiz para nós de agente (trabalhador) é de 256 GB.

No mínimo, para começar com os serviços de plataforma obrigatórios (Identity, licenciamento e roteamento) e o Orchestrator, você deve provisionar 8 vCPU e 16 GB de RAM por nó.

Observação:

Não recomendamos o uso de instâncias regulares no Automation Suite em cenários de produção, devido a problemas de estabilidade e desempenho.

Trocar memória

Você deve desabilitar a memória de troca antes de instalar o Automation Suite. Sabe-se que a memória de troca causa problemas com cargas de trabalho de contêineres. Além disso, as cargas de trabalho do Automation Suite não se beneficiam do uso de memória de troca, e o Kubernetes já otimiza o uso da memória.

Escalonamento automático

Recomendamos habilitar o escalonamento automático em seu cluster para garantir a alta confiabilidade e evitar interrupções nos negócios.

Requisitos adicionais do Task Mining

Se você instalar o Task Mining, você deve provisionar nós de trabalho adicionais com 20 vCPU e 60 GB de RAM. Esse nó deve ser marcado para garantir que apenas cargas de trabalho do Task Mining sejam executadas nele. Para obter detalhes, consulte a seção Agendamento de nós .

Requisitos adicionais de robôs do Automation Suite

Automation Suite Robot precisa de nós de trabalho adicionais.

Os requisitos de hardware para o nó Automation Suite Robots dependem da maneira como você planeja usar seus recursos. Além dos requisitos adicionais do nó do agente, você também precisa de um mínimo de 10 GB de armazenamento de arquivos para habilitar o armazenamento em cache do pacote.

Para obter detalhes, consulte a documentação de armazenamento .

As seções a seguir descrevem os fatores que afetam a quantidade de hardware que o nó Robots do Automation Suite requer.

Tamanho do robô

A tabela a seguir descreve a CPU, memória e armazenamento necessários para todos os tamanhos de robôs.

TamanhoCPUMemóriaArmazenamento
Pequeno0.51 GB1 GB
Padrão12 GB2 GB
Médio24GB4GB
Grande610 GB10 GB

Tamanho do nó do agente

Os recursos do nó do agente do Automation Suite Robots têm um impacto no número de trabalhos que podem ser executados simultaneamente. O motivo é que o número de núcleos de CPU e a quantidade de capacidade de RAM são divididos pelos requisitos de CPU/memória do trabalho.

Por exemplo, um nó com 16 CPUs e 32 GB de RAM seria capaz de executar qualquer um dos seguintes:

  • 32 pequenos trabalhos
  • 16 trabalhos padrão
  • 8 trabalhos médios
  • 2 trabalhos grandes

Os tamanhos de trabalho podem ser misturados, portanto, a qualquer momento, o mesmo nó pode executar uma combinação de trabalhos, como o seguinte:

  • 10 trabalhos pequenos (consumindo 5 CPUs e 10 GB de memória)
  • 4 trabalhos padrão (consumindo 4 CPUs e 8 GB de memória)
  • 3 trabalhos médios (consumindo 6 CPUs e 12 GB de memória)

Consumo de recursos do Kubernetes

Dado que o nó faz parte de um cluster Kubernetes, o agente Kubernetes presente no servidor (kubelet) consome uma pequena quantidade de recursos. Com base em nossas medições, o kubelet consome os seguintes recursos:

  • CPU 0,6
  • 0,4GB RAM

Um nó semelhante ao descrito anteriormente teria, na verdade, aproximadamente 15,4 CPUs e 31,6 GB de RAM.

Seleção automática do tamanho da máquina

Todos os seus processos multiplataforma têm a opção Automation Suite Robots definida como Automático por padrão. Essa configuração seleciona o tamanho da máquina apropriado para executar o processo usando Serverless Robots.

Ao escolher automaticamente o tamanho, os critérios listados na tabela abaixo são avaliados por ordem. Assim que um critério é satisfeito, o tamanho da máquina correspondente é escolhido, e os critérios restantes não são avaliados.

OrdenarCritérioTamanho da Máquina
1Trabalho de depuração remotaMédio
2O processo depende da Automação de Interface Gráfica OU o processo depende das atividades do UiPath Document UnderstandingPadrão
3Outro processo UnattendedPequeno

Recomendações adicionais do Document Understanding

Para obter maior desempenho, você pode instalar o Document Understanding em um nó de agente adicional com suporte a GPU. Observe, no entanto, que os projetos baseados no AI Center no Document Understanding são totalmente funcionais sem o nó da GPU. Na verdade, o Document Understanding usa VMs de CPU para todas as suas tarefas de extração e classificação; já para o OCR, recomendamos fortemente o uso de uma VM de GPU.

Para obter mais detalhes sobre o uso de CPUs/GPUs dentro da estrutura do Document Understanding, consulte Uso de CPUs e GPUs.

Se você quiser usar um nó adicional com suporte a GPU, deverá atender aos seguintes requisitos:

HardwareRequerimento mínimo
Processador8 (v-)CPU/cores
BATER52 GB
disco do SOIOPS mínimo da SSD de 256 GB: 1100
Data DiskN/A
GPU RAM11 GB

Ao adicionar o pool de nós da GPU, é importante que você use --node-taints nvidia.com/gpu=present:NoSchedule em vez de --node-taints sku=gpu:NoSchedule.

Importante:

Para garantir o agendamento adequado de cargas de trabalho de GPU, certifique-se de que sua configuração YAML do DaemonSet (NFD ou Nvidia GPU) inclua um bloco tolerations correspondente. Você pode usar o exemplo a seguir: atribuição

tolerations:
- key: "nvidia.com/gpu"
operator: "Equal"
value: "present"
effect: "NoSchedule"
tolerations:
- key: "nvidia.com/gpu"
operator: "Equal"
value: "present"
effect: "NoSchedule"

O Automation Suite suporta GPUs NVIDIA. Para saber sobre como configurar GPUs NVDIA (como drivers), consulte os respectivos docs do Azure ou da AWS.

Requisitos adicionais de projetos modernos do Document Understanding

Com a inferência de CPU ativada, são necessárias no mínimo 2 GPUs. Para habilitar a inferência da CPU, defina a propriedade enable_cpu_inference como true, conforme indicado na seção Habilitando ou desabilitando o Document Understanding .

Atenção:

Observação:
  • A inferência pode ser até 10 vezes mais lenta.
  • Recomendamos usá-la para documentos com no máximo 125 páginas. Nenhuma limitação ativa está em vigor. No entanto, a inferência pode falhar para documentos maiores que 125 páginas.

Sem inferência de CPU, um mínimo de 5 GPUs é necessário para projetos modernos do Document Understanding. O cenário de exemplo na tabela a seguir demonstra como 5 GPUs são suficientes para processar 300 páginas.

Observação:

Para projetos modernos do Document Understanding, a GPU mínima recomendada é NVIDIA T4.

FunçãoNúmero
Páginas de modelo personalizado processadas por hora300
Páginas de modelo prontas para uso processadas por hora0
Treinamento de modelos em paralelo1
Número de páginas em todos os projetos - Tempo de design200
Número de tipos de documentos por versão do projeto3

As 5 GPUs são distribuídas entre diferentes funções, conforme detalhado na tabela a seguir:

ServiçoNúmero de GPUs
Réplicas OCR1
Réplicas de treinamento do modelo personalizado1
Réplicas do modelo personalizado2
Réplicas de modelos prontas para uso1
Total5

Para obter mais informações sobre como alocar GPUs para cada serviço, consulte a página Alocação de recursos de GPU para projetos modernos do Document Understanding .

Além das demanda de GPU, os projetos modernos do Document Understanding também exigem recursos específicos de CPU para um desempenho ideal. Para um desempenho ideal, é necessário um mínimo de 18 vCPUs .

Com o projeto moderno do Document Understanding, 4 TB adicionais do objectstore são necessários para realizar as atividades dos exemplos fornecidos continuamente por um ano. Você pode começar com um número menor, mas a atividade falhará assim que o armazenamento for concluído, a menos que você o dimensione explicitamente.

Se você estiver provisionando para um ano de processamento contínuo, precisará de 4 TB para projetos modernos do Document Understanding e 512 GB para os outros produtos. O total será de 4,5 TB de armazenamento. Da mesma forma, se você começar com seis meses de processamento, precisará de 2 TB para projetos modernos do Document Understanding e 512 GB para os outros produtos. Neste caso, o total será de 2,5 TB.

Observação:

Para obter cálculos mais detalhados e a capacidade necessária para suas necessidades, consulte Calculadora de dimensionamento de instalação do UiPath Automation Suite.

Provisionamento de GPUs habilitadas para MIG

As cargas de trabalho do Automation Suite Document Understanding são suportadas em execução em GPUs virtuais (VGPUs) criadas com a tecnologia NVIDIA MIG (Multi-Instance GPU).

Para executar o Document Understanding nessas condições, tenha em mente os seguintes requisitos:

  • Memória da GPU (VRAM): pelo menos 16 GB por VGPU
    Observação:

    A UiPath aceita apenas a estratégia única, o que significa que todas as VGPUs serão exatamente iguais.

  • Armazenamento: pelo menos 80 GB por VGPU
Habilitando GPUs habilitadas para MIG no Kubernetes

Após provisionar as GPUs habilitadas para MIG em seu cluster com perfis que correspondam ou excedam os requisitos mínimos acima, certifique-se de que as GPUs sejam Kubernetes programáveis. O nó deve relatar um número diferente de zero de GPUs antes que cargas de trabalho possam ser agendadas nele.

Para tornar as GPUs programáveis, você tem duas opções:

  • Opção A: siga a documentação oficial de configuração da GPU do seu provedor de nuvem:
  • Opção B (Alternativa): implante o plug-in de dispositivo da NVIDIA diretamente:
    1. Crie um novo namespace:
      kubectl create namespace gpu-resources
      kubectl create namespace gpu-resources
      
    2. Aplique a seguinte configuração, substituindo migEnabledPoolName pelo rótulo que corresponde ao seu nó de GPU:
      apiVersion: v1
      kind: Pod
      metadata:
        name: nvidia-device-plugin-pod
        namespace: gpu-resources
      spec:
       affinity:
          nodeAffinity:
            requiredDuringSchedulingIgnoredDuringExecution:
              nodeSelectorTerms:
              - matchExpressions:
                - key: agentpool
                  operator: In
                  values:
                  # To be changed to a selector that matches the GPU nodes
                  - migEnabledPoolName
       containers:
       - args:
         - --fail-on-init-error=false
         env:
         - name: MPS_ROOT
           value: /run/nvidia/mps
         - name: MIG_STRATEGY
            # We only support the single strategy for now
           value: single
         - name: NVIDIA_MIG_MONITOR_DEVICES
           value: all
         - name: NVIDIA_VISIBLE_DEVICES
           value: all
         - name: NVIDIA_DRIVER_CAPABILITIES
           value: compute,utility
         image: nvcr.io/nvidia/k8s-device-plugin:v0.17.3
         imagePullPolicy: IfNotPresent
         name: nvidia-device-plugin-ctr
         securityContext:
           allowPrivilegeEscalation: true
           capabilities:
             add:
             - SYS_ADMIN
         terminationMessagePath: /dev/termination-log
         terminationMessagePolicy: File
         volumeMounts:
         - mountPath: /var/lib/kubelet/device-plugins
           name: device-plugin
       tolerations:
       - key: CriticalAddonsOnly
         operator: Exists
       - effect: NoSchedule
         key: nvidia.com/gpu
         operator: Exists
       terminationGracePeriodSeconds: 30
       volumes:
       - hostPath:
           path: /var/lib/kubelet/device-plugins
           type: ""
         name: device-plugin
      apiVersion: v1
      kind: Pod
      metadata:
        name: nvidia-device-plugin-pod
        namespace: gpu-resources
      spec:
       affinity:
          nodeAffinity:
            requiredDuringSchedulingIgnoredDuringExecution:
              nodeSelectorTerms:
              - matchExpressions:
                - key: agentpool
                  operator: In
                  values:
                  # To be changed to a selector that matches the GPU nodes
                  - migEnabledPoolName
       containers:
       - args:
         - --fail-on-init-error=false
         env:
         - name: MPS_ROOT
           value: /run/nvidia/mps
         - name: MIG_STRATEGY
            # We only support the single strategy for now
           value: single
         - name: NVIDIA_MIG_MONITOR_DEVICES
           value: all
         - name: NVIDIA_VISIBLE_DEVICES
           value: all
         - name: NVIDIA_DRIVER_CAPABILITIES
           value: compute,utility
         image: nvcr.io/nvidia/k8s-device-plugin:v0.17.3
         imagePullPolicy: IfNotPresent
         name: nvidia-device-plugin-ctr
         securityContext:
           allowPrivilegeEscalation: true
           capabilities:
             add:
             - SYS_ADMIN
         terminationMessagePath: /dev/termination-log
         terminationMessagePolicy: File
         volumeMounts:
         - mountPath: /var/lib/kubelet/device-plugins
           name: device-plugin
       tolerations:
       - key: CriticalAddonsOnly
         operator: Exists
       - effect: NoSchedule
         key: nvidia.com/gpu
         operator: Exists
       terminationGracePeriodSeconds: 30
       volumes:
       - hostPath:
           path: /var/lib/kubelet/device-plugins
           type: ""
         name: device-plugin
      

Após implantar o plug-in, a seção Alocar do nó deve mostrar o número correto de VGPUs sob nvidia.com/gpu, com base no perfil do MIG que você configurou. O nó agora deve ser programável e estar pronto para executar cargas de trabalho do Document Understanding.

Agendamento de nós

Recomendamos habilitar os taints de nó em nós de trabalho dedicados para o Task Mining, Automation Suite Robote Document Understanding.

Exemplo do AI Center e do DU:

  • Para a CPU:

    kubectl taint node <node_name> aic.ml/cpu=present:NoSchedule
    kubectl taint node <node_name> aic.ml/cpu=present:NoSchedule
    
  • Para a GPU:

    kubectl taint node <node_name> nvidia.com/gpu=present:NoSchedule
    kubectl taint node <node_name> nvidia.com/gpu=present:NoSchedule
    

Exemplo do Task Mining:

kubectl taint node <node_name> task.mining/cpu=present:NoSchedule
kubectl taint node <node_name> task.mining/cpu=present:NoSchedule

ExemploAutomation Suite Robot :

  • adicione um taint para Serverless Robots usando o seguinte comando:
    kubectl taint node <node_name> serverless.robot=present:NoSchedule
    kubectl taint node <node_name> serverless.robot=present:NoSchedule
    
  • adicione os rótulos para Serverless Robots usando o seguinte comando:
    kubectl label node <node_name> serverless.robot=true serverless.daemon=true
    kubectl label node <node_name> serverless.robot=true serverless.daemon=true
    
Importante:

Se você tiver taints de nó personalizados que são aplicados pela Política do Gateway, como funções específicas para nós ou rótulos de trabalho, eles não serão passados para o Automation Suite e poderão interromper o processo de instalação.

Para saber sobre taints e tolerations, consulte a documentação do Kubernetes.

Esta página foi útil?

Conectar

Precisa de ajuda? Suporte

Quer aprender? Academia UiPath

Tem perguntas? Fórum do UiPath

Fique por dentro das novidades