automation-suite
2.2510
false
UiPath logo, featuring letters U and I in white

Guia de instalação do Automation Suite no OpenShift

Última atualização 13 de nov de 2025

Cluster e nós do Kubernetes

Cluster e permissões

Você pode trazer seu próprio cluster do Kubernetes e seguir suas práticas padrão para provisioná-lo e gerenciá-lo.

Um usuário administrador deve instalar componentes necessários específicos separadamente, antes da instalação da plataforma do Automation Suite. Após instalar os componentes necessários, você pode executar o instalador. Para obter a lista de permissões necessárias, consulte Concedendo permissões de instalação.

Capacidade de nó

Para estimar a capacidade do nó com base em seus requisitos de produto e escala, use a calculadora de dimensionamento da instalação do UiPath Automation Suite .

O requisito de volume raiz para nós de agente (trabalhador) é de 256 GB.

No mínimo, para começar com os serviços de plataforma obrigatórios (Identity, licenciamento e roteamento) e o Orchestrator, você deve provisionar 8 vCPU e 16 GB de RAM por nó.

Observação:

Não recomendamos o uso de instâncias regulares no Automation Suite em cenários de produção, devido a problemas de estabilidade e desempenho.

Escalonamento automático

Recomendamos habilitar o escalonamento automático em seu cluster para garantir a alta confiabilidade e evitar interrupções nos negócios.

Requisitos adicionais de robôs do Automation Suite

Automation Suite Robot precisa de nós de trabalho adicionais.

Os requisitos de hardware para o nó de Automation Suite Robots dependem da maneira como você planeja usar seus recursos. Além dos requisitos adicionais do nó do agente, você também precisa de um mínimo de 10 GB de armazenamento de arquivos para habilitar o armazenamento do pacote em cache.

Para obter mais detalhes, consulte a documentação do Armazenamento .

As seções a seguir descrevem os fatores que afetam a quantidade de hardware que o nó Robots do Automation Suite requer.

Tamanho do robô

A tabela a seguir descreve a CPU, memória e armazenamento necessários para todos os tamanhos de robôs.

Tamanho

CPU

Memória

Armazenamento

Pequeno

0.5

1 GB

1 GB

Padrão

1

2 GB

2 GB

Médio

2

4GB

4GB

Grande

6

10 GB

10 GB

Tamanho do nó do agente

Os recursos do nó do agente do Automation Suite Robots têm um impacto no número de trabalhos que podem ser executados simultaneamente. O motivo é que o número de núcleos de CPU e a quantidade de capacidade de RAM são divididos pelos requisitos de CPU/memória do trabalho.

Por exemplo, um nó com 16 CPUs e 32 GB de RAM seria capaz de executar qualquer um dos seguintes:

  • 32 pequenos trabalhos
  • 16 trabalhos padrão
  • 8 trabalhos médios
  • 2 trabalhos grandes

Os tamanhos de trabalho podem ser misturados, portanto, a qualquer momento, o mesmo nó pode executar uma combinação de trabalhos, como o seguinte:

  • 10 trabalhos pequenos (consumindo 5 CPUs e 10 GB de memória)
  • 4 trabalhos padrão (consumindo 4 CPUs e 8 GB de memória)
  • 3 trabalhos médios (consumindo 6 CPUs e 12 GB de memória)

Consumo de recursos do Kubernetes

Dado que o nó faz parte de um cluster Kubernetes, o agente Kubernetes presente no servidor (kubelet) consome uma pequena quantidade de recursos. Com base em nossas medições, o kubelet consome os seguintes recursos:

  • CPU 0,6
  • 0,4GB RAM

Um nó semelhante ao descrito anteriormente teria, na verdade, aproximadamente 15,4 CPUs e 31,6 GB de RAM.

Seleção automática do tamanho da máquina

Todos os seus processos multiplataforma têm a opção Automation Suite Robots definida como Automático por padrão. Essa configuração seleciona o tamanho da máquina apropriado para executar o processo usando Serverless Robots.

Ao escolher automaticamente o tamanho, os critérios listados na tabela abaixo são avaliados por ordem. Assim que um critério é satisfeito, o tamanho da máquina correspondente é escolhido, e os critérios restantes não são avaliados.

Ordenar

Critério

Tamanho da Máquina

1

Trabalho de depuração remota

Médio

2

O processo depende da Automação de Interface Gráfica

OU

Padrão

3

Outro processo Unattended

Pequeno

Recomendações adicionais do Document Understanding

Para obter maior desempenho, você pode instalar o Document Understanding em um nó de agente adicional com suporte a GPU. Observe, no entanto, que os projetos baseados no AI Center no Document Understanding são totalmente funcionais sem o nó da GPU. Na verdade, o Document Understanding usa VMs de CPU para todas as suas tarefas de extração e classificação; já para o OCR, recomendamos fortemente o uso de uma VM de GPU.

Para obter mais detalhes sobre o uso de CPUs/GPUs dentro da estrutura do Document Understanding, consulte Uso de CPUs e GPUs.

Se você quiser usar um nó adicional com suporte a GPU, deverá atender aos seguintes requisitos:

Hardware

Requerimento mínimo

Processador

8 (v-)CPU/cores

BATER

52 GB

disco do SO

256 GB SSD

Min IOPS: 1100

Data Disk

N/A

GPU RAM

11 GB

Ao adicionar o pool de nós da GPU, é importante que você use --node-taints nvidia.com/gpu=present:NoSchedule em vez de --node-taints sku=gpu:NoSchedule.
Importante: para garantir o agendamento adequado das cargas de trabalho de GPU, certifique-se de que sua configuração YAML do DaemonSet (NFD ou Nvidia GPU Operator) inclua um bloco tolerations correspondente. Você pode usar o seguinte exemplo:
tolerations:
  - key: "nvidia.com/gpu"
    operator: "Equal"
    value: "present"
    effect: "NoSchedule"tolerations:
  - key: "nvidia.com/gpu"
    operator: "Equal"
    value: "present"
    effect: "NoSchedule"

O Automation Suite suporta GPUs NVIDIA. Para saber sobre como configurar GPUs NVDIA (como drivers), consulte a documentação do OpenShift.

Requisitos adicionais de projetos modernos do Document Understanding

With CPU inference activated, a minimum of 2 GPUs is required. To enable CPU inference, set the enable_cpu_inference property to true, as indicated in the Enabling or disabling Document Understanding section.
Atenção:
  • Inference may be up to 10 times slower.
  • We recommend using it for documents with a maximum of 125 pages. No active limitation is in place. However, inference might fail for documents larger than 125 pages.

Without CPU inference, a minimum of 5 GPUs is required for Document Understanding modern projects. The example scenario in the following table demonstrates how 5 GPUs is enough to process 300 pages.

Observação: para projetos modernos do Document Understanding, a GPU mínima recomendada é NVIDIA T4.
FunçãoNúmero
Páginas de modelo personalizado processadas por hora300
Páginas de modelo prontas para uso processadas por hora0
Treinamento de modelos em paralelo1
Número de páginas em todos os projetos - Tempo de design200
Número de tipos de documentos por versão do projeto3

As 5 GPUs são distribuídas entre diferentes funções, conforme detalhado na tabela a seguir:

ServiçoNúmero de GPUs
Réplicas OCR1
Réplicas de treinamento do modelo personalizado1
Réplicas do modelo personalizado2
Réplicas de modelos prontas para uso1
Total5

Para obter mais informações sobre como alocar GPUs para cada serviço, consulte a página.

Além das demanda da GPU, os projetos modernos do Document Understanding também exigem recursos específicos da CPU para um desempenho ideal. Para desempenho ideal, é necessário um mínimo de 18 vCPUs .

Com o projeto moderno do Document Understanding, 4 TB adicionais do objectstore são necessários para realizar as atividades dos exemplos fornecidos continuamente por um ano. Você pode começar com um número menor, mas a atividade falhará assim que o armazenamento for concluído, a menos que você o dimensione explicitamente.

Se você estiver provisionando para um ano de processamento contínuo, precisará de 4 TB para projetos modernos do Document Understanding e 512 GB para os outros produtos. O total será de 4,5 TB de armazenamento. Da mesma forma, se você começar com seis meses de processamento, precisará de 2 TB para projetos modernos do Document Understanding e 512 GB para os outros produtos. Neste caso, o total será de 2,5 TB.

Observação: para obter cálculos mais detalhados e a capacidade necessária para suas necessidades, consulte Calculadora de dimensionamento de instalação do UiPath Automation Suite.

Provisionamento de GPUs habilitadas para MIG

As cargas de trabalho do Automation Suite Document Understanding são suportadas em execução em GPUs virtuais (VGPUs) criadas com a tecnologia NVIDIA MIG (Multi-Instance GPU).

Para executar o Document Understanding nessas condições, tenha em mente os seguintes requisitos:

  • Memória da GPU (VRAM): pelo menos 16 GB por VGPU

    Observação: a UiPath oferece suporte apenas para a estratégia única, o que significa que todas as VGPUs serão exatamente iguais.
  • Armazenamento: pelo menos 80 GB por VGPU

Habilitando GPUs habilitadas para MIG no Kubernetes

Após provisionar as GPUs habilitadas para MIG em seu cluster com perfis que correspondam ou excedam os requisitos mínimos acima, certifique-se de que as GPUs sejam Kubernetes programáveis. O nó deve relatar um número diferente de zero de GPUs antes que cargas de trabalho possam ser agendadas nele.

Para tornar as GPUs programáveis, você tem duas opções:

  • Opção A: siga a documentação oficial de configuração da GPU do seu provedor de nuvem ou a do site da NVIDIA:
  • Opção B (Alternativa): implante o plug-in de dispositivo da NVIDIA diretamente:
    1. Crie um novo namespace:
      kubectl create namespace gpu-resourceskubectl create namespace gpu-resources
    2. Aplique a seguinte configuração, substituindo migEnabledPoolName pelo rótulo que corresponde ao seu nó de GPU:
      apiVersion: v1
      kind: Pod
      metadata:
        name: nvidia-device-plugin-pod
        namespace: gpu-resources
      spec:
       affinity:
          nodeAffinity:
            requiredDuringSchedulingIgnoredDuringExecution:
              nodeSelectorTerms:
              - matchExpressions:
                - key: agentpool
                  operator: In
                  values:
                  # To be changed to a selector that matches the GPU nodes
                  - migEnabledPoolName
       containers:
       - args:
         - --fail-on-init-error=false
         env:
         - name: MPS_ROOT
           value: /run/nvidia/mps
         - name: MIG_STRATEGY
            # We only support the single strategy for now
           value: single
         - name: NVIDIA_MIG_MONITOR_DEVICES
           value: all
         - name: NVIDIA_VISIBLE_DEVICES
           value: all
         - name: NVIDIA_DRIVER_CAPABILITIES
           value: compute,utility
         image: nvcr.io/nvidia/k8s-device-plugin:v0.17.3
         imagePullPolicy: IfNotPresent
         name: nvidia-device-plugin-ctr
         securityContext:
           allowPrivilegeEscalation: true
           capabilities:
             add:
             - SYS_ADMIN
         terminationMessagePath: /dev/termination-log
         terminationMessagePolicy: File
         volumeMounts:
         - mountPath: /var/lib/kubelet/device-plugins
           name: device-plugin
       tolerations:
       - key: CriticalAddonsOnly
         operator: Exists
       - effect: NoSchedule
         key: nvidia.com/gpu
         operator: Exists
       terminationGracePeriodSeconds: 30
       volumes:
       - hostPath:
           path: /var/lib/kubelet/device-plugins
           type: ""
         name: device-pluginapiVersion: v1
      kind: Pod
      metadata:
        name: nvidia-device-plugin-pod
        namespace: gpu-resources
      spec:
       affinity:
          nodeAffinity:
            requiredDuringSchedulingIgnoredDuringExecution:
              nodeSelectorTerms:
              - matchExpressions:
                - key: agentpool
                  operator: In
                  values:
                  # To be changed to a selector that matches the GPU nodes
                  - migEnabledPoolName
       containers:
       - args:
         - --fail-on-init-error=false
         env:
         - name: MPS_ROOT
           value: /run/nvidia/mps
         - name: MIG_STRATEGY
            # We only support the single strategy for now
           value: single
         - name: NVIDIA_MIG_MONITOR_DEVICES
           value: all
         - name: NVIDIA_VISIBLE_DEVICES
           value: all
         - name: NVIDIA_DRIVER_CAPABILITIES
           value: compute,utility
         image: nvcr.io/nvidia/k8s-device-plugin:v0.17.3
         imagePullPolicy: IfNotPresent
         name: nvidia-device-plugin-ctr
         securityContext:
           allowPrivilegeEscalation: true
           capabilities:
             add:
             - SYS_ADMIN
         terminationMessagePath: /dev/termination-log
         terminationMessagePolicy: File
         volumeMounts:
         - mountPath: /var/lib/kubelet/device-plugins
           name: device-plugin
       tolerations:
       - key: CriticalAddonsOnly
         operator: Exists
       - effect: NoSchedule
         key: nvidia.com/gpu
         operator: Exists
       terminationGracePeriodSeconds: 30
       volumes:
       - hostPath:
           path: /var/lib/kubelet/device-plugins
           type: ""
         name: device-plugin
Após implantar o plug-in, a seção Alocar do nó deve mostrar o número correto de VGPUs sob nvidia.com/gpu, com base no perfil do MIG que você configurou. O nó agora deve ser programável e estar pronto para executar cargas de trabalho do Document Understanding.

Agendamento de nós

Recomendamos habilitar os taints de nó em nós de trabalho dedicados para Automation Suite Robots e Document Understanding.

Exemplo do AI Center e do DU:

  • Para a CPU:

    oc taint node <node_name> aic.ml/cpu=present:NoScheduleoc taint node <node_name> aic.ml/cpu=present:NoSchedule
  • Para a GPU:

    oc taint node <node_name> nvidia.com/gpu=present:NoScheduleoc taint node <node_name> nvidia.com/gpu=present:NoSchedule

ExemploAutomation Suite Robot :

  • adicione um taint para Serverless Robots usando o seguinte comando:

    oc taint node <node_name> serverless.robot=present:NoScheduleoc taint node <node_name> serverless.robot=present:NoSchedule
  • adicione os rótulos para Serverless Robots usando o seguinte comando:

    oc label node <node_name> serverless.robot=true serverless.daemon=trueoc label node <node_name> serverless.robot=true serverless.daemon=true
Importante:

Se você tiver taints de nó personalizados que são aplicados pela Política do Gateway, como funções específicas para nós ou rótulos de trabalho, eles não serão passados para o Automation Suite e poderão interromper o processo de instalação.

Para saber mais sobre contaminações e tolerâncias, consulte a documentação do Kubernetes.

Esta página foi útil?

Obtenha a ajuda que você precisa
Aprendendo RPA - Cursos de automação
Fórum da comunidade da Uipath
Uipath Logo
Confiança e segurança
© 2005-2025 UiPath. Todos os direitos reservados.