- Visão geral
- Requisitos
- Pré-requisitos em um piscar de olhos
- Cluster e nós do Kubernetes
- Proxy
- banco de dados SQL
- Cache
- Armazenamento
- Rede
- Requisitos de certificado
- Pré-instalação
- Preparação da instalação
- Baixando os pacotes de instalação
- Configuração do registro compatível com OCI
- Concessão de permissões de instalação
- Instalação e configuração do service mesh
- Instalando e configurando a ferramenta GitOps
- Installing the External Secrets Operator
- Implantação do Redis pelo OperatorHub
- Aplicação de configurações diversas
- Executando o uipathctl
- Instalação
- Pós-instalação
- Migração e atualização
- Monitoramento e alertas
- Administração de cluster
- Configuração específica do produto
- Configuração de parâmetros do Orchestrator
- Configuração do AppSettings
- Configuração do tamanho máximo da solicitação
- Substituição da configuração de armazenamento no nível do cluster
- Configuração do NLog
- Salvando logs do robô no Elasticsearch
- Configuração dos repositórios de credenciais
- Configuração da chave de criptografia por tenant
- Limpeza do banco de dados do Orchestrator
- Solução de problemas

Guia de instalação do Automation Suite no OpenShift
Você pode trazer seu próprio cluster do Kubernetes e seguir suas práticas padrão para provisioná-lo e gerenciá-lo.
Um usuário administrador deve instalar componentes necessários específicos separadamente, antes da instalação da plataforma do Automation Suite. Após instalar os componentes necessários, você pode executar o instalador. Para obter a lista de permissões necessárias, consulte Concedendo permissões de instalação.
Para estimar a capacidade do nó com base em seus requisitos de produto e escala, use a calculadora de dimensionamento da instalação do UiPath Automation Suite .
O requisito de volume raiz para nós de agente (trabalhador) é de 256 GB.
No mínimo, para começar com os serviços de plataforma obrigatórios (Identity, licenciamento e roteamento) e o Orchestrator, você deve provisionar 8 vCPU e 16 GB de RAM por nó.
Não recomendamos o uso de instâncias regulares no Automation Suite em cenários de produção, devido a problemas de estabilidade e desempenho.
Recomendamos habilitar o escalonamento automático em seu cluster para garantir a alta confiabilidade e evitar interrupções nos negócios.
Automation Suite Robot precisa de nós de trabalho adicionais.
Os requisitos de hardware para o nó de Automation Suite Robots dependem da maneira como você planeja usar seus recursos. Além dos requisitos adicionais do nó do agente, você também precisa de um mínimo de 10 GB de armazenamento de arquivos para habilitar o armazenamento do pacote em cache.
Para obter mais detalhes, consulte a documentação do Armazenamento .
As seções a seguir descrevem os fatores que afetam a quantidade de hardware que o nó Robots do Automation Suite requer.
Tamanho do robô
A tabela a seguir descreve a CPU, memória e armazenamento necessários para todos os tamanhos de robôs.
|
Tamanho |
CPU |
Memória |
Armazenamento |
|---|---|---|---|
|
Pequeno |
0.5 |
1 GB |
1 GB |
|
Padrão |
1 |
2 GB |
2 GB |
|
Médio |
2 |
4GB |
4GB |
|
Grande |
6 |
10 GB |
10 GB |
Tamanho do nó do agente
Os recursos do nó do agente do Automation Suite Robots têm um impacto no número de trabalhos que podem ser executados simultaneamente. O motivo é que o número de núcleos de CPU e a quantidade de capacidade de RAM são divididos pelos requisitos de CPU/memória do trabalho.
Por exemplo, um nó com 16 CPUs e 32 GB de RAM seria capaz de executar qualquer um dos seguintes:
- 32 pequenos trabalhos
- 16 trabalhos padrão
- 8 trabalhos médios
- 2 trabalhos grandes
Os tamanhos de trabalho podem ser misturados, portanto, a qualquer momento, o mesmo nó pode executar uma combinação de trabalhos, como o seguinte:
- 10 trabalhos pequenos (consumindo 5 CPUs e 10 GB de memória)
- 4 trabalhos padrão (consumindo 4 CPUs e 8 GB de memória)
- 3 trabalhos médios (consumindo 6 CPUs e 12 GB de memória)
Consumo de recursos do Kubernetes
Dado que o nó faz parte de um cluster Kubernetes, o agente Kubernetes presente no servidor (kubelet) consome uma pequena quantidade de recursos. Com base em nossas medições, o kubelet consome os seguintes recursos:
- CPU 0,6
- 0,4GB RAM
Um nó semelhante ao descrito anteriormente teria, na verdade, aproximadamente 15,4 CPUs e 31,6 GB de RAM.
Seleção automática do tamanho da máquina
Todos os seus processos multiplataforma têm a opção Automation Suite Robots definida como Automático por padrão. Essa configuração seleciona o tamanho da máquina apropriado para executar o processo usando Serverless Robots.
Ao escolher automaticamente o tamanho, os critérios listados na tabela abaixo são avaliados por ordem. Assim que um critério é satisfeito, o tamanho da máquina correspondente é escolhido, e os critérios restantes não são avaliados.
|
Ordenar |
Critério |
Tamanho da Máquina |
|---|---|---|
|
1 |
Trabalho de depuração remota |
Médio |
|
2 |
O processo depende da Automação de Interface Gráfica OU O processo depende das atividades de Document Understanding da UiPath |
Padrão |
|
3 |
Outro processo Unattended |
Pequeno |
Para obter maior desempenho, você pode instalar o Document Understanding em um nó de agente adicional com suporte a GPU. Observe, no entanto, que os projetos baseados no AI Center no Document Understanding são totalmente funcionais sem o nó da GPU. Na verdade, o Document Understanding usa VMs de CPU para todas as suas tarefas de extração e classificação; já para o OCR, recomendamos fortemente o uso de uma VM de GPU.
Para obter mais detalhes sobre o uso de CPUs/GPUs dentro da estrutura do Document Understanding, consulte Uso de CPUs e GPUs.
Se você quiser usar um nó adicional com suporte a GPU, deverá atender aos seguintes requisitos:
|
Hardware |
Requerimento mínimo |
|---|---|
|
Processador |
8 (v-)CPU/cores |
|
BATER |
52 GB |
|
disco do SO |
256 GB SSD Min IOPS: 1100 |
|
Data Disk |
N/A |
|
GPU RAM |
11 GB |
--node-taints nvidia.com/gpu=present:NoSchedule em vez de --node-taints sku=gpu:NoSchedule.
tolerations correspondente. Você pode usar o seguinte exemplo:tolerations:
- key: "nvidia.com/gpu"
operator: "Equal"
value: "present"
effect: "NoSchedule"tolerations:
- key: "nvidia.com/gpu"
operator: "Equal"
value: "present"
effect: "NoSchedule"O Automation Suite suporta GPUs NVIDIA. Para saber sobre como configurar GPUs NVDIA (como drivers), consulte a documentação do OpenShift.
Requisitos adicionais de projetos modernos do Document Understanding
enable_cpu_inference property to true, as indicated in the Enabling or disabling Document Understanding section.
- Inference may be up to 10 times slower.
- We recommend using it for documents with a maximum of 125 pages. No active limitation is in place. However, inference might fail for documents larger than 125 pages.
Without CPU inference, a minimum of 5 GPUs is required for Document Understanding modern projects. The example scenario in the following table demonstrates how 5 GPUs is enough to process 300 pages.
| Função | Número |
|---|---|
| Páginas de modelo personalizado processadas por hora | 300 |
| Páginas de modelo prontas para uso processadas por hora | 0 |
| Treinamento de modelos em paralelo | 1 |
| Número de páginas em todos os projetos - Tempo de design | 200 |
| Número de tipos de documentos por versão do projeto | 3 |
As 5 GPUs são distribuídas entre diferentes funções, conforme detalhado na tabela a seguir:
| Serviço | Número de GPUs |
|---|---|
| Réplicas OCR | 1 |
| Réplicas de treinamento do modelo personalizado | 1 |
| Réplicas do modelo personalizado | 2 |
| Réplicas de modelos prontas para uso | 1 |
| Total | 5 |
Para obter mais informações sobre como alocar GPUs para cada serviço, consulte a página.
Além das demanda da GPU, os projetos modernos do Document Understanding também exigem recursos específicos da CPU para um desempenho ideal. Para desempenho ideal, é necessário um mínimo de 18 vCPUs .
objectstore são necessários para realizar as atividades dos exemplos fornecidos continuamente por um ano. Você pode começar com um número menor, mas a atividade falhará assim que o armazenamento for concluído, a menos que você o dimensione explicitamente.
Se você estiver provisionando para um ano de processamento contínuo, precisará de 4 TB para projetos modernos do Document Understanding e 512 GB para os outros produtos. O total será de 4,5 TB de armazenamento. Da mesma forma, se você começar com seis meses de processamento, precisará de 2 TB para projetos modernos do Document Understanding e 512 GB para os outros produtos. Neste caso, o total será de 2,5 TB.
Provisionamento de GPUs habilitadas para MIG
As cargas de trabalho do Automation Suite Document Understanding são suportadas em execução em GPUs virtuais (VGPUs) criadas com a tecnologia NVIDIA MIG (Multi-Instance GPU).
Para executar o Document Understanding nessas condições, tenha em mente os seguintes requisitos:
-
Memória da GPU (VRAM): pelo menos 16 GB por VGPU
Observação: a UiPath oferece suporte apenas para a estratégia única, o que significa que todas as VGPUs serão exatamente iguais. -
Armazenamento: pelo menos 80 GB por VGPU
Habilitando GPUs habilitadas para MIG no Kubernetes
Após provisionar as GPUs habilitadas para MIG em seu cluster com perfis que correspondam ou excedam os requisitos mínimos acima, certifique-se de que as GPUs sejam Kubernetes programáveis. O nó deve relatar um número diferente de zero de GPUs antes que cargas de trabalho possam ser agendadas nele.
Para tornar as GPUs programáveis, você tem duas opções:
- Opção A: siga a documentação oficial de configuração da GPU do seu provedor de nuvem ou a do site da NVIDIA:
- Documentação da NVIDIA: suporte a MIG na plataforma OpenShift Container
- Documentação para desenvolvedores da IBM: implementação do NVIDIA MIG no Red Hat OpenShift
- Opção B (Alternativa): implante o plug-in de dispositivo da NVIDIA diretamente:
- Crie um novo namespace:
kubectl create namespace gpu-resourceskubectl create namespace gpu-resources - Aplique a seguinte configuração, substituindo
migEnabledPoolNamepelo rótulo que corresponde ao seu nó de GPU:apiVersion: v1 kind: Pod metadata: name: nvidia-device-plugin-pod namespace: gpu-resources spec: affinity: nodeAffinity: requiredDuringSchedulingIgnoredDuringExecution: nodeSelectorTerms: - matchExpressions: - key: agentpool operator: In values: # To be changed to a selector that matches the GPU nodes - migEnabledPoolName containers: - args: - --fail-on-init-error=false env: - name: MPS_ROOT value: /run/nvidia/mps - name: MIG_STRATEGY # We only support the single strategy for now value: single - name: NVIDIA_MIG_MONITOR_DEVICES value: all - name: NVIDIA_VISIBLE_DEVICES value: all - name: NVIDIA_DRIVER_CAPABILITIES value: compute,utility image: nvcr.io/nvidia/k8s-device-plugin:v0.17.3 imagePullPolicy: IfNotPresent name: nvidia-device-plugin-ctr securityContext: allowPrivilegeEscalation: true capabilities: add: - SYS_ADMIN terminationMessagePath: /dev/termination-log terminationMessagePolicy: File volumeMounts: - mountPath: /var/lib/kubelet/device-plugins name: device-plugin tolerations: - key: CriticalAddonsOnly operator: Exists - effect: NoSchedule key: nvidia.com/gpu operator: Exists terminationGracePeriodSeconds: 30 volumes: - hostPath: path: /var/lib/kubelet/device-plugins type: "" name: device-pluginapiVersion: v1 kind: Pod metadata: name: nvidia-device-plugin-pod namespace: gpu-resources spec: affinity: nodeAffinity: requiredDuringSchedulingIgnoredDuringExecution: nodeSelectorTerms: - matchExpressions: - key: agentpool operator: In values: # To be changed to a selector that matches the GPU nodes - migEnabledPoolName containers: - args: - --fail-on-init-error=false env: - name: MPS_ROOT value: /run/nvidia/mps - name: MIG_STRATEGY # We only support the single strategy for now value: single - name: NVIDIA_MIG_MONITOR_DEVICES value: all - name: NVIDIA_VISIBLE_DEVICES value: all - name: NVIDIA_DRIVER_CAPABILITIES value: compute,utility image: nvcr.io/nvidia/k8s-device-plugin:v0.17.3 imagePullPolicy: IfNotPresent name: nvidia-device-plugin-ctr securityContext: allowPrivilegeEscalation: true capabilities: add: - SYS_ADMIN terminationMessagePath: /dev/termination-log terminationMessagePolicy: File volumeMounts: - mountPath: /var/lib/kubelet/device-plugins name: device-plugin tolerations: - key: CriticalAddonsOnly operator: Exists - effect: NoSchedule key: nvidia.com/gpu operator: Exists terminationGracePeriodSeconds: 30 volumes: - hostPath: path: /var/lib/kubelet/device-plugins type: "" name: device-plugin
- Crie um novo namespace:
nvidia.com/gpu, com base no perfil do MIG que você configurou. O nó agora deve ser programável e estar pronto para executar cargas de trabalho do Document Understanding.
Recomendamos habilitar os taints de nó em nós de trabalho dedicados para Automation Suite Robots e Document Understanding.
Exemplo do AI Center e do DU:
-
Para a CPU:
oc taint node <node_name> aic.ml/cpu=present:NoScheduleoc taint node <node_name> aic.ml/cpu=present:NoSchedule
-
Para a GPU:
oc taint node <node_name> nvidia.com/gpu=present:NoScheduleoc taint node <node_name> nvidia.com/gpu=present:NoSchedule
ExemploAutomation Suite Robot :
-
adicione um taint para Serverless Robots usando o seguinte comando:
oc taint node <node_name> serverless.robot=present:NoScheduleoc taint node <node_name> serverless.robot=present:NoSchedule -
adicione os rótulos para Serverless Robots usando o seguinte comando:
oc label node <node_name> serverless.robot=true serverless.daemon=trueoc label node <node_name> serverless.robot=true serverless.daemon=true
Se você tiver taints de nó personalizados que são aplicados pela Política do Gateway, como funções específicas para nós ou rótulos de trabalho, eles não serão passados para o Automation Suite e poderão interromper o processo de instalação.
Para saber mais sobre contaminações e tolerâncias, consulte a documentação do Kubernetes.
- Cluster e permissões
- Capacidade de nó
- Escalonamento automático
- Requisitos adicionais de robôs do Automation Suite
- Tamanho do robô
- Tamanho do nó do agente
- Consumo de recursos do Kubernetes
- Seleção automática do tamanho da máquina
- Recomendações adicionais do Document Understanding
- Requisitos adicionais de projetos modernos do Document Understanding
- Provisionamento de GPUs habilitadas para MIG
- Agendamento de nós