- Visão geral
- Requisitos
- Pré-instalação
- Instalação
- Pós-instalação
- Migração e atualização
- Atualizando o Automação Suite
- Migração de produtos independentes para o Automation Suite
- Etapa 1: restauração do banco de dados de produtos independente
- Etapa 2: atualizar o esquema do banco de dados de produtos restaurado
- Etapa 3: migração dos dados da organização do Identity de independente para o Automation Suite
- Etapa 4: backup do banco de dados da plataforma no Automation Suite
- Etapa 5: mesclando organizações no Automation Suite
- Etapa 6: atualização das strings de conexão do produto migradas
- Etapa 7: migração do Orchestrator independente
- Etapa 8: migração do Insights independente
- Etapa 9: migração do Test Manager independente
- Etapa 10: exclusão do tenant padrão
- Executando uma migração de único tenant
- Migração entre clusters do Automation Suite
- Migração do Automation Suite no EKS/AKS para o Automation Suite no OpenShift
- Monitoramento e alertas
- Administração de cluster
- Configuração específica do produto
- Configuração de parâmetros do Orchestrator
- Configuração do AppSettings
- Configuração do tamanho máximo da solicitação
- Substituição da configuração de armazenamento no nível do cluster
- Configuração do NLog
- Salvando logs do robô no Elasticsearch
- Configuração dos repositórios de credenciais
- Configuração da chave de criptografia por tenant
- Limpeza do banco de dados do Orchestrator
- Solução de problemas
- Não é possível acessar o Automation Hub após a atualização para o Automation Suite 2024.10.0
- Falha no provisionamento do AI Center após a atualização para a 2023.10 ou posterior
- Volumes do Insights criados em duas zonas diferentes após a migração
- Falha de atualização devido aos tamanhos de PVC do Insights substituídos
- A configuração de backup não funciona devido a uma falha na conexão com o Azure Government
- Pods no namespace uipath travaram ao habilitar taints de nó personalizado
- Não é possível iniciar o Automation Hub e o Apps com configuração de proxy
- O Robot não pode se conectar a uma instância do Automation Suite Orchestrator
- O streaming de logs não funciona em configurações de proxy
- O backup do Velero falha com o erro FailedValidation
- O acesso ao FQDN retorna RBAC: erro de acesso negado

Guia de instalação do Automation Suite no EKS/AKS
Cluster e nós do Kubernetes
Cluster e permissões
Você pode trazer seu próprio cluster do Kubernetes e seguir suas práticas padrão para provisioná-lo e gerenciá-lo.
Se você conceder os privilégios de administrador do instalador do Automation Suite, o UiPath® instala e gerencia todos os componentes necessários para executar o Automation Suite. No entanto, se você não puder conceder os privilégios de administrador do instalador no cluster, a instalação de alguns componentes necessários será impossível. Portanto, antes de instalar o Automation Suite em um cluster ao qual você não concedeu os privilégios de administrador do instalador, um usuário administrador deve instalar componentes necessários específicos separadamente, antes da instalação da plataforma do Automation Suite. Aqui estão as principais etapas que você deve executar se não puder conceder privilégios de administrador ao instalador do Automation Suite:
- Instale e configure o service mesh do Istio. Para obter detalhes, consulte Instalação e configuração do service mesh.
- Traga seu próprio ArgoCD. Para obter detalhes, consulte Instalação e configuração da ferramenta GitOps.
- Se você instalar o Process Mining, você mesmo deve instalar o cert-manager e o Dapr. Para obter detalhes, consulte Atender aos pré-requisitos do Process Mining.
- Crie e gerencie certificados por conta própria. Para obter detalhes, consulte Certificados gerados durante a instalação.
- Crie uma conta de serviço e conceda as permissões necessárias para a instalação do Automation Suite. Para obter detalhes, consulte Concedendo permissões de instalação.
Após instalar os componentes necessários, você pode executar o instalador com permissões mais inferiores. Para a lista de permissões necessárias, consulte Concedendo permissões de instalação.
Versões do EKS/AKS compatíveis
Cada versão de suporte de longo prazo do Automation Suite vem com uma matriz de compatibilidade. Para versões do EKS ou do AKS compatíveis, consulte Matriz de compatibilidade.
Testamos a compatibilidade do Automation Suite com os seguintes sistemas operacionais Linux:
| Provedor de nuvem | SO |
|---|---|
| AKS |
|
| EKS |
|
O Automation Suite no EKS/AKS oferece suporte apenas à arquitetura x86 EKS/AKS e não oferece suporte ao ARM64.
Capacidade de nó
Para estimar a capacidade do nó com base em seus requisitos de produto e escala, use a Calculadora de dimensionamento de instalação do UiPath Automation Suite.
O requisito de volume raiz para nós de agente (trabalhador) é de 256 GB.
No mínimo, para começar com os serviços de plataforma obrigatórios (Identity, licenciamento e roteamento) e o Orchestrator, você deve provisionar 8 vCPU e 16 GB de RAM por nó.
Não recomendamos o uso de instâncias regulares no Automation Suite em cenários de produção, devido a problemas de estabilidade e desempenho.
Trocar memória
Você deve desabilitar a memória de troca antes de instalar o Automation Suite. Sabe-se que a memória de troca causa problemas com cargas de trabalho de contêineres. Além disso, as cargas de trabalho do Automation Suite não se beneficiam do uso de memória de troca, e o Kubernetes já otimiza o uso da memória.
Escalonamento automático
Recomendamos habilitar o escalonamento automático em seu cluster para garantir a alta confiabilidade e evitar interrupções nos negócios.
Requisitos adicionais do Task Mining
Se você instalar o Task Mining, você deve provisionar nós de trabalho adicionais com 20 vCPU e 60 GB de RAM. Esse nó deve ser marcado para garantir que apenas cargas de trabalho do Task Mining sejam executadas nele. Para obter detalhes, consulte a seção Agendamento de nós .
Requisitos adicionais de robôs do Automation Suite
Automation Suite Robot precisa de nós de trabalho adicionais.
Os requisitos de hardware para o nó Automation Suite Robots dependem da maneira como você planeja usar seus recursos. Além dos requisitos adicionais do nó do agente, você também precisa de um mínimo de 10 GB de armazenamento de arquivos para habilitar o armazenamento em cache do pacote.
Para obter detalhes, consulte a documentação de armazenamento .
As seções a seguir descrevem os fatores que afetam a quantidade de hardware que o nó Robots do Automation Suite requer.
Tamanho do robô
A tabela a seguir descreve a CPU, memória e armazenamento necessários para todos os tamanhos de robôs.
| Tamanho | CPU | Memória | Armazenamento |
|---|---|---|---|
| Pequeno | 0.5 | 1 GB | 1 GB |
| Padrão | 1 | 2 GB | 2 GB |
| Médio | 2 | 4GB | 4GB |
| Grande | 6 | 10 GB | 10 GB |
Tamanho do nó do agente
Os recursos do nó do agente do Automation Suite Robots têm um impacto no número de trabalhos que podem ser executados simultaneamente. O motivo é que o número de núcleos de CPU e a quantidade de capacidade de RAM são divididos pelos requisitos de CPU/memória do trabalho.
Por exemplo, um nó com 16 CPUs e 32 GB de RAM seria capaz de executar qualquer um dos seguintes:
- 32 pequenos trabalhos
- 16 trabalhos padrão
- 8 trabalhos médios
- 2 trabalhos grandes
Os tamanhos de trabalho podem ser misturados, portanto, a qualquer momento, o mesmo nó pode executar uma combinação de trabalhos, como o seguinte:
- 10 trabalhos pequenos (consumindo 5 CPUs e 10 GB de memória)
- 4 trabalhos padrão (consumindo 4 CPUs e 8 GB de memória)
- 3 trabalhos médios (consumindo 6 CPUs e 12 GB de memória)
Consumo de recursos do Kubernetes
Dado que o nó faz parte de um cluster Kubernetes, o agente Kubernetes presente no servidor (kubelet) consome uma pequena quantidade de recursos. Com base em nossas medições, o kubelet consome os seguintes recursos:
- CPU 0,6
- 0,4GB RAM
Um nó semelhante ao descrito anteriormente teria, na verdade, aproximadamente 15,4 CPUs e 31,6 GB de RAM.
Seleção automática do tamanho da máquina
Todos os seus processos multiplataforma têm a opção Automation Suite Robots definida como Automático por padrão. Essa configuração seleciona o tamanho da máquina apropriado para executar o processo usando Serverless Robots.
Ao escolher automaticamente o tamanho, os critérios listados na tabela abaixo são avaliados por ordem. Assim que um critério é satisfeito, o tamanho da máquina correspondente é escolhido, e os critérios restantes não são avaliados.
| Ordenar | Critério | Tamanho da Máquina |
|---|---|---|
| 1 | Trabalho de depuração remota | Médio |
| 2 | O processo depende da Automação de Interface Gráfica OU o processo depende das atividades do UiPath Document Understanding | Padrão |
| 3 | Outro processo Unattended | Pequeno |
Recomendações adicionais do Document Understanding
Para obter maior desempenho, você pode instalar o Document Understanding em um nó de agente adicional com suporte a GPU. Observe, no entanto, que os projetos baseados no AI Center no Document Understanding são totalmente funcionais sem o nó da GPU. Na verdade, o Document Understanding usa VMs de CPU para todas as suas tarefas de extração e classificação; já para o OCR, recomendamos fortemente o uso de uma VM de GPU.
Para obter mais detalhes sobre o uso de CPUs/GPUs dentro da estrutura do Document Understanding, consulte Uso de CPUs e GPUs.
Se você quiser usar um nó adicional com suporte a GPU, deverá atender aos seguintes requisitos:
| Hardware | Requerimento mínimo |
|---|---|
| Processador | 8 (v-)CPU/cores |
| BATER | 52 GB |
| disco do SO | IOPS mínimo da SSD de 256 GB: 1100 |
| Data Disk | N/A |
| GPU RAM | 11 GB |
Ao adicionar o pool de nós da GPU, é importante que você use --node-taints nvidia.com/gpu=present:NoSchedule em vez de --node-taints sku=gpu:NoSchedule.
Para garantir o agendamento adequado de cargas de trabalho de GPU, certifique-se de que sua configuração YAML do DaemonSet (NFD ou Nvidia GPU) inclua um bloco tolerations correspondente. Você pode usar o exemplo a seguir: atribuição
tolerations:
- key: "nvidia.com/gpu"
operator: "Equal"
value: "present"
effect: "NoSchedule"
tolerations:
- key: "nvidia.com/gpu"
operator: "Equal"
value: "present"
effect: "NoSchedule"
O Automation Suite suporta GPUs NVIDIA. Para saber sobre como configurar GPUs NVDIA (como drivers), consulte os respectivos docs do Azure ou da AWS.
Requisitos adicionais de projetos modernos do Document Understanding
Com a inferência de CPU ativada, são necessárias no mínimo 2 GPUs. Para habilitar a inferência da CPU, defina a propriedade enable_cpu_inference como true, conforme indicado na seção Habilitando ou desabilitando o Document Understanding .
Atenção:
- A inferência pode ser até 10 vezes mais lenta.
- Recomendamos usá-la para documentos com no máximo 125 páginas. Nenhuma limitação ativa está em vigor. No entanto, a inferência pode falhar para documentos maiores que 125 páginas.
Sem inferência de CPU, um mínimo de 5 GPUs é necessário para projetos modernos do Document Understanding. O cenário de exemplo na tabela a seguir demonstra como 5 GPUs são suficientes para processar 300 páginas.
Para projetos modernos do Document Understanding, a GPU mínima recomendada é NVIDIA T4.
| Função | Número |
|---|---|
| Páginas de modelo personalizado processadas por hora | 300 |
| Páginas de modelo prontas para uso processadas por hora | 0 |
| Treinamento de modelos em paralelo | 1 |
| Número de páginas em todos os projetos - Tempo de design | 200 |
| Número de tipos de documentos por versão do projeto | 3 |
As 5 GPUs são distribuídas entre diferentes funções, conforme detalhado na tabela a seguir:
| Serviço | Número de GPUs |
|---|---|
| Réplicas OCR | 1 |
| Réplicas de treinamento do modelo personalizado | 1 |
| Réplicas do modelo personalizado | 2 |
| Réplicas de modelos prontas para uso | 1 |
| Total | 5 |
Para obter mais informações sobre como alocar GPUs para cada serviço, consulte a página Alocação de recursos de GPU para projetos modernos do Document Understanding .
Além das demanda de GPU, os projetos modernos do Document Understanding também exigem recursos específicos de CPU para um desempenho ideal. Para um desempenho ideal, é necessário um mínimo de 18 vCPUs .
Com o projeto moderno do Document Understanding, 4 TB adicionais do objectstore são necessários para realizar as atividades dos exemplos fornecidos continuamente por um ano. Você pode começar com um número menor, mas a atividade falhará assim que o armazenamento for concluído, a menos que você o dimensione explicitamente.
Se você estiver provisionando para um ano de processamento contínuo, precisará de 4 TB para projetos modernos do Document Understanding e 512 GB para os outros produtos. O total será de 4,5 TB de armazenamento. Da mesma forma, se você começar com seis meses de processamento, precisará de 2 TB para projetos modernos do Document Understanding e 512 GB para os outros produtos. Neste caso, o total será de 2,5 TB.
Para obter cálculos mais detalhados e a capacidade necessária para suas necessidades, consulte Calculadora de dimensionamento de instalação do UiPath Automation Suite.
Provisionamento de GPUs habilitadas para MIG
As cargas de trabalho do Automation Suite Document Understanding são suportadas em execução em GPUs virtuais (VGPUs) criadas com a tecnologia NVIDIA MIG (Multi-Instance GPU).
Para executar o Document Understanding nessas condições, tenha em mente os seguintes requisitos:
- Memória da GPU (VRAM): pelo menos 16 GB por VGPU
Observação:
A UiPath aceita apenas a estratégia única, o que significa que todas as VGPUs serão exatamente iguais.
- Armazenamento: pelo menos 80 GB por VGPU
Habilitando GPUs habilitadas para MIG no Kubernetes
Após provisionar as GPUs habilitadas para MIG em seu cluster com perfis que correspondam ou excedam os requisitos mínimos acima, certifique-se de que as GPUs sejam Kubernetes programáveis. O nó deve relatar um número diferente de zero de GPUs antes que cargas de trabalho possam ser agendadas nele.
Para tornar as GPUs programáveis, você tem duas opções:
- Opção A: siga a documentação oficial de configuração da GPU do seu provedor de nuvem:
- Opção B (Alternativa): implante o plug-in de dispositivo da NVIDIA diretamente:
- Crie um novo namespace:
kubectl create namespace gpu-resourceskubectl create namespace gpu-resources - Aplique a seguinte configuração, substituindo
migEnabledPoolNamepelo rótulo que corresponde ao seu nó de GPU:apiVersion: v1 kind: Pod metadata: name: nvidia-device-plugin-pod namespace: gpu-resources spec: affinity: nodeAffinity: requiredDuringSchedulingIgnoredDuringExecution: nodeSelectorTerms: - matchExpressions: - key: agentpool operator: In values: # To be changed to a selector that matches the GPU nodes - migEnabledPoolName containers: - args: - --fail-on-init-error=false env: - name: MPS_ROOT value: /run/nvidia/mps - name: MIG_STRATEGY # We only support the single strategy for now value: single - name: NVIDIA_MIG_MONITOR_DEVICES value: all - name: NVIDIA_VISIBLE_DEVICES value: all - name: NVIDIA_DRIVER_CAPABILITIES value: compute,utility image: nvcr.io/nvidia/k8s-device-plugin:v0.17.3 imagePullPolicy: IfNotPresent name: nvidia-device-plugin-ctr securityContext: allowPrivilegeEscalation: true capabilities: add: - SYS_ADMIN terminationMessagePath: /dev/termination-log terminationMessagePolicy: File volumeMounts: - mountPath: /var/lib/kubelet/device-plugins name: device-plugin tolerations: - key: CriticalAddonsOnly operator: Exists - effect: NoSchedule key: nvidia.com/gpu operator: Exists terminationGracePeriodSeconds: 30 volumes: - hostPath: path: /var/lib/kubelet/device-plugins type: "" name: device-pluginapiVersion: v1 kind: Pod metadata: name: nvidia-device-plugin-pod namespace: gpu-resources spec: affinity: nodeAffinity: requiredDuringSchedulingIgnoredDuringExecution: nodeSelectorTerms: - matchExpressions: - key: agentpool operator: In values: # To be changed to a selector that matches the GPU nodes - migEnabledPoolName containers: - args: - --fail-on-init-error=false env: - name: MPS_ROOT value: /run/nvidia/mps - name: MIG_STRATEGY # We only support the single strategy for now value: single - name: NVIDIA_MIG_MONITOR_DEVICES value: all - name: NVIDIA_VISIBLE_DEVICES value: all - name: NVIDIA_DRIVER_CAPABILITIES value: compute,utility image: nvcr.io/nvidia/k8s-device-plugin:v0.17.3 imagePullPolicy: IfNotPresent name: nvidia-device-plugin-ctr securityContext: allowPrivilegeEscalation: true capabilities: add: - SYS_ADMIN terminationMessagePath: /dev/termination-log terminationMessagePolicy: File volumeMounts: - mountPath: /var/lib/kubelet/device-plugins name: device-plugin tolerations: - key: CriticalAddonsOnly operator: Exists - effect: NoSchedule key: nvidia.com/gpu operator: Exists terminationGracePeriodSeconds: 30 volumes: - hostPath: path: /var/lib/kubelet/device-plugins type: "" name: device-plugin
- Crie um novo namespace:
Após implantar o plug-in, a seção Alocar do nó deve mostrar o número correto de VGPUs sob nvidia.com/gpu, com base no perfil do MIG que você configurou. O nó agora deve ser programável e estar pronto para executar cargas de trabalho do Document Understanding.
Agendamento de nós
Recomendamos habilitar os taints de nó em nós de trabalho dedicados para o Task Mining, Automation Suite Robote Document Understanding.
Exemplo do AI Center e do DU:
-
Para a CPU:
kubectl taint node <node_name> aic.ml/cpu=present:NoSchedulekubectl taint node <node_name> aic.ml/cpu=present:NoSchedule -
Para a GPU:
kubectl taint node <node_name> nvidia.com/gpu=present:NoSchedulekubectl taint node <node_name> nvidia.com/gpu=present:NoSchedule
Exemplo do Task Mining:
kubectl taint node <node_name> task.mining/cpu=present:NoSchedule
kubectl taint node <node_name> task.mining/cpu=present:NoSchedule
ExemploAutomation Suite Robot :
- adicione um taint para Serverless Robots usando o seguinte comando:
kubectl taint node <node_name> serverless.robot=present:NoSchedulekubectl taint node <node_name> serverless.robot=present:NoSchedule - adicione os rótulos para Serverless Robots usando o seguinte comando:
kubectl label node <node_name> serverless.robot=true serverless.daemon=truekubectl label node <node_name> serverless.robot=true serverless.daemon=true
Se você tiver taints de nó personalizados que são aplicados pela Política do Gateway, como funções específicas para nós ou rótulos de trabalho, eles não serão passados para o Automation Suite e poderão interromper o processo de instalação.
Para saber sobre taints e tolerations, consulte a documentação do Kubernetes.
- Cluster e permissões
- Versões do EKS/AKS compatíveis
- Capacidade de nó
- Trocar memória
- Escalonamento automático
- Requisitos adicionais do Task Mining
- Requisitos adicionais de robôs do Automation Suite
- Tamanho do robô
- Tamanho do nó do agente
- Consumo de recursos do Kubernetes
- Seleção automática do tamanho da máquina
- Recomendações adicionais do Document Understanding
- Requisitos adicionais de projetos modernos do Document Understanding
- Provisionamento de GPUs habilitadas para MIG
- Agendamento de nós