- Visão geral
- Requisitos
- Modelos de implantação
- Manual: preparando a instalação
- Manual: preparando a instalação
- Etapa 2: configuração do registro compatível com OCI para instalações offline
- Etapa 3: configuração do objectstore externo
- Etapa 4: configuração do High Availability Add-on
- Etapa 5: configuração de bancos de dados SQL
- Optional: Configuring the L7 Load Balancer
- Etapa 7: configuração do DNS
- Etapa 8: configuração dos discos
- Etapa 9: configuração dos ajustes do nível do kernel e do sistema operacional
- Etapa 10: configuração das portas do nó
- Etapa 11: aplicação de configurações diversas
- Etapa 12: validação e instalação dos pacotes RPM necessários
- Amostra Cluster_config.json
- Configuração geral
- Configuração do perfil
- Configuração de Certificados
- Configuração do Banco de Dados
- Configuração externa do Objectstore
- Configuração de URL pré-assinada
- Configuração do ArgoCD
- Configuração da autenticação do Kerberos
- Configuração de registro externo compatível com OCI
- Disaster Recovery: configurações Ativo/Passivo e Ativo/Ativo
- Configuração do High Availability Add-on
- Configuração específica do Orchestrator
- Configuração específica do Insights
- Process Mining-specific configuration
- Configuração específica do Document Understanding
- Automation Suite Robots-specific configuration
- Configuração específica do AI Center
- Configuração do monitoramento
- Opcional: configuração do servidor proxy
- Opcional: habilitação da resiliência a falhas zonais em um cluster de produção pronto para alta disponibilidade de vários nós
- Opcional: transmitindo resolv.conf personalizado
- Optional: Increasing fault tolerance
- Adicionando um nó de agente dedicado com suporte a GPU
- Adicionando um nó de agente dedicado para robôs do Automation Suite
- Etapa 15: configuração do registro temporário do Docker para instalações offline
- Etapa 16: validação dos pré-requisitos para a instalação
- Manual: realizando a instalação
- Pós-instalação
- Administração de cluster
- Gerenciando produtos
- Introdução ao portal de administração do cluster
- Migração do Redis do High Availability Add-on no cluster para externo
- Migrating data between objectstores
- Migrating in-cluster objectstore to external objectstore
- Migração de um registro no cluster para um registro externo compatível com OCI
- Mudança para o cluster secundário manualmente em uma configuração Ativo/Passivo
- Disaster Recovery: executando operações pós-instalação
- Convertendo uma instalação existente para configuração multi-local
- Diretrizes sobre atualização de uma implantação Ativo/Passivo ou Ativo/Ativo
- Diretrizes sobre backup e restauração de uma implantação Ativo/Passivo ou Ativo/Ativo
- Escalando uma implantação de nó único (avaliação) para uma implantação de vários nós (HA)
- Monitoramento e alertas
- Migração e atualização
- Migração entre clusters do Automation Suite
- Atualizando o Automação Suite
- Download dos pacotes de instalação e obtenção de todos os arquivos no primeiro nó do servidor
- Recuperação da mais recente configuração aplicada do cluster
- Atualização da configuração de cluster
- Configuração do registro compatível com OCI para instalações offline
- Execução da atualização
- Realização de operações pós-atualização
- Configuração específica do produto
- Configuração de parâmetros do Orchestrator
- Configuração do AppSettings
- Configuração do tamanho máximo da solicitação
- Substituição da configuração de armazenamento no nível do cluster
- Configuração do NLog
- Salvando logs do robô no Elasticsearch
- Configuração dos repositórios de credenciais
- Configuração da chave de criptografia por tenant
- Limpeza do banco de dados do Orchestrator
- Melhores práticas e manutenção
- Solução de problemas
- Como solucionar problemas dos serviços durante a instalação
- Como desinstalar o cluster
- Como limpar os artefatos offline para melhorar o espaço em disco
- Como limpar os dados do Redis
- Como habilitar o registro em log do Istio
- Como limpar logs manualmente
- Como limpar logs antigos armazenados no bucket do sf-logs
- Como desabilitar os logs de streaming para o AI Center
- Como depurar instalações do Automation Suite com falha
- Como excluir imagens do instalador antigo após a atualização
- Como desabilitar o descarregamento de soma de verificação do TX
- Como definir manualmente o nível de log do ArgoCD como Info
- Como expandir o armazenamento do AI Center
- Como gerar o pull_secret_value codificado para registros externos
- Como lidar com cifras fracas no TLS 1.2
- Como verificar a versão do TLS
- Como trabalhar com certificados
- Como agendar o backup e restaurar dados do Ceph
- Como coletar dados de uso de DU com objectstore (Ceph) no cluster
- Como instalar o RKE2 SELinux em ambientes air-gapped
- How to clean up old differential backups on an NFS server
- Erro ao baixar o pacote
- A instalação offline falha devido a um binário ausente
- Problema de certificado na instalação offline
- Erro de validação da string de conexão ao SQL
- Azure disk not marked as SSD
- Falha após a atualização do certificado
- Antivírus causa problemas de instalação
- Automation Suite not working after OS upgrade
- O Automation Suite requer que backlog_wait_time seja definido como 0
- A instalação do registro temporário falha no RHEL 8.9
- Problema de reinício frequente em implantações de namespace uipath durante instalações offline
- Configurações de DNS não honradas pelo CoreDNS
- Upgrade fails due to unhealthy Ceph
- RKE2 não é iniciado devido a um problema de espaço
- A atualização falha devido a objetos clássicos no banco de dados do Orchestrator
- Um cluster do Ceph foi encontrado em um estado degradado após atualização lado a lado
- A atualização do serviço falha para o Apps
- Tempos limite de atualização no local
- Falha de atualização em ambientes offline
- pod snapshot-controller-crds no estado CrashLoopBackOff após a atualização
- Falha de atualização devido aos tamanhos de PVC do Insights substituídos
- Configurando um intervalo de tempo limite para os portais de gerenciamento
- Autenticação não funciona após migração
- kinit: não é possível encontrar o KDC para o realm <AD Domain> ao obter credenciais iniciais
- kinit: o Keytab não contém chaves adequadas para *** ao obter credenciais iniciais
- Falha na operação GSSAPI devido a código de status inválido
- Alarme recebido para trabalho com falha do Kerberos-tgt-update
- Provedor de SSPI: servidor não encontrado no banco de dados Kerberos
- Falha de login para usuário do AD devido a conta desabilitada
- ArgoCD login failed
- Atualizar as conexões de diretório subjacentes
- Falha ao obter a imagem do sandbox
- Os pods não são exibidos na UI do ArgoCD
- Falha de teste do Redis
- O servidor RKE2 falha ao iniciar
- Segredo não encontrado no namespace da UiPath
- O ArgoCD entra em estado Em andamento após a primeira instalação
- Métricas Ceph-rook ausentes nos painéis de monitoramento
- Incompatibilidade em erros relatados durante as verificações de integridade do diagnóstico
- Nenhum problema upstream íntegro
- Redis startup blocked by antivirus
- O Document Understanding não está no menu de navegação esquerdo do Automation Suite
- Status de Falha ao criar uma sessão de rotulagem de dados
- Status de Falha ao tentar implantar uma habilidade de ML
- Trabalho de migração falha no ArgoCD
- Reconhecimento de escrita com o Extrator de formulários inteligente não está funcionando
- Execução de alta disponibilidade com o Process Mining
- Falha na ingestão do Process Mining ao fazer logon usando o Kerberos
- Não é possível conectar-se ao banco de dados AutomationSuite_ProcessMining_Warehouse usando uma string de conexão em formato pyodbc.
- A instalação do Airflow falha com sqlalchemy.exc.ArgumentError: não foi possível analisar o URL rfc1738 da string ''
- Como adicionar uma regra de tabela de IP para usar a porta 1433 do SQL Server
- O certificado do Automation Suite não é confiável para o servidor em que o CData Sync está sendo executado
- Execução da ferramenta de diagnóstico
- Usando o pacote de suporte do Automation Suite
- Exploração de logs
- Exploração de telemetria resumida

Guia de instalação do Automation Suite no Linux
Layer 7 (L7) load balancer support is available as an optional alternative to the standard Layer 4 (L4) configuration for multi-node, HA-ready production deployments. Unlike L4 load balancers, which operate at the network/transport layer, L7 load balancers provide application-layer intelligence with advanced traffic management capabilities.
Key benefits of using an L7 load balancer include:
- Web Application Firewall (WAF) protection against common web vulnerabilities
- SSL/TLS termination at the load balancer level, reducing backend server load
- Content and path-based routing for intelligent traffic distribution
- Advanced monitoring and analytics with application-layer visibility
- RKE2 does not support TLS termination at the load balancer level. This requires direct TCP/TLS passthrough for services such as the Kubernetes API and RKE2 Supervisor.
- L4 configuration is recommended; however, L7 configuration is also supported.
- L7 load balancers support the same x-forwarded-for header preservation for client IP tracking.
The following diagram shows how HTTPS traffic is processed by the L7 load balancer.
-
HTTPS Listener Certificate
You must configure a client-validated TLS certificate (custom SAN certificate) on the load balancer’s HTTPS listener. This ensures that all browser and API clients trust the Automation Suite endpoint. The certificate is required for the client-to-load balancer SSL connection.
-
Backend TLS certificates
If your server-side TLS certificates are self-signed or not issued by a public CA, upload the corresponding root certificate into the load balancer’s backend configuration. This allows the load balancer to validate and re-encrypt traffic to the Automation Suite servers. The certificate is required for the load balancer-to-server SSL connection.
Automation Suite supports two L7 load balancer configurations:
- L7 load balancer with L4 capabilities configuration (recommended)
- L7-only load balancer configuration (alternative)
This configuration provides full L7 capabilities while maintaining RKE2 compatibility.
Requisitos
To use this configuration, your load balancer must meet the following requirements:- Support both L7 and L4 modes (for example, Azure Application Gateway)
- Allow TCP/TLS passthrough for Kubernetes control plane services (ports 6443 and 9345), which require direct TCP/TLS connectivity
Configurando o pool de back-end
As part of the configuration, you need to set up the following backend pools on the load balancer:- Server pool: All server nodes only (no agent nodes)
- Node pool: All server nodes plus nonspecialized agent nodes (no GPU or attended robots)
- Temporary registry pool: The server node where the temporary registry is installed
- This pool is used only during installation, node joining, and upgrade. After completing those procedures, you can close it.
Habilitando portas no balanceador de carga
You must enable the following ports on the load balancer. The following table lists the required ports and their traffic handling.
| Porta | Protocol | Camada | Finalidade | Traffic handling |
|---|---|---|---|---|
443 | Https | L7 | Automation Suite web access | SSL termination at load balancer (node pool) |
300701 | Http | L7 | Temporary registry access | No TLS termination (temporary registry pool) |
6443 | TCP | L4 | Kubernetes API access (node joining) | TCP/TLS passthrough (server pool) |
9345 | TCP | L4 | Kubernetes API access (node joining) | TCP/TLS passthrough (server pool) |
30070 on the load balancer and on the server node where the temporary Docker registry is installed.
Also configure listeners, health probes, routing rules, and backend settings in the load balancer according to the definitions above.
The following diagram describes how ports are enabled and mapped in an L7 load balancer with L4 capabilities.
This configuration is intended for environments where L4 capabilities are not available. In this case, node joining bypasses the L7 load balancer and connects directly to the server nodes for control plane traffic.
- This configuration does not provide resilience if nodes fail during installation.
- If the primary server is down or deleted, you must update the cluster configuration. If you are adding a new server node after deletion, configure it appropriately based on your requirements before adding it to the server node pool.
- The FQDN of the primary server must be remapped to another available machine in the cluster.
Configurando o pool de back-end
In this configuration, you need to create the following backend pools on the load balancer:- Node pool: Contains all server nodes and nonspecialized agent nodes
- Temporary registry pool (if required): Contains the server node where the temporary registry is installed
Habilitando portas no balanceador de carga
You must enable the following ports on the load balancer. The following table lists the required ports and their traffic handling.
| Porta | Protocol | Finalidade | Traffic handling |
|---|---|---|---|
443 | Https | Automation Suite web access | Forward traffic to the node pool |