- Visão geral
- Requisitos
- Modelos de implantação
- Manual: preparando a instalação
- Manual: preparando a instalação
- Etapa 2: configuração do registro compatível com OCI para instalações offline
- Etapa 3: configuração do objectstore externo
- Etapa 4: configuração do High Availability Add-on
- Etapa 5: configuração de bancos de dados SQL
- Etapa 7: configuração do DNS
- Etapa 8: configuração dos discos
- Etapa 10: configuração das portas do nó
- Etapa 11: aplicação de configurações diversas
- Etapa 12: validação e instalação dos pacotes RPM necessários
- Etapa 13: geração de cluster_config.json
- Amostra Cluster_config.json
- Configuração geral
- Configuração do perfil
- Configuração de Certificados
- Configuração do Banco de Dados
- Configuração externa do Objectstore
- Configuração de URL pré-assinada
- Configuração do ArgoCD
- Configuração da autenticação do Kerberos
- Configuração de registro externo compatível com OCI
- Disaster Recovery: configurações Ativo/Passivo e Ativo/Ativo
- Configuração do High Availability Add-on
- Configuração específica do Orchestrator
- Configuração específica do Insights
- Process Mining-specific configuration
- Configuração específica do Document Understanding
- Automation Suite Robots-specific configuration
- Configuração específica do AI Center
- Configuração do monitoramento
- Opcional: configuração do servidor proxy
- Opcional: habilitação da resiliência a falhas zonais em um cluster de produção pronto para alta disponibilidade de vários nós
- Opcional: transmitindo resolv.conf personalizado
- Optional: Increasing fault tolerance
- Adicionando um nó de agente dedicado com suporte a GPU
- Adicionando um nó de agente dedicado para robôs do Automation Suite
- Etapa 15: configuração do registro temporário do Docker para instalações offline
- Etapa 16: validação dos pré-requisitos para a instalação
- Executando o uipathctl
- Manual: realizando a instalação
- Pós-instalação
- Administração de cluster
- Gerenciando produtos
- Introdução ao portal de administração do cluster
- Migração do Redis do High Availability Add-on no cluster para externo
- Migrating data between objectstores
- Migrating in-cluster objectstore to external objectstore
- Migração de um registro no cluster para um registro externo compatível com OCI
- Configuração da pós-instalação do FQDN
- Encaminhamento de logs para ferramentas externas
- Encaminhando logs do Kubernetes para o Elasticsearch
- Mudança para o cluster secundário manualmente em uma configuração Ativo/Passivo
- Disaster Recovery: executando operações pós-instalação
- Convertendo uma instalação existente para configuração multi-local
- Diretrizes sobre atualização de uma implantação Ativo/Passivo ou Ativo/Ativo
- Diretrizes sobre backup e restauração de uma implantação Ativo/Passivo ou Ativo/Ativo
- Escalando uma implantação de nó único (avaliação) para uma implantação de vários nós (HA)
- Monitoramento e alertas
- Migração e atualização
- Migração entre clusters do Automation Suite
- Atualizando o Automação Suite
- Download dos pacotes de instalação e obtenção de todos os arquivos no primeiro nó do servidor
- Recuperação da mais recente configuração aplicada do cluster
- Atualização da configuração de cluster
- Configuração do registro compatível com OCI para instalações offline
- Execução da atualização
- Realização de operações pós-atualização
- Configuração específica do produto
- Configuração de parâmetros do Orchestrator
- Configuração do AppSettings
- Configuração do tamanho máximo da solicitação
- Substituição da configuração de armazenamento no nível do cluster
- Configuração do NLog
- Salvando logs do robô no Elasticsearch
- Configuração dos repositórios de credenciais
- Configuração da chave de criptografia por tenant
- Limpeza do banco de dados do Orchestrator
- Melhores práticas e manutenção
- Solução de problemas
- Como solucionar problemas dos serviços durante a instalação
- Como desinstalar o cluster
- Como limpar os artefatos offline para melhorar o espaço em disco
- Como limpar os dados do Redis
- Como habilitar o registro em log do Istio
- Como limpar logs manualmente
- Como limpar logs antigos armazenados no bucket do sf-logs
- Como desabilitar os logs de streaming para o AI Center
- Como depurar instalações do Automation Suite com falha
- Como excluir imagens do instalador antigo após a atualização
- Como desabilitar o descarregamento de soma de verificação do TX
- Como definir manualmente o nível de log do ArgoCD como Info
- Como expandir o armazenamento do AI Center
- Como gerar o pull_secret_value codificado para registros externos
- Como lidar com cifras fracas no TLS 1.2
- Como verificar a versão do TLS
- Como trabalhar com certificados
- Como agendar o backup e restaurar dados do Ceph
- Como coletar dados de uso de DU com objectstore (Ceph) no cluster
- Como instalar o RKE2 SELinux em ambientes air-gapped
- Como limpar backups diferenciados antigos em um servidor NFS
- Erro ao baixar o pacote
- A instalação offline falha devido a um binário ausente
- Problema de certificado na instalação offline
- Erro de validação da string de conexão ao SQL
- Azure disk not marked as SSD
- Falha após a atualização do certificado
- Antivírus causa problemas de instalação
- Automation Suite not working after OS upgrade
- O Automation Suite requer que backlog_wait_time seja definido como 0
- A instalação do registro temporário falha no RHEL 8.9
- Problema de reinício frequente em implantações de namespace uipath durante instalações offline
- Configurações de DNS não honradas pelo CoreDNS
- Upgrade fails due to unhealthy Ceph
- RKE2 não é iniciado devido a um problema de espaço
- A atualização falha devido a objetos clássicos no banco de dados do Orchestrator
- Um cluster do Ceph foi encontrado em um estado degradado após atualização lado a lado
- A atualização do serviço falha para o Apps
- Tempos limite de atualização no local
- Falha de atualização em ambientes offline
- pod snapshot-controller-crds no estado CrashLoopBackOff após a atualização
- Falha de atualização devido aos tamanhos de PVC do Insights substituídos
- Falha de atualização devido ao nome de host em letra maiúscula
- Configurando um intervalo de tempo limite para os portais de gerenciamento
- Autenticação não funciona após migração
- kinit: não é possível encontrar o KDC para o realm <AD Domain> ao obter credenciais iniciais
- kinit: o Keytab não contém chaves adequadas para *** ao obter credenciais iniciais
- Falha na operação GSSAPI devido a código de status inválido
- Alarme recebido para trabalho com falha do Kerberos-tgt-update
- Provedor de SSPI: servidor não encontrado no banco de dados Kerberos
- Falha de login para usuário do AD devido a conta desabilitada
- ArgoCD login failed
- Atualizar as conexões de diretório subjacentes
- Falha ao obter a imagem do sandbox
- Os pods não são exibidos na UI do ArgoCD
- Falha de teste do Redis
- O servidor RKE2 falha ao iniciar
- Segredo não encontrado no namespace da UiPath
- O ArgoCD entra em estado Em andamento após a primeira instalação
- Métricas Ceph-rook ausentes nos painéis de monitoramento
- Incompatibilidade em erros relatados durante as verificações de integridade do diagnóstico
- Nenhum problema upstream íntegro
- Inicialização do Redis bloqueada por antivírus
- O Document Understanding não está no menu de navegação esquerdo do Automation Suite
- Status de Falha ao criar uma sessão de rotulagem de dados
- Status de Falha ao tentar implantar uma habilidade de ML
- Trabalho de migração falha no ArgoCD
- Reconhecimento de escrita com o Extrator de formulários inteligente não está funcionando
- Execução de alta disponibilidade com o Process Mining
- Falha na ingestão do Process Mining ao fazer logon usando o Kerberos
- Não é possível conectar-se ao banco de dados AutomationSuite_ProcessMining_Warehouse usando uma string de conexão em formato pyodbc.
- A instalação do Airflow falha com sqlalchemy.exc.ArgumentError: não foi possível analisar o URL rfc1738 da string ''
- Como adicionar uma regra de tabela de IP para usar a porta 1433 do SQL Server
- O certificado do Automation Suite não é confiável para o servidor em que o CData Sync está sendo executado
- Execução da ferramenta de diagnóstico
- Usando o pacote de suporte do Automation Suite
- Exploração de logs
- Exploração de telemetria resumida

Guia de instalação do Automation Suite no Linux
Automation Suite supports forwarding Kubernetes infrastructure and application logs to external observability platforms.
This section describes how to forward logs to Elasticsearch, explains the available options, and outlines the recommended approach for most scenarios.
This Section covers forwarding Kubernetes pod logs.
For forwarding Robot logs, refer to Saving robot logs to Elasticsearch.
Elastic provides multiple agents and operators for ingesting logs from Kubernetes. Depending on your Elastic Stack version, you can choose the most suitable mechanism:
-
Filebeat (legacy approach)
Filebeat was the traditional method for collecting Kubernetes logs and shipping them to Elasticsearch. It is suitable for older Elasticsearch versions (7.x and early 8.x).
For more details, refer to the official Elastic documentation.
-
Elastic Agent (unified agent)
Elastic Agent collects all forms of data from anywhere with a single unified agent per host. It is recommended for Elastic Stack 8.x.
For more details, refer to the official Elastic documentation.
-
Elastic Distribution of OpenTelemetry (EDOT)
EDOT (Elastic Distribution of OpenTelemetry) is recommended for new installations and for environments where you use Elasticsearch 8.16+.
EDOT is the recommended choice for the following reasons:
- Fully OpenTelemetry-compliant
- Developed and supported by Elastic
- Simple to operate (Helm charts and CRDs)
- Future-proof (Elastic has announced an OTel-first strategy)
To install EDOT in your Automation Suite cluster, follow the instructions provided in the official official Elastic documentation.
You can modify the EDOT values file to match your environment and logging requirements.
Locate the corresponding sections in your EDOT values file and update them as needed. Apply only what is relevant to your setup.
The following examples show common customizations:
- To exclude noisy or high-volume logs, see the following configuration example:
config: receivers: filelog: exclude: - /var/log/pods/opentelemetry-operator-system_opentelemetry-kube-stack*/*/*.log - /var/log/pods/*/*/istio-proxy/*.log - /var/log/pods/*/*/istio-init/*.log - /var/log/pods/*/*/aicenter-hit-count-update/*.log - /var/log/pods/*/*/istio-configure-executor/*.log - /var/log/pods/*/*/on-prem-tenant-license-update/*.log - /var/log/pods/*/*/curl/*.log - /var/log/pods/*/*/recovery/*.log - /var/log/pods/*/*/aicenter-oob-scheduler/*.log - /var/log/pods/*/*/cert-trustor/*.log - /var/log/pods/default_*/*.log - /var/log/pods/fleet-system_*/*.log - /var/log/pods/gatekeeper_*/*.logconfig: receivers: filelog: exclude: - /var/log/pods/opentelemetry-operator-system_opentelemetry-kube-stack*/*/*.log - /var/log/pods/*/*/istio-proxy/*.log - /var/log/pods/*/*/istio-init/*.log - /var/log/pods/*/*/aicenter-hit-count-update/*.log - /var/log/pods/*/*/istio-configure-executor/*.log - /var/log/pods/*/*/on-prem-tenant-license-update/*.log - /var/log/pods/*/*/curl/*.log - /var/log/pods/*/*/recovery/*.log - /var/log/pods/*/*/aicenter-oob-scheduler/*.log - /var/log/pods/*/*/cert-trustor/*.log - /var/log/pods/default_*/*.log - /var/log/pods/fleet-system_*/*.log - /var/log/pods/gatekeeper_*/*.log - To configure TLS settings when you use self-signed certificates in a development setup, see the following configuration example:Use this only for non-production environments.
config: exporters: elasticsearch/otel: tls: insecure_skip_verify: trueconfig: exporters: elasticsearch/otel: tls: insecure_skip_verify: true - To disable metrics and traces and use logs-only mode, see the following configuration example:
config: service: pipelines: metrics: null traces: nullconfig: service: pipelines: metrics: null traces: null
Deploying EDOT adds components (such as collectors, processors, and exporters) that run across the cluster. As a result, overall CPU and memory usage increases. Ensure that your cluster has enough available resources to support these components. You can adjust the EDOT resource requests and limits in the values file to meet your cluster’s requirements.