automation-suite
2023.4
false
- Visão geral
- Requisitos
- Instalação
- Q&A: Deployment templates
- Configuração das máquinas
- Configurando o objectstore externo
- Configurando um registro externo do Docker
- Configuração do balanceador de carga
- Configuração do DNS
- Como configurar o Microsoft SQL Server
- Configuração dos certificados
- Instalação online de produção pronta para alta disponibilidade de vários nós
- Instalação offline de produção pronta para alta disponibilidade de vários nós
- Disaster Recovery - Instalando o cluster secundário
- Baixando os pacotes de instalação
- Parâmetros do install-uipath.sh
- Como habilitar o High Availability Add-on do Redis para o cluster
- Arquivo de configuração do Document Understanding
- Adicionando um nó de agente dedicado com suporte a GPU
- Adição de um nó de agente dedicado ao Task Mining
- Conexão do aplicativo Task Mining
- Adicionando um nó de agente dedicado para robôs do Automation Suite
- Pós-instalação
- Administração de cluster
- Monitoramento e alertas
- Migração e atualização
- Opções de migração
- Etapa 1: mover os dados da organização do Identity, de independente para o Automation Suite
- Etapa 2: restauração do banco de dados de produtos independente
- Etapa 3: backup do banco de dados da plataforma no Automation Suite
- Etapa 4: mesclando organizações no Automation Suite
- Etapa 5: atualização das strings de conexão do produto migradas
- Etapa 6: migração do Insights independente
- Etapa 7: exclusão do tenant padrão
- Executando uma migração de único tenant
- Configuração específica do produto
- Melhores práticas e manutenção
- Solução de problemas
- Como solucionar problemas dos serviços durante a instalação
- Como desinstalar o cluster
- Como limpar os artefatos offline para melhorar o espaço em disco
- Como limpar os dados do Redis
- Como habilitar o registro em log do Istio
- Como limpar logs manualmente
- Como limpar logs antigos armazenados no bucket do sf-logs
- Como desabilitar os logs de streaming para o AI Center
- Como depurar instalações do Automation Suite com falha
- Como excluir imagens do instalador antigo após a atualização
- Como limpar automaticamente instantâneos do Longhorn
- Como desabilitar o descarregamento de soma de verificação do TX
- Como definir manualmente o nível de log do ArgoCD como Info
- Como gerar o pull_secret_value codificado para registros externos
- Como lidar com cifras fracas no TLS 1.2
- Como trabalhar com certificados
- Como coletar dados de uso de DU com objectstore (Ceph) no cluster
- Como instalar o RKE2 SELinux em ambientes air-gapped
- Como limpar backups diferenciados antigos em um servidor NFS
- Não é possível executar uma instalação offline no SO RHEL 8.4
- Erro ao baixar o pacote
- A instalação offline falha devido a um binário ausente
- Problema de certificado na instalação offline
- First installation fails during Longhorn setup
- Erro de validação da string de conexão ao SQL
- Verificação de pré-requisito para o módulo iscsid do selinux falha
- Azure disk not marked as SSD
- Falha após a atualização do certificado
- Antivírus causa problemas de instalação
- Automation Suite not working after OS upgrade
- O Automation Suite requer que backlog_wait_time seja definido como 0
- Nó da GPU afetado por indisponibilidade de recurso
- Não é possível montar o volume devido a não estar pronto para cargas de trabalho
- Falha na coleta de logs do pacote de suporte
- A atualização de nó único falha no estágio de malha
- Cluster unhealthy after automated upgrade from 2021.10
- Upgrade fails due to unhealthy Ceph
- RKE2 não é iniciado devido a um problema de espaço
- A validação de SQL falha durante a atualização
- pod snapshot-controller-crds no estado CrashLoopBackOff após a atualização
- Falha ao carregar ou baixar dados no objectstore
- PVC resize does not heal Ceph
- Falha no redimensionamento do PVC
- Falha no redimensionamento do PVC do Objectstore
- Pod do Rook Ceph ou Looker travado no estado Init
- Erro de anexo de volume StatefulSet
- Falha ao criar volumes persistentes
- Patch de reclamação de armazenamento
- Falha de backup devido ao erro TooManySnapshots
- Todas as réplicas do Longhorn estão com falha
- Configurando um intervalo de tempo limite para os portais de gerenciamento
- Atualizar as conexões de diretório subjacentes
- Autenticação não funciona após migração
- kinit: não é possível encontrar o KDC para o realm <AD Domain> ao obter credenciais iniciais
- kinit: o Keytab não contém chaves adequadas para *** ao obter credenciais iniciais
- Falha na operação GSSAPI devido a código de status inválido
- Alarme recebido para trabalho com falha do Kerberos-tgt-update
- Provedor de SSPI: servidor não encontrado no banco de dados Kerberos
- Falha de login para usuário do AD devido a conta desabilitada
- ArgoCD login failed
- Falha ao obter a imagem do sandbox
- Os pods não são exibidos na UI do ArgoCD
- Falha de teste do Redis
- O servidor RKE2 falha ao iniciar
- Segredo não encontrado no namespace da UiPath
- O ArgoCD entra em estado Em andamento após a primeira instalação
- Problemas de acesso à conta somente leitura do ArgoCD
- Pods de MongoDB em CrashLoopBackOff ou provisionamento de PVC pendente após exclusão
- Unhealthy services after cluster restore or rollback
- Pods presos em Init:0/X
- Prometheus no estado CrashloopBackoff com erro de falta de memória (OOM)
- Métricas Ceph-rook ausentes nos painéis de monitoramento
- Os pods não podem se comunicar com o FQDN em um ambiente de proxy
- Falha ao configurar alertas por e-mail após a atualização
- Nenhum problema upstream íntegro
- O Document Understanding não está no menu de navegação esquerdo do Automation Suite
- Status de Falha ao criar uma sessão de rotulagem de dados
- Status de Falha ao tentar implantar uma habilidade de ML
- Trabalho de migração falha no ArgoCD
- Reconhecimento de escrita com o Extrator de formulários inteligente não está funcionando
- Falha na implantação de habilidade de ML devido à expiração do token
- Execução de alta disponibilidade com o Process Mining
- Falha na ingestão do Process Mining ao fazer logon usando o Kerberos
- Não é possível conectar-se ao banco de dados AutomationSuite_ProcessMining_Warehouse usando uma string de conexão em formato pyodbc.
- A instalação do Airflow falha com sqlalchemy.exc.ArgumentError: não foi possível analisar o URL rfc1738 da string ''
- Como adicionar uma regra de tabela de IP para usar a porta 1433 do SQL Server
- Usando a ferramenta de diagnóstico do Automation Suite
- Usando o pacote de suporte do Automation Suite
- Exploração de logs
Importante :
A tradução automática foi aplicada parcialmente neste conteúdo.
A localização de um conteúdo recém-publicado pode levar de 1 a 2 semanas para ficar disponível.

Guia de instalação do Automation Suite no Linux
Última atualização 23 de dez de 2025
Observação: esta etapa é opcional, mas altamente recomendada ao atualizar o Automation Suite.
Na versão 2021.10.0, você precisava trazer um disco físico para o armazenamento de blocos/disco de dados. No entanto, com um disco físico, o tamanho de um volume/PVC que você podia criar era limitado ao tamanho do disco subjacente. Além disso, apenas o dimensionamento vertical era possível. É por isso que o Longhorn recomenda veementemente usar o LVM para agregar todos os discos de dados em uma única partição. Isso permite que o armazenamento de blocos seja estendido com facilidade no futuro Longhorn | Práticas recomendadas.
Se você alocou armazenamento de 2TiB para o Longhorn e seus requisitos de armazenamento são baixos, recomendamos migrar para o LVM.
- Seu cluster deve ser um cluster de produção pronto para alta disponibilidade de vários nós, ou seja, o cluster deve conter um mínimo de três nós de servidor.
- Certifique-se de que nenhuma das cargas de trabalho da família AI (AI Center, DU, TM) esteja sendo executada no momento da rotação de nós, caso contrário, essas cargas de trabalho falharão abruptamente.
- Você deve atualizar o Automation Suite para a versão 2021.10.1.
- Ao configurar o cluster em
cluster_config.jsoncomofixed_rke2_address, o URL do LB é usado em vez de embutir o IP ou FQDN da primeira máquina. - Provisione três máquinas em standby que substituirão os nós de servidor originais. A configuração de hardware dessas máquinas deve ser a mesma que a de seus nós de servidor existentes. As máquinas devem ser colocadas na mesma VPC, subrede, grupo de segurança de rede, etc., e o número de discos anexados e seu tamanho também devem ser os mesmos.
- Certifique-se de que todas as portas estejam acessíveis nas máquinas. Consulte Configuração das máquinas para obter mais detalhes.
- Não crie as partições de disco manualmente em novas máquinas. Em vez disso, use o script de particionamento de disco documentado em Como configurar o disco.
- Certifique-se de que os nomes de host das máquinas sejam idênticos. Por exemplo, se seus servidores antigos tiverem os nomes
server0,server1eserver2, dê esses mesmos nomes de host para os novos nós de servidor. - Copie a pasta do instalador junto com
cluster_config.jsondo primeiro servidor existente para todas as três máquinas recém-criadas. - Antes de prosseguir com a rotação do servidor, execute esse script de verificação de integridade de qualquer um dos servidores existentes. O script não deve gerar nenhum erro e deve emitir para você a seguinte mensagem:
All Deployments are Healthy.
- Os nós de servidor devem ser rotaciodados um a um. Observe que o processo de rotação de nós não se aplica para nós de agente.
- Desligue o nó antigo
server-Npara que as cargas de trabalho em execução no nó sejam excluídas corretamente (Né o nó de número n; por exemplo,server0). -
Remova o servidor do cluster executando o seguinte comando:
#where N is the nth server node Ex: server0 kubectl delete node server-N#where N is the nth server node Ex: server0 kubectl delete node server-N - Remova o servidor N do pool de back-end do balanceador de carga, ou seja, tanto do pool de servidores quanto de nós. Consulte Configuração do balanceador de carga para obter mais detalhes.
- No novo nó do servidor N, instale o Kubernetes e configure o novo nó como um servidor. Consulte Adição de um novo nó ao cluster para obter mais detalhes.
- Depois que a instalação do Kubernetes for bem-sucedida, execute
kubectl get nodese verifique se o novo nó está de fato associado ao cluster original. - Execute o script de verificação de integridade do nó recém-adicionado para monitorar a integridade do cluster. O script deve exibir a seguinte mensagem:
All Deployments are Healthy. - Depois que o script de verificação de integridade retornar um sucesso, adicione o novo nó de servidor aos pools de servidor e nós no Balanceador de carga. Consulte Configuração do balanceador de carga para obter mais detalhes.
- Repita o processo de rotação de nós para outros nós de servidor, ou seja, servidor 1, servidor 2, servidor N.
- Depois que todos os nós de servidor forem rotacionados, você pode excluir os nós de servidor mais antigos que estão no estado de desligamento.