- Visão geral
- Requisitos
- Instalação
- Q&A: Deployment templates
- Configuração das máquinas
- Configurando o objectstore externo
- Configurando um registro externo do Docker
- Configuração do balanceador de carga
- Configuração do DNS
- Como configurar o Microsoft SQL Server
- Configuração dos certificados
- Instalação online de produção pronta para alta disponibilidade de vários nós
- Instalação offline de produção pronta para alta disponibilidade de vários nós
- Disaster Recovery - Instalando o cluster secundário
- Baixando os pacotes de instalação
- Parâmetros do install-uipath.sh
- Como habilitar o High Availability Add-on do Redis para o cluster
- Arquivo de configuração do Document Understanding
- Adicionando um nó de agente dedicado com suporte a GPU
- Adição de um nó de agente dedicado ao Task Mining
- Conexão do aplicativo Task Mining
- Adicionando um nó de agente dedicado para robôs do Automation Suite
- Pós-instalação
- Administração de cluster
- Monitoramento e alertas
- Migração e atualização
- Opções de migração
- Etapa 1: mover os dados da organização do Identity, de independente para o Automation Suite
- Etapa 2: restauração do banco de dados de produtos independente
- Etapa 3: backup do banco de dados da plataforma no Automation Suite
- Etapa 4: mesclando organizações no Automation Suite
- Etapa 5: atualização das strings de conexão do produto migradas
- Etapa 6: migração do Insights independente
- Etapa 7: exclusão do tenant padrão
- B) Migração de um único tenant
- Configuração específica do produto
- Melhores práticas e manutenção
- Solução de problemas
- Como solucionar problemas dos serviços durante a instalação
- Como desinstalar o cluster
- Como limpar os artefatos offline para melhorar o espaço em disco
- Como limpar os dados do Redis
- Como habilitar o registro em log do Istio
- Como limpar logs manualmente
- Como limpar logs antigos armazenados no bucket do sf-logs
- Como desabilitar os logs de streaming para o AI Center
- Como depurar instalações do Automation Suite com falha
- Como excluir imagens do instalador antigo após a atualização
- Como limpar automaticamente instantâneos do Longhorn
- Como desabilitar o descarregamento de soma de verificação do TX
- Como definir manualmente o nível de log do ArgoCD como Info
- Como gerar o pull_secret_value codificado para registros externos
- Como lidar com cifras fracas no TLS 1.2
- Não é possível executar uma instalação offline no SO RHEL 8.4
- Erro ao baixar o pacote
- A instalação offline falha devido a um binário ausente
- Problema de certificado na instalação offline
- First installation fails during Longhorn setup
- Erro de validação da string de conexão ao SQL
- Verificação de pré-requisito para o módulo iscsid do selinux falha
- Azure disk not marked as SSD
- Falha após a atualização do certificado
- Antivírus causa problemas de instalação
- Automation Suite not working after OS upgrade
- O Automation Suite requer que backlog_wait_time seja definido como 0
- Nó da GPU afetado por indisponibilidade de recurso
- Não é possível montar o volume devido a não estar pronto para cargas de trabalho
- Falha na coleta de logs do pacote de suporte
- A atualização de nó único falha no estágio de malha
- Cluster unhealthy after automated upgrade from 2021.10
- Upgrade fails due to unhealthy Ceph
- RKE2 não é iniciado devido a um problema de espaço
- A validação de SQL falha durante a atualização
- pod snapshot-controller-crds no estado CrashLoopBackOff após a atualização
- Falha ao carregar ou baixar dados no objectstore
- PVC resize does not heal Ceph
- Falha no redimensionamento do PVC
- Falha no redimensionamento do PVC do Objectstore
- Pod do Rook Ceph ou Looker travado no estado Init
- Erro de anexo de volume StatefulSet
- Falha ao criar volumes persistentes
- Patch de reclamação de armazenamento
- Falha de backup devido ao erro TooManySnapshots
- Todas as réplicas do Longhorn estão com falha
- Configurando um intervalo de tempo limite para os portais de gerenciamento
- Atualizar as conexões de diretório subjacentes
- Autenticação não funciona após migração
- kinit: não é possível encontrar o KDC para o realm <AD Domain> ao obter credenciais iniciais
- kinit: o Keytab não contém chaves adequadas para *** ao obter credenciais iniciais
- Falha na operação GSSAPI devido a código de status inválido
- Alarme recebido para trabalho com falha do Kerberos-tgt-update
- Provedor de SSPI: servidor não encontrado no banco de dados Kerberos
- Falha de login para usuário do AD devido a conta desabilitada
- ArgoCD login failed
- Falha ao obter a imagem do sandbox
- Os pods não são exibidos na UI do ArgoCD
- Falha de teste do Redis
- O servidor RKE2 falha ao iniciar
- Segredo não encontrado no namespace da UiPath
- O ArgoCD entra em estado Em andamento após a primeira instalação
- Problemas de acesso à conta somente leitura do ArgoCD
- Pods de MongoDB em CrashLoopBackOff ou provisionamento de PVC pendente após exclusão
- Unhealthy services after cluster restore or rollback
- Pods presos em Init:0/X
- Prometheus no estado CrashloopBackoff com erro de falta de memória (OOM)
- Métricas Ceph-rook ausentes nos painéis de monitoramento
- Os pods não podem se comunicar com o FQDN em um ambiente de proxy
- O Document Understanding não está no menu de navegação esquerdo do Automation Suite
- Status de Falha ao criar uma sessão de rotulagem de dados
- Status de Falha ao tentar implantar uma habilidade de ML
- Trabalho de migração falha no ArgoCD
- Reconhecimento de escrita com o Extrator de formulários inteligente não está funcionando
- Execução de alta disponibilidade com o Process Mining
- Falha na ingestão do Process Mining ao fazer logon usando o Kerberos
- Não é possível conectar-se ao banco de dados AutomationSuite_ProcessMining_Warehouse usando uma string de conexão em formato pyodbc.
- A instalação do Airflow falha com sqlalchemy.exc.ArgumentError: não foi possível analisar o URL rfc1738 da string ''
- Como adicionar uma regra de tabela de IP para usar a porta 1433 do SQL Server
- Usando a ferramenta de diagnóstico do Automation Suite
- Usando a ferramenta de pacote de suporte do Automation Suite
- Exploração de logs
Backup e restauração do cluster
O Automation Suite oferece suporte à funcionalidade de backup e restauração para evitar a perda de dados em vários cenários. Você pode configurar um backup a qualquer momento após a instalação.
Para usar a funcionalidade de backup e restauração, você deve habilitar um servidor NFS, um cluster de backup e um cluster de restauração. Esses conceitos são definidos na seção a seguir.
Servidor NFS - O servidor que armazena os dados de backup e facilita a restauração. É possível configurar o servidor NFS em qualquer máquina ou um serviço PaaS oferecido por provedores de nuvem. Observe que não oferecemos suporte a NFS baseado em Windows e NFS baseado em blob do Azure.
Cluster de backup — O cluster que você configura para instalar o Automation Suite. Este é o cluster em que você habilitará o backup.
Cluster de restauração – o cluster no qual você restaura todos os dados do cluster de backup. Isso se torna o novo cluster no qual você executa o Automation Suite assim que o processo de restauração é concluído.
- Esta configuração permitirá apenas um backup do cluster, incluindo a configuração do cluster e os dados armazenados como parte do armazenamento de bloco no cluster em
/datadisk
e discos de dados do objectstore anexados às máquinas do servidor.No entanto, isso não permitirá o backup de nenhuma fonte de dados externa, como o banco de dados SQL e o objectstore externo. Você deve habilitar o backup da fonte de dados externa separadamente.
- Se quiser adicionar novos nós de servidor após habilitar o backup, certifique-se de configurar o servidor NFS para permitir o acesso ao novo nó.
Para configurar a funcionalidade de backup e restauração, você deve atender aos seguintes requisitos:
-
Você deve usar NFSv4 no Linux.
- Você deve configurar o servidor NFS em uma máquina separada hospedada fora do cluster de backup e restauração.
- Não deve haver mais de 10 milissegundos de latência de tempo de ida e volta (RTT) entre o servidor NFS e o cluster de backup e restauração.
- O cluster do qual você deseja fazer backup e o servidor NFS devem estar na mesma região.
-
O servidor NFS deve atender aos seguintes requisitos de hardware:
CPU
BATER
Disk
4 (v-)CPU
8 GiB
SSD de 2 TiB (1100 IOPS)
- O servidor NFS deve ser acessível a partir de todos os nós do cluster.
-
Você deve habilitar as seguintes portas no servidor NFS e todos os nós no cluster de backup. Ao restaurar o cluster, as mesmas portas devem estar abertas em todos os nós no cluster de restauração.
Porta
Protocol
Finalidade
2049
TCP
Comunicação bidirecional entre o servidor NFS e o cluster de backup e restauração.
Esta é a porta na qual o servidor NFS será executado.
111
TCP
Comunicação bidirecional entre o servidor NFS e o cluster de backup e restauração.
Essa porta é usada para rpcbind entre o servidor NFS e o cluster de backup e restauração.