- Visão geral
- Requisitos
- Recomendado: modelos de implantação
- Manual: preparando a instalação
- Manual: preparando a instalação
- Etapa 1: Configuração do registro compatível com OCI para instalações offline
- Etapa 2: configuração do objectstore externo
- Etapa 3: configuração do High Availability Add-on
- Etapa 4: configuração do Microsoft SQL Server
- Etapa 5: configuração do balanceador de carga
- Etapa 5: configuração do DNS
- Etapa 7: configuração dos ajustes do nível do kernel e do sistema operacional
- Etapa 8: configuração dos discos
- Etapa 9: configuração das portas do nó
- Etapa 10: aplicação de configurações diversas
- Etapa 12: validação e instalação dos pacotes RPM necessários
- Etapa 13: geração de cluster_config.json
- Configuração de Certificados
- Configuração do Banco de Dados
- Configuração externa do Objectstore
- Configuração de URL pré-assinada
- Configuração de registro externo compatível com OCI
- Disaster Recovery: configurações Ativo/Passivo e Ativo/Ativo
- Configuração do High Availability Add-on
- Configuração específica do Orchestrator
- Configuração específica do Insights
- Process Mining-specific configuration
- Configuração específica do Document Understanding
- Automation Suite Robots-specific configuration
- Configuração do monitoramento
- Opcional: configuração do servidor proxy
- Opcional: habilitação da resiliência a falhas zonais em um cluster de produção pronto para alta disponibilidade de vários nós
- Opcional: transmitindo resolv.conf personalizado
- Optional: Increasing fault tolerance
- Parâmetros do install-uipath.sh
- Adicionando um nó de agente dedicado com suporte a GPU
- Adição de um nó de agente dedicado ao Task Mining
- Conexão do aplicativo Task Mining
- Adicionando um nó de agente dedicado para robôs do Automation Suite
- Etapa 15: configuração do registro temporário do Docker para instalações offline
- Etapa 16: validação dos pré-requisitos para a instalação
- Manual: realizando a instalação
- Pós-instalação
- Administração de cluster
- Gerenciando produtos
- Introdução ao portal de administração do cluster
- Migrating objectstore from persistent volume to raw disks
- Migração do High Availability Add-on no cluster para externo
- Migrating data between objectstores
- Migrating in-cluster objectstore to external objectstore
- Mudança para o cluster secundário manualmente em uma configuração Ativo/Passivo
- Disaster Recovery: executando operações pós-instalação
- Convertendo uma instalação existente para configuração multi-local
- Diretrizes sobre atualização de uma implantação Ativo/Passivo ou Ativo/Ativo
- Diretrizes sobre backup e restauração de uma implantação Ativo/Passivo ou Ativo/Ativo
- Redirecting traffic for the unsupported services to the primary cluster
- Monitoramento e alertas
- Migração e atualização
- Etapa 1: mover os dados da organização do Identity, de independente para o Automation Suite
- Etapa 2: restauração do banco de dados de produtos independente
- Etapa 3: backup do banco de dados da plataforma no Automation Suite
- Etapa 4: mesclando organizações no Automation Suite
- Etapa 5: atualização das strings de conexão do produto migradas
- Etapa 6: migração do Orchestrator independente
- Etapa 7: migração do Insights independente
- Etapa 8: exclusão do tenant padrão
- B) Migração de um único tenant
- Migração do Automation Suite no Linux para o Automation Suite no EKS/AKS
- Atualizando o Automação Suite
- Download dos pacotes de instalação e obtenção de todos os arquivos no primeiro nó do servidor
- Recuperação da mais recente configuração aplicada do cluster
- Atualização da configuração de cluster
- Configuração do registro compatível com OCI para instalações offline
- Migração para um registro externo compatível com OCI
- Execução da atualização
- Realização de operações pós-atualização
- Configuração específica do produto
- Uso da ferramenta de configuração do Orchestrator
- Configuração de parâmetros do Orchestrator
- Configurações de aplicativo do Orchestrator
- Configuração do AppSettings
- Configuração do tamanho máximo da solicitação
- Substituição da configuração de armazenamento no nível do cluster
- Configuração dos repositórios de credenciais
- Configuração da chave de criptografia por tenant
- Melhores práticas e manutenção
- Solução de problemas
- Como solucionar problemas dos serviços durante a instalação
- Como desinstalar o cluster
- Como limpar os artefatos offline para melhorar o espaço em disco
- Como limpar os dados do Redis
- Como habilitar o registro em log do Istio
- Como limpar logs manualmente
- Como limpar logs antigos armazenados no pacote do sf-logs
- Como desabilitar os logs de streaming para o AI Center
- Como depurar instalações do Automation Suite com falha
- Como excluir imagens do instalador antigo após a atualização
- Como desabilitar o descarregamento de soma de verificação NIC
- Como atualizar do Automation Suite 2022.10.10 e 2022.4.11 para 2023.10.2
- Como definir manualmente o nível de log do ArgoCD como Info
- Não é possível executar uma instalação offline no SO RHEL 8.4
- Erro ao baixar o pacote
- A instalação offline falha devido a um binário ausente
- Problema de certificado na instalação offline
- First installation fails during Longhorn setup
- Erro de validação da string de conexão ao SQL
- Verificação de pré-requisito para o módulo iscsid do selinux falha
- Azure disk not marked as SSD
- Falha após a atualização do certificado
- Antivírus causa problemas de instalação
- Automation Suite not working after OS upgrade
- O Automation Suite requer que backlog_wait_time seja definido como 0
- Não é possível montar o volume devido a não estar pronto para cargas de trabalho
- Cluster unhealthy after automated upgrade from 2021.10
- Upgrade fails due to unhealthy Ceph
- RKE2 não é iniciado devido a um problema de espaço
- O volume não pode ser montado e permanece no estado de loop anexar/desanexar
- A atualização falha devido a objetos clássicos no banco de dados do Orchestrator
- Um cluster do Ceph foi encontrado em um estado degradado após atualização lado a lado
- Um componente sem integridade do Insights causa uma falha na migração
- A atualização do serviço falha para o Apps
- Tempos limite de atualização no local
- Migração de registro do Docker presa no estágio de exclusão do PVC
- Falha no provisionamento do AI Center após a atualização para a 2023.10
- Falha de atualização em ambientes offline
- Configurando um intervalo de tempo limite para os portais de gerenciamento
- Autenticação não funciona após migração
- kinit: não é possível encontrar o KDC para o realm <AD Domain> ao obter credenciais iniciais
- kinit: o Keytab não contém chaves adequadas para *** ao obter credenciais iniciais
- Falha na operação GSSAPI devido a código de status inválido
- Alarme recebido para trabalho com falha do Kerberos-tgt-update
- Provedor de SSPI: servidor não encontrado no banco de dados Kerberos
- Falha de login para usuário do AD devido a conta desabilitada
- ArgoCD login failed
- Atualizar as conexões de diretório subjacentes
- Falha ao obter a imagem do sandbox
- Os pods não são exibidos na UI do ArgoCD
- Falha de teste do Redis
- O servidor RKE2 falha ao iniciar
- Segredo não encontrado no namespace da UiPath
- O ArgoCD entra em estado Em andamento após a primeira instalação
- Pods de MongoDB em CrashLoopBackOff ou provisionamento de PVC pendente após exclusão
- Unhealthy services after cluster restore or rollback
- Pods presos em Init:0/X
- Métricas Ceph-rook ausentes nos painéis de monitoramento
- O Document Understanding não está no menu de navegação esquerdo do Automation Suite
- Status de Falha ao criar uma sessão de rotulagem de dados
- Status de Falha ao tentar implantar uma habilidade de ML
- Trabalho de migração falha no ArgoCD
- Reconhecimento de escrita com o Extrator de formulários inteligente não está funcionando
- Execução da ferramenta de diagnóstico
- Usando a ferramenta de pacote de suporte do Automation Suite
- Exploração de logs
Avaliando suas necessidades de armazenamento
Um cluster do Automation Suite usa os discos objectstore conectados aos nós do servidor como recursos de armazenamento disponíveis para todos os produtos ativados em seu cluster. Cada produto usa esses recursos de maneira diferente.
Para entender suas necessidades de armazenamento e planejá-las adequadamente, consulte a terminologia e as diretrizes a seguir.
-
Tamanho do disco do nó do servidor – O tamanho de todos os discos individuais anexados a cada nó do servidor.
- Os discos em cada servidor podem ter tamanhos diferentes, desde que a soma de todos os tamanhos de disco seja idêntica em todos os servidores.
- Tamanho total do disco do cluster – Tamanho do disco do nó do servidor multiplicado pelo número de nós do servidor.
-
Armazenamento disponível do aplicativo – A quantidade de armazenamento disponível para os aplicativos consumirem.
- O armazenamento disponível do aplicativo é menor do que o armazenamento total anexado. Isso é para garantir que tenhamos uma maior resiliência à tolerância a falhas e alta disponibilidade.
A tabela a seguir descreve os requisitos de hardware pronto para HA de vários nós para a seleção de produto Completo no contexto dos termos apresentados anteriormente.
Número de nós do servidor |
Tamanho do disco do nó do servidor |
Tamanho total do disco de cluster |
Armazenamento disponível do aplicativo |
---|---|---|---|
3 |
512 GiB |
1.5 TiB |
512 GiB |
À medida que você habilita e usa produtos no cluster, eles consomem algum armazenamento do armazenamento disponível do aplicativo. Os produtos geralmente têm uma pequena pegada de disco para ativação, bem como certa pegada de disco que varia com o uso, escala de uso e projeto. O consumo de armazenamento é distribuído uniformemente por todos os recursos de armazenamento (discos de dados) e você pode monitorar os níveis de utilização do armazenamento usando a pilha de monitoramento do Automation Suite.
Você receberá um alerta com um aviso quando o consumo de armazenamento exceder 75%. Você receberá outro alerta crítico quando o consumo de armazenamento exceder 85%; neste caso, o armazenamento será somente leitura.
Se suas necessidades avaliadas não atenderem aos requisitos de hardware recomendados, você poderá adicionar mais capacidade de armazenamento usando um ou ambos os métodos a seguir:
- Você precisa adicionar um novo disco em todos os nós do servidor do mesmo tamanho.
- Para configurar o disco, consulte nossos documentos.
Você pode estimar seu consumo de armazenamento usando a métrica específica do produto nas tabelas a seguir. Essas tabelas descrevem quanto conteúdo você pode colocar em seu cluster pronto para uso. Para referência, eles incluem o espaço de armazenamento de um cenário de uso típico de cada produto.
Produto |
Métrica de direcionamento de armazenamento |
Armazenamento por métrica |
Caso de uso típico |
---|---|---|---|
Recursos compartilhados do Suite |
|
N/A |
Normalmente, 7 dias de logs de aplicativos são cerca de 25 GiB. |
Orchestrator |
|
|
Normalmente, um pacote tem 5 MiB e os buckets, se houver, têm menos de 1 MiB. Uma empresa madura tem 5 GiB de pacotes e 6 GiB de buckets implantados. |
Action Center |
|
|
Normalmente, um documento leva 0,15 MiB e os formulários a serem preenchidos levam 0,15 KiB adicionais. Em uma empresa madura, isso pode acumular até 4 GiB no total. |
Test Manager |
|
|
Normalmente, todos os arquivos e anexos somam aproximadamente 5 GiB. |
Insights |
|
|
São necessários 2 GiB para habilitação, e o espaço de armazenamento cresce com o número. Uma implantação em escala empresarial bem estabelecida requer mais alguns GiB para todos os painéis. |
Automation Hub |
N/A |
N/A |
2 GiB fixos para pegada de disco |
Automation Ops |
N/A |
N/A |
Sem pegada de disco |
Apps |
|
|
Normalmente, o banco de dados leva aproximadamente 5 GiB e um aplicativo complexo típico consome aproximadamente 15 MiB. |
AI Center |
|
|
Uma instalação típica e estabelecida consumirá 8 GiB para 5 pacotes e 1GiB adicional para os conjuntos de dados. Um pipeline pode consumir 50 GiB adicionais, mas somente quando estiver em execução ativa. |
Document Understanding |
|
|
Em uma implantação madura, 12GiB irão para o modelo de ML, 17GiB para o OCR e 50GiB para todos os documentos armazenados. |
Task Mining |
|
|
Normalmente, cerca de 200GiB de dados de log de atividades devem ser analisados para sugerir automações significativas. Tarefas altamente repetitivas, no entanto, podem exigir muito menos dados. |
Process Mining |
|
|
Dados inativos usados apenas por usuários que carregam dados por meio do portal do Process Mining. Normalmente, 10 GiB de armazenamento devem ser suficientes no início. |