- Visão geral
- Requisitos
- Modelos de implantação
- Manual: preparando a instalação
- Manual: preparando a instalação
- Etapa 2: configuração do registro compatível com OCI para instalações offline
- Etapa 3: configuração do objectstore externo
- Etapa 4: configuração do High Availability Add-on
- Etapa 5: configuração de bancos de dados SQL
- Etapa 6: configuração do balanceador de carga
- Etapa 7: configuração do DNS
- Etapa 8: configuração dos discos
- Etapa 9: configuração dos ajustes do nível do kernel e do sistema operacional
- Etapa 10: configuração das portas do nó
- Etapa 11: aplicação de configurações diversas
- Etapa 12: validação e instalação dos pacotes RPM necessários
- Etapa 13: geração de cluster_config.json
- Configuração de Certificados
- Configuração do Banco de Dados
- Configuração externa do Objectstore
- Configuração de URL pré-assinada
- Configuração da autenticação do Kerberos
- Configuração de registro externo compatível com OCI
- Disaster Recovery: configurações Ativo/Passivo e Ativo/Ativo
- Configuração do High Availability Add-on
- Configuração específica do Orchestrator
- Configuração específica do Insights
- Process Mining-specific configuration
- Configuração específica do Document Understanding
- Automation Suite Robots-specific configuration
- Configuração do monitoramento
- Opcional: configuração do servidor proxy
- Opcional: habilitação da resiliência a falhas zonais em um cluster de produção pronto para alta disponibilidade de vários nós
- Opcional: transmitindo resolv.conf personalizado
- Optional: Increasing fault tolerance
- Parâmetros do install-uipath.sh
- Adicionando um nó de agente dedicado com suporte a GPU
- Adição de um nó de agente dedicado ao Task Mining
- Conexão do aplicativo Task Mining
- Adicionando um nó de agente dedicado para robôs do Automation Suite
- Etapa 15: configuração do registro temporário do Docker para instalações offline
- Etapa 16: validação dos pré-requisitos para a instalação
- Manual: realizando a instalação
- Pós-instalação
- Administração de cluster
- Gerenciando produtos
- Introdução ao portal de administração do cluster
- Migrating objectstore from persistent volume to raw disks
- Migração do High Availability Add-on no cluster para externo
- Migrating data between objectstores
- Migrating in-cluster objectstore to external objectstore
- Migração de um registro no cluster para um registro externo compatível com OCI
- Mudança para o cluster secundário manualmente em uma configuração Ativo/Passivo
- Disaster Recovery: executando operações pós-instalação
- Convertendo uma instalação existente para configuração multi-local
- Diretrizes sobre atualização de uma implantação Ativo/Passivo ou Ativo/Ativo
- Diretrizes sobre backup e restauração de uma implantação Ativo/Passivo ou Ativo/Ativo
- Redirecionamento do tráfego dos serviços não compatíveis para o cluster principal
- Escalando uma implantação de nó único (avaliação) para uma implantação de vários nós (HA)
- Monitoramento e alertas
- Migração e atualização
- Etapa 1: mover os dados da organização do Identity, de independente para o Automation Suite
- Etapa 2: restauração do banco de dados de produtos independente
- Etapa 3: backup do banco de dados da plataforma no Automation Suite
- Etapa 4: mesclando organizações no Automation Suite
- Etapa 5: atualização das strings de conexão do produto migradas
- Etapa 6: migração do Orchestrator independente
- Etapa 7: migração do Insights independente
- Etapa 8: migração do Test Manager independente
- Etapa 9: exclusão do tenant padrão
- Executando uma migração de único tenant
- Migração do Automation Suite no Linux para o Automation Suite no EKS/AKS
- Atualizando o Automação Suite
- Download dos pacotes de instalação e obtenção de todos os arquivos no primeiro nó do servidor
- Recuperação da mais recente configuração aplicada do cluster
- Atualização da configuração de cluster
- Configuração do registro compatível com OCI para instalações offline
- Execução da atualização
- Realização de operações pós-atualização
- Configuração específica do produto
- Uso da ferramenta de configuração do Orchestrator
- Configuração de parâmetros do Orchestrator
- Configurações de aplicativo do Orchestrator
- Configuração do AppSettings
- Configuração do tamanho máximo da solicitação
- Substituição da configuração de armazenamento no nível do cluster
- Configuração dos repositórios de credenciais
- Configuração da chave de criptografia por tenant
- Limpeza do banco de dados do Orchestrator
- Melhores práticas e manutenção
- Solução de problemas
- Como solucionar problemas dos serviços durante a instalação
- Como desinstalar o cluster
- Como limpar os artefatos offline para melhorar o espaço em disco
- Como limpar os dados do Redis
- Como habilitar o registro em log do Istio
- Como limpar logs manualmente
- Como limpar logs antigos armazenados no bucket do sf-logs
- Como desabilitar os logs de streaming para o AI Center
- Como depurar instalações do Automation Suite com falha
- Como excluir imagens do instalador antigo após a atualização
- Como desabilitar o descarregamento de soma de verificação do TX
- Como atualizar do Automation Suite 2022.10.10 e 2022.4.11 para 2023.10.2
- Como definir manualmente o nível de log do ArgoCD como Info
- Como expandir o armazenamento do AI Center
- Como gerar o pull_secret_value codificado para registros externos
- Como lidar com cifras fracas no TLS 1.2
- Como trabalhar com certificados
- Como encaminhar logs do aplicativo para o Splunk
- Como limpar imagens do Docker não usadas dos pods de registro
- Como coletar dados de uso de DU com objectstore (Ceph) no cluster
- Como instalar o RKE2 SELinux em ambientes air-gapped
- Como limpar backups diferenciados antigos em um servidor NFS
- Não é possível executar uma instalação offline no SO RHEL 8.4
- Erro ao baixar o pacote
- A instalação offline falha devido a um binário ausente
- Problema de certificado na instalação offline
- First installation fails during Longhorn setup
- Erro de validação da string de conexão ao SQL
- Verificação de pré-requisito para o módulo iscsid do selinux falha
- Azure disk not marked as SSD
- Falha após a atualização do certificado
- Antivírus causa problemas de instalação
- Automation Suite not working after OS upgrade
- O Automation Suite requer que backlog_wait_time seja definido como 0
- Não é possível montar o volume devido a não estar pronto para cargas de trabalho
- Falha na coleta de logs do pacote de suporte
- A cadeia de caracteres de conexão SQL da Automação de Teste é ignorada
- Configurações de DNS não honradas pelo CoreDNS
- Perda de dados ao reinstalar ou atualizar o Insights após a atualização do Automation Suite
- A atualização de nó único falha no estágio de malha
- Cluster unhealthy after automated upgrade from 2021.10
- Upgrade fails due to unhealthy Ceph
- RKE2 não é iniciado devido a um problema de espaço
- O volume não pode ser montado e permanece no estado de loop anexar/desanexar
- A atualização falha devido a objetos clássicos no banco de dados do Orchestrator
- Um cluster do Ceph foi encontrado em um estado degradado após atualização lado a lado
- Um componente sem integridade do Insights causa uma falha na migração
- A atualização do serviço falha para o Apps
- Tempos limite de atualização no local
- Migração de registro do Docker presa no estágio de exclusão do PVC
- Falha no provisionamento do AI Center após a atualização para a 2023.10 ou posterior
- Falha de atualização em ambientes offline
- A validação de SQL falha durante a atualização
- pod snapshot-controller-crds no estado CrashLoopBackOff após a atualização
- Erro de upgrade/reinstalação do endpoint da API REST do Longhorn
- Falha de atualização devido aos tamanhos de PVC do Insights substituídos
- Falha de atualização de serviço durante a execução de script pré-serviço
- Falha ao carregar ou baixar dados no objectstore
- PVC resize does not heal Ceph
- Falha no redimensionamento do PVC do Objectstore
- Pod do Rook Ceph ou Looker travado no estado Init
- Erro de anexo de volume StatefulSet
- Falha ao criar volumes persistentes
- Falha ao compactar métricas devido a blocos corrompidos no Thanos
- Configurando um intervalo de tempo limite para os portais de gerenciamento
- Autenticação não funciona após migração
- kinit: não é possível encontrar o KDC para o realm <AD Domain> ao obter credenciais iniciais
- kinit: o Keytab não contém chaves adequadas para *** ao obter credenciais iniciais
- Falha na operação GSSAPI devido a código de status inválido
- Alarme recebido para trabalho com falha do Kerberos-tgt-update
- Provedor de SSPI: servidor não encontrado no banco de dados Kerberos
- Falha de login para usuário do AD devido a conta desabilitada
- ArgoCD login failed
- Atualizar as conexões de diretório subjacentes
- Falha ao obter a imagem do sandbox
- Os pods não são exibidos na UI do ArgoCD
- Falha de teste do Redis
- O servidor RKE2 falha ao iniciar
- Segredo não encontrado no namespace da UiPath
- O ArgoCD entra em estado Em andamento após a primeira instalação
- Unhealthy services after cluster restore or rollback
- Pods presos em Init:0/X
- Métricas Ceph-rook ausentes nos painéis de monitoramento
- Os pods não podem se comunicar com o FQDN em um ambiente de proxy
- Falha ao configurar alertas por e-mail após a atualização
- Nenhum problema upstream íntegro
- Falha ao adicionar nós de agente em ambientes offline
- O acesso ao FQDN retorna RBAC: erro de acesso negado
- O Document Understanding não está no menu de navegação esquerdo do Automation Suite
- Status de Falha ao criar uma sessão de rotulagem de dados
- Status de Falha ao tentar implantar uma habilidade de ML
- Trabalho de migração falha no ArgoCD
- Reconhecimento de escrita com o Extrator de formulários inteligente não está funcionando
- Falha na implantação de habilidade de ML devido à expiração do token
- Execução de alta disponibilidade com o Process Mining
- Falha na ingestão do Process Mining ao fazer logon usando o Kerberos
- Após a recuperação de desastres, o Dapr não está funcionando corretamente para Process Mining
- Configurando o Dapr com o Redis no modo de cluster
- Não é possível conectar-se ao banco de dados AutomationSuite_ProcessMining_Warehouse usando uma string de conexão em formato pyodbc.
- A instalação do Airflow falha com sqlalchemy.exc.ArgumentError: não foi possível analisar o URL rfc1738 da string ''
- Como adicionar uma regra de tabela de IP para usar a porta 1433 do SQL Server
- O certificado do Automation Suite não é confiável para o servidor em que o CData Sync está sendo executado
- Execução da ferramenta de diagnóstico
- Usando o pacote de suporte do Automation Suite
- Exploração de logs
- Exploração de telemetria resumida

Guia de instalação do Automation Suite no Linux
Etapa 8: configuração dos discos
Antes de executar uma instalação do Automation Suite, você deve particionar e configurar o disco usando LVM para que seja possível alterar seu tamanho facilmente e sem nenhuma migração ou perda de dados.
Partição dos discos
A estrutura de particionamento padrão em máquinas RHEL não é adequada para instalar o Kubernetes. Isso ocorre porque a infraestrutura do Kubernetes geralmente é instalada na partição /var, que recebe apenas 8 GB de espaço por padrão.
- O formato aceito para os discos é
ext4ouxfs. - Você deve criar todas as partições usando LVM para garantir que os dados do cluster possam residir em um disco diferente, mas ainda sejam exibidos de forma coerente. Isso também ajuda a estender o tamanho da partição no futuro sem o risco de migração ou perda de dados.
- Todos os pods e registros de aplicativos são armazenados no diretório
/var/log/pods. Certifique-se de que a capacidade deste diretório seja de pelo menos 8 GB. Também recomendamos configurarlogrotatepara rodar os logs em um intervalo que varia de diário a semanal.
Os requisitos de disco para instalações online e offline são os mesmos, exceto pelo espaço extra necessário para descompactar o pacote UiPath® offline.
Para o sistema operacional RHEL, certifique-se de ter os seguintes tamanhos mínimos de pontos de montagem na máquina.
| Rótulo do disco | Servidor | Agente | Partição | Tamanho | Finalidade |
|---|---|---|---|---|---|
| Disco do cluster | ✅ | ✅ |
| 190 GB | Armazena as imagens e camadas do contêiner. |
|
| 56 GB | Armazena configurações do Kubernetes em runtime, como segredos, configmaps e emptyDir. | |||
|
| 10 GB | Armazena o binário do instalador. | |||
| Disco do etcd | ✅ | ❌ |
| 16 GB | Armazena o banco de dados distribuído para o Kubernetes |
| Armazenamento de blocos | ✅ | ❌ |
| 15 GB | Obrigatório para o Insights. |
|
| 50 GB | Necessário para as ferramentas de monitoramento. | |||
/datadisk/registry 1 | 200 GB | Obrigatório para o registro do Docker. | |||
/datadisk/objectstore 2 | 10 GB | Obrigatório para ceph-mon. | |||
| Objectstore 2 | ✅ | ❌ | N/A | 512 GB | Obrigatório para objectstore no cluster. |
| AI Center3 | ✅ | ✅ | N/A | 51 GB no mínimo e 105 GB recomendados para 1 pipeline de treinamento. | Necessário apenas se você instalar o AI Center. |
| Disco do pacote UiPath® | ✅ | ❌ | /uipath | 512 GB | Necessário apenas para instalações offline para armazenar o pacote offline |
1 Isso se refere ao registro do Docker no cluster e não é aplicável se você usar um registro externo.
2 Isso se refere ao objectstore no cluster e não é aplicável se você usar um objectstore externo.
3 Isso se refere ao armazenamento necessário para o pipeline de treinamento do AI Center. O disco é necessário apenas nas máquinas nas quais você planeja executar o pipeline de treinamento do AI Center e no nó dedicado do Task Mining. Recomendamos conectar esse disco nas máquinas de agentes.
Recomendamos que você não use o disco do OS para qualquer um dos propósitos acima, para garantir que os processos recebam sua quota devida de recursos.
Como usar o script para configurar os discos
Como baixar o script
Você pode usar o script configureUiPathDisks.sh para configurar e particionar os discos.
Para obter instruções de download, consulte configureUiPathDisks.sh.
Execução do script
Você pode usar o script configureUiPathDisks.sh para os seguintes propósitos:
- Configure os discos e pontos de montagem para uma nova instalação de cluster do Automation Suite;
- Redimensione o disco de dados após a instalação.
Para tornar o script executável, execute o seguinte comando:
chmod +x ./configureUiPathDisks.sh
chmod +x ./configureUiPathDisks.sh
Para fornecer as permissões necessárias para o script, execute o seguinte comando:
chmod +x configureUiPathDisks.sh
chmod +x configureUiPathDisks.sh
Para obter mais detalhes sobre o uso do script, execute o seguinte comando:
sudo ./configureUiPathDisks.sh --help
sudo ./configureUiPathDisks.sh --help
Como configurar o disco do cluster em todas as máquinas
Para configurar o disco do cluster, execute o seguinte comando em todas as máquinas:
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk
Como configurar o disco etcd em todas as máquinas do servidor
Para configurar o disco etcd, execute o seguinte comando em todas as máquinas do servidor:
./configureUiPathDisks.sh --etcd-disk-name name_of_etcd_disk
./configureUiPathDisks.sh --etcd-disk-name name_of_etcd_disk
A configuração do disco etcd deve ser executada apenas após concluir a configuração do disco do cluster.
A ordem de configuração deve ser preservada, porque o disco etcd é montado dentro do disco do cluster.
Se esta etapa for executada antes de configurar o disco do cluster, ela poderá levar à perda de dados após uma reinicialização da máquina, pois o kernel monta automaticamente os discos em sequência, primeiro o disco do cluster e depois o disco etcd.
Como configurar o disco de dados em todas as máquinas do servidor
Para configurar o disco de dados, você deve identificar o disco específico a ser usado. Execute o comando lsblk para listar todos os dispositivos de bloco, seus tamanhos e pontos de montagem. Use o tamanho do disco para identificar o disco relevante (para o sinalizador --volume , o disco de dados de 512 GB deve ser usado).
Execute o seguinte comando em todas as máquinas do servidor e forneça os sinalizadores necessários com base em seus requisitos:
./configureUiPathDisks.sh --volume name_of_data_disk
./configureUiPathDisks.sh --volume name_of_data_disk
| Bandeira | Valor |
|---|---|
-v | --volume |
--docker-registry | Opcional. Necessário apenas se o registro externo não estiver disponível. |
--monitoring | Opcional.Se o sinalizador não for passado durante a primeira execução, ele criará automaticamente a partição para monitoramento (armazenamento do Prometheus). No entanto, o sinalizador é necessário na execução subsequente, durante o redimensionamento da partição de monitoramento juntamente com o sinalizador --resize. |
--objectstore | Opcional. Necessário apenas se o objectstore externo não estiver disponível. |
--insights | Opcional. Se o sinalizador não for passado durante a primeira execução, ele criará automaticamente a partição para o Insights. No entanto, é necessário na execução subsequente, durante o redimensionamento da partição do Insights juntamente com o sinalizador --resize. |
--resize <int> | Opcional. Se o valor inteiro for fornecido, o componente selecionado será redimensionado, desde que haja espaço suficiente disponível. Caso contrário, todo o disco é consumido para expandir a partição selecionada. É obrigatório indicar exatamente uma partição que deve ser redimensionada. |
--robot-package-cache | Caminho para o local no nó do Automation Suite Robots para baixar o pacote para o cache. Isso deve ser executado apenas no nó do Automation Suite Robots. |
Você também pode usar o comando para redimensionar a partição selecionada com a ajuda do sinalizador --resize , conforme mostrado no exemplo a seguir:
./configureUiPathDisks.sh --volume /dev/sde --docker-registry --resize 300
./configureUiPathDisks.sh --volume /dev/sde --docker-registry --resize 300
O exemplo mostra como anexar o disco /dev/sde ao disco de dados existente e como redimensionar a partição de registro do Docker para 300 GB.
Como configurar o disco do objectstore em todas as máquinas do servidor
Esta etapa só é necessária se o objectstore externo não estiver disponível.
Você pode adicionar ou expandir seu tamanho de armazenamento para o objectstore no cluster executando o seguinte script em todos os nós do servidor:
./configureUiPathDisks.sh --ceph-raw-disk-name name_ceph_raw_disk
./configureUiPathDisks.sh --ceph-raw-disk-name name_ceph_raw_disk
- Um problema conhecido do Azure marca incorretamente o disco do Azure como não SSD. Se o Azure for seu provedor de nuvem e você quiser configurar o disco do Objectstore, siga as instruções em Solução de problemas.
- A escalabilidade vertical dos discos existentes não é suportada. Para aumentar o tamanho do seu armazenamento no cluster pós-instalação, adicione novos discos raw.
Configuração do disco do AI Center em máquinas selecionadas
Para configurar o disco do AI Center, execute o seguinte comando nas máquinas em que você planeja executar os pipelines de treinamento:
./configureUiPathDisks.sh --aicenter-disk-name name_of_aicenter_disk_to_partition
./configureUiPathDisks.sh --aicenter-disk-name name_of_aicenter_disk_to_partition
Para estender o armazenamento do AI Center:
- Se você quiser adicionar um novo disco do AI Center, execute o seguinte comando na máquina em que você planeja adicionar o disco:
./configureUiPathDisks.sh --aicenter-storage-extend name_of_new_aicenter_disk_to_attach./configureUiPathDisks.sh --aicenter-storage-extend name_of_new_aicenter_disk_to_attach - Se você tiver expandido o disco existente do AI Center, execute o seguinte comando na máquina em que o disco subjacente do AI Center é expandido:
./configureUiPathDisks.sh --aicenter-storage-extend./configureUiPathDisks.sh --aicenter-storage-extend
Configuração do disco de hospedagem para o cache do pacote do Automation Suite UiPath Robot
Essa etapa é necessária para configurações de nó único sem um agente dedicado do Automation Suite UiPath Robot.
Para hospedar o cache do pacote do Automation Suite UiPath Robot no nó do servidor, você precisa criar um disco de pelo menos 10 GB:
./configureUiPathDisks.sh --volume name_of_data_disk --robot-package-cache
./configureUiPathDisks.sh --volume name_of_data_disk --robot-package-cache
É recomendável que seja feito backup do disco pelo LVM.
Configurando o disco do pacote no primeiro nó do servidor para o registro no cluster
Essa etapa é necessária nos seguintes cenários:
- Ao executar uma instalação offline (isolada);
- Quando um registro externo não estiver disponível.
Para configurar o disco do pacote, execute o comando a seguir apenas no primeiro nó do servidor:
./configureUiPathDisks.sh --bundle-disk-name name_of_bundle_disk
./configureUiPathDisks.sh --bundle-disk-name name_of_bundle_disk
Como validar montagens no disco
Certifique-se de adicionar todos os pontos de montagem ao arquivo fstab e de incluir a opção nofail nessas entradas fstab para que não afete a inicialização da VM em caso de falha.
Para validar se /etc/fstab está configurado corretamente e pode lidar com uma reinicialização do sistema, siga as seguintes etapas, execute o seguinte comando:
mount -afv
mount -afv
Você deve obter a seguinte saída:
# Servers
/datadisk/monitoring : already mounted
/datadisk/insights : already mounted
/var/lib/rancher/rke2/server/db : already mounted
# Servers or agents
/opt/UiPathAutomationSuite : already mounted
/var/lib/rancher : already mounted
/var/lib/kubelet : already mounted
# In case of an offline environment, only on the primary server node
/uipath : already mounted
# Additional mount point is require if customer is installing offline with internal registry
/datadisk/registry : already mounted
# Additional mount point is require if customer is using in-cluster objectstore
/datadisk/objectstore : already mounted
# Servers
/datadisk/monitoring : already mounted
/datadisk/insights : already mounted
/var/lib/rancher/rke2/server/db : already mounted
# Servers or agents
/opt/UiPathAutomationSuite : already mounted
/var/lib/rancher : already mounted
/var/lib/kubelet : already mounted
# In case of an offline environment, only on the primary server node
/uipath : already mounted
# Additional mount point is require if customer is installing offline with internal registry
/datadisk/registry : already mounted
# Additional mount point is require if customer is using in-cluster objectstore
/datadisk/objectstore : already mounted
- Partição dos discos
- Como usar o script para configurar os discos
- Como baixar o script
- Execução do script
- Como configurar o disco do cluster em todas as máquinas
- Como configurar o disco etcd em todas as máquinas do servidor
- Como configurar o disco de dados em todas as máquinas do servidor
- Como configurar o disco do objectstore em todas as máquinas do servidor
- Configuração do disco do AI Center em máquinas selecionadas
- Configuração do disco de hospedagem para o cache do pacote do Automation Suite UiPath Robot
- Configurando o disco do pacote no primeiro nó do servidor para o registro no cluster
- Como validar montagens no disco