- Visão geral
- Requisitos
- Requisitos de privilégios de root
- Alta Disponibilidade — Três zonas de disponibilidade
- Requisitos de certificado
- Requisitos de rede
- Validando os pré-requisitos em uma configuração de avaliação de nó único
- Validando os pré-requisitos em uma configuração de produção pronta para HA de vários nós
- Instalação
- Perguntas e respostas: modelos de implantação
- Configuração das máquinas
- Configuração do balanceador de carga
- Configuração do DNS
- Como configurar o Microsoft SQL Server
- Configuração dos certificados
- Instalação online de produção pronta para alta disponibilidade de vários nós
- Instalação offline de produção pronta para alta disponibilidade de vários nós
- Baixando os pacotes de instalação
- Parâmetros do install-uipath.sh
- Como habilitar o High Availability Add-on do Redis para o cluster
- Arquivo de configuração do Document Understanding
- Adicionando um nó de agente dedicado com suporte a GPU
- Conexão do aplicativo Task Mining
- Adição de um nó de agente dedicado ao Task Mining
- Pós-instalação
- Administração de cluster
- Gerenciando produtos
- Gerenciamento do cluster no ArgoCD
- Configuração do servidor NFS externo
- Automatizado: habilitando o backup no cluster
- Automatizado: desabilitando o backup no cluster
- Automatizado, online: restaurando o cluster
- Automatizado, offline: restaurando o cluster
- Manual: habilitando o backup no cluster
- Manual: desabilitando o backup no cluster
- Manual, online: restaurando o cluster
- Manual, offline: restaurando o cluster
- Configuração adicional
- Migrating objectstore from persistent volume to raw disks
- Monitoramento e alertas
- Migração e atualização
- Opções de migração
- Etapa 1: mover os dados da organização do Identity, de independente para o Automation Suite
- Etapa 2: restauração do banco de dados de produtos independente
- Etapa 3: backup do banco de dados da plataforma no Automation Suite
- Etapa 4: mesclando organizações no Automation Suite
- Etapa 5: atualização das strings de conexão do produto migradas
- Etapa 6: migração do Insights independente
- Etapa 7: exclusão do tenant padrão
- B) Migração de um único tenant
- Configuração específica do produto
- Melhores práticas e manutenção
- Solução de problemas
- Como solucionar problemas dos serviços durante a instalação
- Como desinstalar o cluster
- Como limpar os artefatos offline para melhorar o espaço em disco
- Como limpar os dados do Redis
- Como habilitar o registro em log do Istio
- Como limpar logs manualmente
- Como limpar logs antigos armazenados no bucket do sf-logs
- Como desabilitar os logs de streaming para o AI Center
- Como depurar instalações do Automation Suite com falha
- Como excluir imagens do instalador antigo após a atualização
- Como limpar automaticamente instantâneos do Longhorn
- Como desabilitar o descarregamento de soma de verificação do TX
- Como lidar com cifras fracas no TLS 1.2
- Não é possível executar uma instalação offline no SO RHEL 8.4
- Erro ao baixar o pacote
- A instalação offline falha devido a um binário ausente
- Problema de certificado na instalação offline
- First installation fails during Longhorn setup
- Erro de validação da string de conexão ao SQL
- Verificação de pré-requisito para o módulo iscsid do selinux falha
- Azure disk not marked as SSD
- Falha após a atualização do certificado
- Automation Suite not working after OS upgrade
- O Automation Suite requer que Backlog_wait_time seja definido como 1
- Não é possível montar o volume devido a não estar pronto para cargas de trabalho
- O RKE2 falha durante a instalação e atualização
- Falha ao carregar ou baixar dados no objectstore
- PVC resize does not heal Ceph
- Falha no redimensionamento do PVC do Objectstore
- Pod do Rook Ceph ou Looker travado no estado Init
- Erro de anexo de volume StatefulSet
- Falha ao criar volumes persistentes
- Patch de reclamação de armazenamento
- Falha de backup devido ao erro TooManySnapshots
- Todas as réplicas do Longhorn estão com falha
- Configurando um intervalo de tempo limite para os portais de gerenciamento
- Atualizar as conexões de diretório subjacentes
- Não é possível fazer login após a migração
- kinit: não é possível encontrar o KDC para o realm <AD Domain> ao obter credenciais iniciais
- kinit: o Keytab não contém chaves adequadas para *** ao obter credenciais iniciais
- A operação do GSSAPI falhou com erro: um código de status inválido foi fornecido (as credenciais do cliente foram revogadas).
- Alarme recebido para tarefa Kerberos-tgt-update com falha
- Provedor SSPI: servidor não encontrado no banco de dados Kerberos
- Falha do login para o usuário <ADDOMAIN><aduser> Motivo: a conta está desabilitada.
- ArgoCD login failed
- Falha ao obter a imagem do sandbox
- Os pods não são exibidos na UI do ArgoCD
- Falha de teste do Redis
- O servidor RKE2 falha ao iniciar
- Segredo não encontrado no namespace da UiPath
- Após a instalação inicial, o aplicativo ArgoCD entrou no estado Em andamento
- Pods de MongoDB em CrashLoopBackOff ou provisionamento de PVC pendente após exclusão
- Inconsistência inesperada; execute o fsck manualmente
- MongoDB degradado ou aplicativos de negócios após a restauração do cluster
- Operador de autocura ausente e repositório Sf-k8-utils ausente
- Serviços não íntegros após restauração ou reversão do cluster
- Pod RabbitMQ preso em CrashLoopBackOff
- Prometheus no estado CrashloopBackoff com erro de falta de memória (OOM)
- Métricas Ceph-rook ausentes nos painéis de monitoramento
- Os pods não podem se comunicar com o FQDN em um ambiente de proxy
- O Document Understanding não está no menu de navegação esquerdo do Automation Suite
- Status de Falha ao criar uma sessão de rotulagem de dados
- Status de Falha ao tentar implantar uma habilidade de ML
- Trabalho de migração falha no ArgoCD
- Reconhecimento de escrita com o Extrator de formulários inteligente não está funcionando
- Usando a ferramenta de diagnóstico do Automation Suite
- Usando o pacote de suporte do Automation Suite
- Exploração de logs
Validando os pré-requisitos em uma configuração de produção pronta para HA de vários nós
Antes de instalar o Automation Suite, é uma boa prática validar os pré-requisitos de instalação e a prontidão da infraestrutura. Você pode usar o script dedicado para avaliar seu ambiente e gerar um resumo antes de realizar a instalação.
sf-installer.zip
, e as ferramentas de suporte são agrupadas como sf-infra.tar.gz
apenas para offline. Você precisa desses arquivos para gerar um relatório em todas as máquinas nas quais planeja instalar o Automation Suite.
Tipo de Instalação |
Arquivos para baixar |
---|---|
Online |
sf-installer.zip – Obrigatório. Para fazer o download das instruções, consulte sf-installer.zip.
|
Offline |
sf-installer.zip – Obrigatório. Para fazer o download das instruções, consulte sf-installer.zip.
sf-infra.tar.gz – Obrigatório. Para baixar instruções, consulte sf-infra.tar.gz.
|
-
Torne-se root executando o seguinte comando:
sudo su -
sudo su - -
Copie os arquivos para a pasta
/opt/UiPathAutomationSuite/{version}
executando o seguinte comando:VERSION="" #add the version number you are trying to install. Ex: for 2022.4.0 Set VERSION="2022.4.0" mkdir -p /opt/UiPathAutomationSuite/${VERSION} # For below command replace the /path/to where actually the files are present. cp /path/to/sf-installer.zip /opt/UiPathAutomationSuite/${VERSION} # Additionally for offline, copy sf-infra.tar.gz as well to /opt/UiPathAutomationSuite/{VERSION} folder cp /path/to/sf-infra.tar.gz /opt/UiPathAutomationSuite/${VERSION} cd /opt/UiPathAutomationSuite/${VERSION}
VERSION="" #add the version number you are trying to install. Ex: for 2022.4.0 Set VERSION="2022.4.0" mkdir -p /opt/UiPathAutomationSuite/${VERSION} # For below command replace the /path/to where actually the files are present. cp /path/to/sf-installer.zip /opt/UiPathAutomationSuite/${VERSION} # Additionally for offline, copy sf-infra.tar.gz as well to /opt/UiPathAutomationSuite/{VERSION} folder cp /path/to/sf-infra.tar.gz /opt/UiPathAutomationSuite/${VERSION} cd /opt/UiPathAutomationSuite/${VERSION} -
Descompacte o pacote executando o seguinte comando:
unzip sf-installer.zip -d installer
unzip sf-installer.zip -d installer -
Atribua as permissões necessárias e navegue até a pasta do script executando o seguinte comando:
chmod -R 755 installer cd installer
chmod -R 755 installer cd installer
Para visualizar a seção de ajuda e os sinalizadores suportados, execute o seguinte comando:
./validateUiPathASReadiness.sh --help
./validateUiPathASReadiness.sh --help
Saída:
***************************************************************************************
validateUiPathASReadiness.sh Runs pre-install validation checks
Arguments:
-i|--input Specify cluster config json file
-m|--machines Comma separated IP address / hostnames of all the machines
-n|--node-type Possible values [server|agent|task-mining|gpu]. Defaults to server
--install-type Possible values [online|offline]. Defaults to online
--install-standalone-aicenter Run checks for standalone aicenter service only
--prereq-bundle </uipath/sf-infra.tar.gz> Specify the path to the prereq bundle, only for offline installation
--prereq-tmp-folder </uipath> Specify parent directory for the temporary install folder, only for offline installation
-h|--help Display help
***************************************************************************************
***************************************************************************************
validateUiPathASReadiness.sh Runs pre-install validation checks
Arguments:
-i|--input Specify cluster config json file
-m|--machines Comma separated IP address / hostnames of all the machines
-n|--node-type Possible values [server|agent|task-mining|gpu]. Defaults to server
--install-type Possible values [online|offline]. Defaults to online
--install-standalone-aicenter Run checks for standalone aicenter service only
--prereq-bundle </uipath/sf-infra.tar.gz> Specify the path to the prereq bundle, only for offline installation
--prereq-tmp-folder </uipath> Specify parent directory for the temporary install folder, only for offline installation
-h|--help Display help
***************************************************************************************
A tabela a seguir descreve os parâmetros que você pode usar ao executar o script:
Parâmetro |
Description |
---|---|
|
Aceita o arquivo
cluster_config.json como entrada. Esse arquivo define os parâmetros, as configurações e as preferências aplicadas aos serviços da UiPath implantados por meio do Automation Suite. Para mais detalhes, consulte Experiência de instalação avançada.
Se você não fornecer esse arquivo, o script acionará a experiência interativa para coletar essas entradas. O arquivo será gerado em seu nome. |
|
Aceita endereços IP/nomes de host separados por vírgulas de todas as máquinas. Isso é necessário para verificar a conectividade entre todos os nós na porta necessária. O parâmetro é obrigatório para instalações de produção prontas para HA de vários nós. Além disso, o parâmetro também é necessário se você planeja adicionar um nó de Task Mining ou GPU em um cluster de avaliação de nó único. |
|
Aceita o tipo do nó atual. Os valores possíveis são:
server , agent , task-mining e gpu .
O valor padrão é
server .
|
|
Aceita o método de instalação:
online ou offline .
O valor padrão é
online .
|
|
Este é um sinalizador booleano. Passe-o se você planeja instalar o AI Center independente. |
|
Aceita o caminho absoluto onde o
sf-infra.tar.gz está localizado.
|
|
Aceita o caminho absoluto onde o pacote
sf-infra.tar.gz será extraído temporariamente. Se este caminho não for fornecido, o instalador selecionará a pasta /tmp .
|
- Para validar a primeira máquina servidora, execute o seguinte comando:
Online
./validateUiPathASReadiness.sh \
--node-type server \
--install-type online \
--machines "10.0.1.8, 10.0.1.9" #replace with actual machine IPs of all the nodes in cluster
./validateUiPathASReadiness.sh \
--node-type server \
--install-type online \
--machines "10.0.1.8, 10.0.1.9" #replace with actual machine IPs of all the nodes in cluster
Offline
./validateUiPathASReadiness.sh \
--node-type server \
--install-type offline \
--prereq-bundle ../sf-infra.tar.gz \
--prereq-tmp-folder /opt/UiPathAutomationSuite/tmp \
--machines "10.0.1.8, 10.0.1.9" #replace with actual machine IPs of all the nodes in cluster
./validateUiPathASReadiness.sh \
--node-type server \
--install-type offline \
--prereq-bundle ../sf-infra.tar.gz \
--prereq-tmp-folder /opt/UiPathAutomationSuite/tmp \
--machines "10.0.1.8, 10.0.1.9" #replace with actual machine IPs of all the nodes in cluster
cluster_config.json
na pasta /opt/UiPathAutomationSuite
. Este arquivo é necessário em todas as outras máquinas.
cluster_config.json
nas outras máquinas, execute o seguinte comando:
scp /opt/UiPathAutomationSuite/cluster_config.json <username>@<node dns>:/opt/UiPathAutomationSuite
scp /opt/UiPathAutomationSuite/cluster_config.json <username>@<node dns>:/opt/UiPathAutomationSuite
/opt/UiPathAutomationSuite
devido a erros de permissão, você pode copiá-lo temporariamente para /var/tmp
nas novas máquinas e depois movê-lo para /opt/UiPathAutomationSuite
.
777
) à pasta /opt/UiPathAutomationSuite
nas novas máquinas, executando o seguinte comando: chmod -R 777 /opt/UiPathAutomationSuite
.
Para validar as outras máquinas do servidor, execute o comando a seguir:
Online
./validateUiPathASReadiness.sh \
--input /opt/UiPathAutomationSuite/cluster_config.json \
--node-type server \
--install-type online \
--machines "10.0.1.8, 10.0.1.9" #replace with actual machine IP of all the nodes in cluster
./validateUiPathASReadiness.sh \
--input /opt/UiPathAutomationSuite/cluster_config.json \
--node-type server \
--install-type online \
--machines "10.0.1.8, 10.0.1.9" #replace with actual machine IP of all the nodes in cluster
Offline
./validateUiPathASReadiness.sh \
--input /opt/UiPathAutomationSuite/cluster_config.json \
--node-type server \
--install-type offline \
--prereq-bundle ../sf-infra.tar.gz \
--prereq-tmp-folder /opt/UiPathAutomationSuite/tmp \
--machines "10.0.1.8, 10.0.1.9" #replace with actual machine IP of all the nodes in cluster
./validateUiPathASReadiness.sh \
--input /opt/UiPathAutomationSuite/cluster_config.json \
--node-type server \
--install-type offline \
--prereq-bundle ../sf-infra.tar.gz \
--prereq-tmp-folder /opt/UiPathAutomationSuite/tmp \
--machines "10.0.1.8, 10.0.1.9" #replace with actual machine IP of all the nodes in cluster
Para validar as máquinas do agente, execute o comando a seguir:
Online
./validateUiPathASReadiness.sh \
--input /opt/UiPathAutomationSuite/cluster_config.json \
--node-type agent \
--install-type online \
--machines "10.0.1.8, 10.0.1.9" # replace with actual machine IP of all the nodes in cluster
./validateUiPathASReadiness.sh \
--input /opt/UiPathAutomationSuite/cluster_config.json \
--node-type agent \
--install-type online \
--machines "10.0.1.8, 10.0.1.9" # replace with actual machine IP of all the nodes in cluster
Offline
./validateUiPathASReadiness.sh \
--input /opt/UiPathAutomationSuite/cluster_config.json \
--node-type agent \
--install-type offline \ #replace with offline for airgap
--prereq-bundle ../sf-infra.tar.gz \
--prereq-tmp-folder /opt/UiPathAutomationSuite/tmp \
--machines "10.0.1.8, 10.0.1.9" # replace with actual machine IP of all the nodes in cluster
./validateUiPathASReadiness.sh \
--input /opt/UiPathAutomationSuite/cluster_config.json \
--node-type agent \
--install-type offline \ #replace with offline for airgap
--prereq-bundle ../sf-infra.tar.gz \
--prereq-tmp-folder /opt/UiPathAutomationSuite/tmp \
--machines "10.0.1.8, 10.0.1.9" # replace with actual machine IP of all the nodes in cluster
Para validar as máquinas Task Mining & GPU, execute o seguinte comando:
--node-type task-mining
e --node-type gpu
, respectivamente, nos comandos a seguir.
Online
./validateUiPathASReadiness.sh \)\)
--input /opt/UiPathAutomationSuite/cluster_config.json \)\)
--node-type task-mining \)\) #replace with GPU for GPU node
--install-type online \)\)
--machines "10.0.1.8, 10.0.1.9" # replace with actual machine IP of all the nodes in cluster
./validateUiPathASReadiness.sh \)\)
--input /opt/UiPathAutomationSuite/cluster_config.json \)\)
--node-type task-mining \)\) #replace with GPU for GPU node
--install-type online \)\)
--machines "10.0.1.8, 10.0.1.9" # replace with actual machine IP of all the nodes in cluster
Offline
./validateUiPathASReadiness.sh \)\)
--input /opt/UiPathAutomationSuite/cluster_config.json \)\)
--node-type task-mining \)\) #replace with GPU for GPU node
--install-type offline \)\)
--prereq-bundle ../sf-infra.tar.gz \)\)
--prereq-tmp-folder /opt/UiPathAutomationSuite/tmp \)\)
--machines "10.0.1.8, 10.0.1.9" # replace with actual machine IP of all the nodes in cluster
./validateUiPathASReadiness.sh \)\)
--input /opt/UiPathAutomationSuite/cluster_config.json \)\)
--node-type task-mining \)\) #replace with GPU for GPU node
--install-type offline \)\)
--prereq-bundle ../sf-infra.tar.gz \)\)
--prereq-tmp-folder /opt/UiPathAutomationSuite/tmp \)\)
--machines "10.0.1.8, 10.0.1.9" # replace with actual machine IP of all the nodes in cluster
- Using the script to validate installation prerequisites
- Como baixar o script
- Preparando-se para usar o script
- Parâmetros do script
- Validating a multi-node HA-ready production setup
- Na primeira máquina servidora
- Nas outras máquinas servidoras
- Em máquinas de agente
- Em máquinas de Task Mining e máquinas de GPU