- Visão geral
- Requisitos
- Instalação
- Q&A: Deployment templates
- Configuração das máquinas
- Configurando o objectstore externo
- Configuração do balanceador de carga
- Configuração do DNS
- Como configurar o Microsoft SQL Server
- Configuração dos certificados
- Instalação online de produção pronta para alta disponibilidade de vários nós
- Instalação offline de produção pronta para alta disponibilidade de vários nós
- Baixando os pacotes de instalação
- Parâmetros do install-uipath.sh
- Como habilitar o High Availability Add-on do Redis para o cluster
- Arquivo de configuração do Document Understanding
- Adicionando um nó de agente dedicado com suporte a GPU
- Conexão do aplicativo Task Mining
- Adição de um nó de agente dedicado ao Task Mining
- Adicionando um nó de agente dedicado para robôs do Automation Suite
- Pós-instalação
- Administração de cluster
- Monitoramento e alertas
- Migração e atualização
- Opções de migração
- Etapa 1: mover os dados da organização do Identity, de independente para o Automation Suite
- Etapa 2: restauração do banco de dados de produtos independente
- Etapa 3: backup do banco de dados da plataforma no Automation Suite
- Etapa 4: mesclando organizações no Automation Suite
- Etapa 5: atualização das strings de conexão do produto migradas
- Etapa 6: migração do Insights independente
- Etapa 7: exclusão do tenant padrão
- Executando uma migração de único tenant
- Configuração específica do produto
- Melhores práticas e manutenção
- Solução de problemas
- Como solucionar problemas dos serviços durante a instalação
- Como desinstalar o cluster
- Como limpar os artefatos offline para melhorar o espaço em disco
- Como limpar os dados do Redis
- Como habilitar o registro em log do Istio
- Como limpar logs manualmente
- Como limpar logs antigos armazenados no bucket do sf-logs
- Como desabilitar os logs de streaming para o AI Center
- Como depurar instalações do Automation Suite com falha
- Como excluir imagens do instalador antigo após a atualização
- Como limpar automaticamente instantâneos do Longhorn
- Como desabilitar o descarregamento de soma de verificação do TX
- Como lidar com cifras fracas no TLS 1.2
- Não é possível executar uma instalação offline no SO RHEL 8.4
- Erro ao baixar o pacote
- A instalação offline falha devido a um binário ausente
- Problema de certificado na instalação offline
- First installation fails during Longhorn setup
- Erro de validação da string de conexão ao SQL
- Verificação de pré-requisito para o módulo iscsid do selinux falha
- Azure disk not marked as SSD
- Falha após a atualização do certificado
- Antivírus causa problemas de instalação
- Automation Suite not working after OS upgrade
- O Automation Suite requer que backlog_wait_time seja definido como 0
- Não é possível montar o volume devido a não estar pronto para cargas de trabalho
- Não é possível iniciar o Automation Hub e o Apps com configuração de proxy
- Falha ao carregar ou baixar dados no objectstore
- PVC resize does not heal Ceph
- Falha no redimensionamento do PVC
- Falha no redimensionamento do PVC do Objectstore
- Pod do Rook Ceph ou Looker travado no estado Init
- Erro de anexo de volume StatefulSet
- Falha ao criar volumes persistentes
- Patch de reclamação de armazenamento
- Falha de backup devido ao erro TooManySnapshots
- Todas as réplicas do Longhorn estão com falha
- Configurando um intervalo de tempo limite para os portais de gerenciamento
- Atualizar as conexões de diretório subjacentes
- Autenticação não funciona após migração
- kinit: não é possível encontrar o KDC para o realm <AD Domain> ao obter credenciais iniciais
- kinit: o Keytab não contém chaves adequadas para *** ao obter credenciais iniciais
- Falha na operação GSSAPI devido a código de status inválido
- Alarme recebido para trabalho com falha do Kerberos-tgt-update
- Provedor de SSPI: servidor não encontrado no banco de dados Kerberos
- Falha de login para usuário do AD devido a conta desabilitada
- ArgoCD login failed
- Falha ao obter a imagem do sandbox
- Os pods não são exibidos na UI do ArgoCD
- Falha de teste do Redis
- O servidor RKE2 falha ao iniciar
- Segredo não encontrado no namespace da UiPath
- O ArgoCD entra em estado Em andamento após a primeira instalação
- Inconsistência inesperada; execute o fsck manualmente
- Pods de MongoDB em CrashLoopBackOff ou provisionamento de PVC pendente após exclusão
- Pod do MongoDB falha ao atualizar de 4.4.4-ent para 5.0.7-ent
- Unhealthy services after cluster restore or rollback
- Pods presos em Init:0/X
- Prometheus no estado CrashloopBackoff com erro de falta de memória (OOM)
- Métricas Ceph-rook ausentes nos painéis de monitoramento
- Os pods não podem se comunicar com o FQDN em um ambiente de proxy
- O Document Understanding não está no menu de navegação esquerdo do Automation Suite
- Status de Falha ao criar uma sessão de rotulagem de dados
- Status de Falha ao tentar implantar uma habilidade de ML
- Trabalho de migração falha no ArgoCD
- Reconhecimento de escrita com o Extrator de formulários inteligente não está funcionando
- Usando a ferramenta de diagnóstico do Automation Suite
- Usando o pacote de suporte do Automation Suite
- Exploração de logs

Guia de instalação do Automation Suite
Depois que um cluster é restaurado, o backup de instantâneo não é habilitado. Para habilitá-la após a restauração, consulte Habilitação do instantâneo de backup.
Restaurar o cluster não restaura fontes de dados externas, como o SQL Server. Certifique-se de restaurar o servidor SQL para o instantâneo relevante.
Para restaurar o cluster, execute as seguintes etapas:
- Instale a infraestrutura de cluster em todos os nós do servidor.
- Configure o instantâneo no cluster restaurado.
- Selecione o instantâneo a ser restaurado.
- Restaure os dados e configurações.
Pré-requisitos: Baixe e instale os instaladores e pacotes necessários:
- o instalador de restauração - encontre-o no pacote sf-installer.zip
- o pacote de infraestrutura offline – encontre-o no pacote sf-infra.tar.gz
dr_input.json e disponibilize-o em todos os nós do cluster.
{
"fixed_rke_address": "fqdn",
"fqdn": " fqdn ",
"rke_token": "guid",
"profile" : "cluster_proflie"
}{
"fixed_rke_address": "fqdn",
"fqdn": " fqdn ",
"rke_token": "guid",
"profile" : "cluster_proflie"
}cluster_config.json.
|
Parâmetro |
Valor |
|---|---|
|
|
FQDN do cluster do Automation Suite. O valor deve ser igual ao antigo FQDN. Fornecer um valor FQDN diferente pode fazer com que a restauração falhe. |
|
|
O endereço fixo usado para registro de nó de balanceamento de carga e solicitações de API do Kube. Se o balanceador de carga estiver configurado conforme recomendado, o valor deve ser o mesmo que o de
fqdn. Caso contrário, use o valor fqdn do primeiro nó do servidor. Consulte Configuração do balanceador de carga para obter mais detalhes.
|
|
|
Use um GUID recém-gerado aqui. Este é um segredo pré-compartilhado, específico do cluster. É necessário para todos os nós associados ao cluster. |
|
|
Define o perfil da instalação. Os perfis disponíveis são:
|
Para obter mais detalhes sobre a instalação, leia a página Manual: experiência de instalação avançada .
Instalação online
Instalação da infraestrutura de cluster no nó de cluster de restauração primário
Para instalar a infraestrutura no nó primário do cluster de restauração, execute os seguintes comandos:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore --accept-license-agreementcd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore --accept-license-agreementdr_input.json do nó do servidor principal para os nós restantes do servidor/agentes. A etapa de instalação da infraestrutura no nó do servidor principal adiciona valores extras necessários aos nós restantes.
Instalando a infraestrutura de cluster em servidores secundários
Para instalar a infraestrutura nos servidores secundários:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j server --accept-license-agreementcd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j server --accept-license-agreementInstalando a infraestrutura de cluster em nós de agente
Para instalar a infraestrutura nos nós do agente:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j agent --accept-license-agreementcd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j agent --accept-license-agreementInstalando a infraestrutura de cluster em nós de Task Mining
Para instalar a infraestrutura do cluster em nós do Task Mining:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j task-mining --accept-license-agreementcd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j task-mining --accept-license-agreementInstalação da infraestrutura de cluster nos nós de Automation Suite Robots
Para instalar a infraestrutura de cluster nos nós de Automation Suite Robots:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j asrobots --accept-license-agreementcd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j asrobots --accept-license-agreementInstalando a infraestrutura de cluster em nós de GPU
Para instalar a infraestrutura do cluster nos nós da GPU:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j gpu --accept-license-agreementcd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j gpu --accept-license-agreementInstalação offline
sf-infra.tar.gz em todos os nós do cluster:
- Copie o pacote no diretório
/uipath/no nó primário do servidor de restauração. - Copie o pacote sob o diretório
/opt/UiPathAutomationSuite/em servidores secundários e nós de agente.
Instalação da infraestrutura de cluster no nó de cluster de restauração primário
To install the infrastructure on the primary restore cluster node:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore --accept-license-agreement --offline-bundle /uipath/sf-infra.tar.gz --offline-tmp-folder /uipath/tmpcd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore --accept-license-agreement --offline-bundle /uipath/sf-infra.tar.gz --offline-tmp-folder /uipath/tmpdr_input.json do nó do servidor principal para os nós restantes do servidor/agentes. A etapa de instalação da infraestrutura no nó do servidor principal adiciona valores extras necessários aos nós restantes.
Instalando a infraestrutura de cluster em servidores secundários
Para instalar a infraestrutura nos servidores secundários:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j server --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/sf-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmpcd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j server --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/sf-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmpInstalando a infraestrutura de cluster em nós de agente
Para instalar a infraestrutura nos nós do agente:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j agent --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/sf-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmpcd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j agent --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/sf-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmpInstalando a infraestrutura de cluster em nós de Task Mining
Para instalar a infraestrutura em nós de Task Mining:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j task-mining --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/sf-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmpcd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j task-mining --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/sf-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmpInstalação da infraestrutura de cluster nos nós de Automation Suite Robots
Para instalar a infraestrutura nos nós dos Automation Suite Robots:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j asrobots --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/sf-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmpcd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j asrobots --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/sf-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmpInstalando a infraestrutura de cluster em nós de GPU
Para instalar a infraestrutura nos nós da GPU:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j gpu --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/sf-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmpcd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j gpu --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/sf-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmpDepois que a infraestrutura estiver instalada, configure o instantâneo enquanto fornece os dados mínimos, como destino, endpoint e local. Esses valores são usados no momento da restauração.
Para configurar o backup do cluster restaurado, siga as etapas na seção Configurar o snapshot do cluster .
Após configurar o snapshot, liste os snapshots existentes e decida qual você deseja usar como ponto de restauração.
--from-snapshot <snapshot-name> .
./configureUiPathAS.sh snapshot restore create --from-snapshot <snapshot name>./configureUiPathAS.sh snapshot restore create --from-snapshot <snapshot name>Se você não especificar o nome do snapshot, o cluster restaurará o snapshot mais recente bem-sucedido. Consulte a lista de snapshots para snapshots disponíveis.
Restaurando cluster_config.json
cluster_config.json para uso futuro, como adicionar novos nós ao cluster, atualizar, etc.
cluster_config.json:
./bin/uipathctl manifest get-revision >> ./cluster_config.json./bin/uipathctl manifest get-revision >> ./cluster_config.jsonAdição de certificados de CA ao armazenamento de confiança
Após restaurar o cluster, certifique-se de adicionar seus certificados de CA ao armazenamento de confiança das VMs restauradas. Para obter detalhes, consulte:
Recuperação de nova senha de monitoramento
Após a restauração de um cluster do Automation Suite, você precisa recuperar a nova senha de monitoramento. Para isso, siga as etapas de Acesso ao Painel do Rancher Monitoring.
Habilitação do AI Center no cluster restaurado
Após restaurar um cluster do Automation Suite com o AI Center™ habilitado, siga as etapas do procedimento Habilitar o AI Center no cluster restaurado .
- Etapa 1: Instalando a infraestrutura de cluster
- Instalação online
- Instalação offline
- Step 2: Configuring the snapshot on the restored cluster
- Step 3: Selecting the snapshot to restore
- Step 4: Restoring data and settings
- Restaurando cluster_config.json
- Adição de certificados de CA ao armazenamento de confiança
- Recuperação de nova senha de monitoramento
- Habilitação do AI Center no cluster restaurado