- Visão geral
- Requisitos
- Instalação
- Q&A: Deployment templates
- Configuração das máquinas
- Configurando o objectstore externo
- Configuração do balanceador de carga
- Configuração do DNS
- Como configurar o Microsoft SQL Server
- Configuração dos certificados
- Instalação online de produção pronta para alta disponibilidade de vários nós
- Instalação offline de produção pronta para alta disponibilidade de vários nós
- Baixando os pacotes de instalação
- Parâmetros do install-uipath.sh
- Como habilitar o High Availability Add-on do Redis para o cluster
- Arquivo de configuração do Document Understanding
- Adicionando um nó de agente dedicado com suporte a GPU
- Conexão do aplicativo Task Mining
- Adição de um nó de agente dedicado ao Task Mining
- Adicionando um nó de agente dedicado para robôs do Automation Suite
- Pós-instalação
- Administração de cluster
- Monitoramento e alertas
- Migração e atualização
- Opções de migração
- Etapa 1: mover os dados da organização do Identity, de independente para o Automation Suite
- Etapa 2: restauração do banco de dados de produtos independente
- Etapa 3: backup do banco de dados da plataforma no Automation Suite
- Etapa 4: mesclando organizações no Automation Suite
- Etapa 5: atualização das strings de conexão do produto migradas
- Etapa 6: migração do Insights independente
- Etapa 7: exclusão do tenant padrão
- B) Migração de um único tenant
- Configuração específica do produto
- Melhores práticas e manutenção
- Solução de problemas
- Como solucionar problemas dos serviços durante a instalação
- Como desinstalar o cluster
- Como limpar os artefatos offline para melhorar o espaço em disco
- Como limpar os dados do Redis
- Como habilitar o registro em log do Istio
- Como limpar logs manualmente
- Como limpar logs antigos armazenados no bucket do sf-logs
- Como desabilitar os logs de streaming para o AI Center
- Como depurar instalações do Automation Suite com falha
- Como excluir imagens do instalador antigo após a atualização
- Como limpar automaticamente instantâneos do Longhorn
- Como desabilitar o descarregamento de soma de verificação do TX
- Como lidar com cifras fracas no TLS 1.2
- Não é possível executar uma instalação offline no SO RHEL 8.4
- Erro ao baixar o pacote
- A instalação offline falha devido a um binário ausente
- Problema de certificado na instalação offline
- First installation fails during Longhorn setup
- Erro de validação da string de conexão ao SQL
- Verificação de pré-requisito para o módulo iscsid do selinux falha
- Azure disk not marked as SSD
- Falha após a atualização do certificado
- Antivírus causa problemas de instalação
- Automation Suite not working after OS upgrade
- O Automation Suite requer que backlog_wait_time seja definido como 0
- Não é possível montar o volume devido a não estar pronto para cargas de trabalho
- Não é possível iniciar o Automation Hub e o Apps com configuração de proxy
- Falha ao carregar ou baixar dados no objectstore
- PVC resize does not heal Ceph
- Falha no redimensionamento do PVC
- Falha no redimensionamento do PVC do Objectstore
- Pod do Rook Ceph ou Looker travado no estado Init
- Erro de anexo de volume StatefulSet
- Falha ao criar volumes persistentes
- Patch de reclamação de armazenamento
- Falha de backup devido ao erro TooManySnapshots
- Todas as réplicas do Longhorn estão com falha
- Configurando um intervalo de tempo limite para os portais de gerenciamento
- Atualizar as conexões de diretório subjacentes
- Autenticação não funciona após migração
- kinit: não é possível encontrar o KDC para o realm <AD Domain> ao obter credenciais iniciais
- kinit: o Keytab não contém chaves adequadas para *** ao obter credenciais iniciais
- Falha na operação GSSAPI devido a código de status inválido
- Alarme recebido para trabalho com falha do Kerberos-tgt-update
- Provedor de SSPI: servidor não encontrado no banco de dados Kerberos
- Falha de login para usuário do AD devido a conta desabilitada
- ArgoCD login failed
- Falha ao obter a imagem do sandbox
- Os pods não são exibidos na UI do ArgoCD
- Falha de teste do Redis
- O servidor RKE2 falha ao iniciar
- Segredo não encontrado no namespace da UiPath
- O ArgoCD entra em estado Em andamento após a primeira instalação
- Inconsistência inesperada; execute o fsck manualmente
- Pods de MongoDB em CrashLoopBackOff ou provisionamento de PVC pendente após exclusão
- Pod do MongoDB falha ao atualizar de 4.4.4-ent para 5.0.7-ent
- Unhealthy services after cluster restore or rollback
- Pods presos em Init:0/X
- Prometheus no estado CrashloopBackoff com erro de falta de memória (OOM)
- Métricas Ceph-rook ausentes nos painéis de monitoramento
- Os pods não podem se comunicar com o FQDN em um ambiente de proxy
- O Document Understanding não está no menu de navegação esquerdo do Automation Suite
- Status de Falha ao criar uma sessão de rotulagem de dados
- Status de Falha ao tentar implantar uma habilidade de ML
- Trabalho de migração falha no ArgoCD
- Reconhecimento de escrita com o Extrator de formulários inteligente não está funcionando
- Usando a ferramenta de diagnóstico do Automation Suite
- Usando o pacote de suporte do Automation Suite
- Exploração de logs

Guia de instalação do Automation Suite
Restaurando o backup
Depois que um cluster é restaurado, o backup de instantâneo não é habilitado. Para habilitá-la após a restauração, consulte Habilitação do instantâneo de backup.
Restaurar o cluster não restaura fontes de dados externas, como o SQL Server. Certifique-se de restaurar o servidor SQL para o instantâneo relevante.
Para restaurar o cluster, execute as seguintes etapas:
- Instale a infraestrutura de cluster em todos os nós do servidor.
- Configure o instantâneo no cluster restaurado.
- Selecione o instantâneo a ser restaurado.
- Restaure os dados e configurações.
Pré-requisitos: Baixe e instale os instaladores e pacotes necessários:
- o instalador de restauração - encontre-o no pacote sf-installer.zip
- o pacote de infraestrutura offline – encontre-o no pacote sf-infra.tar.gz
dr_input.json
e disponibilize-o em todos os nós do cluster.
{
"fixed_rke_address": "fqdn",
"fqdn": " fqdn ",
"rke_token": "guid",
"profile" : "cluster_proflie"
}
{
"fixed_rke_address": "fqdn",
"fqdn": " fqdn ",
"rke_token": "guid",
"profile" : "cluster_proflie"
}
cluster_config.json
.
Parâmetro |
Valor |
---|---|
|
FQDN do cluster do Automation Suite. O valor deve ser igual ao antigo FQDN. Fornecer um valor FQDN diferente pode fazer com que a restauração falhe. |
|
O endereço fixo usado para registro de nó de balanceamento de carga e solicitações de API do Kube. Se o balanceador de carga estiver configurado conforme recomendado, o valor deve ser o mesmo que o de
fqdn . Caso contrário, use o valor fqdn do primeiro nó do servidor. Consulte Configuração do balanceador de carga para obter mais detalhes.
|
|
Use um GUID recém-gerado aqui. Este é um segredo pré-compartilhado, específico do cluster. É necessário para todos os nós associados ao cluster. |
|
Define o perfil da instalação. Os perfis disponíveis são:
|
Para obter mais detalhes sobre a instalação, leia a página Manual: experiência de instalação avançada .
Instalação da infraestrutura de cluster no nó de cluster de restauração primário
Para instalar a infraestrutura no nó primário do cluster de restauração, execute os seguintes comandos:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore --accept-license-agreement
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore --accept-license-agreement
dr_input.json
do nó do servidor principal para os nós restantes do servidor/agentes. A etapa de instalação da infraestrutura no nó do servidor principal adiciona valores extras necessários aos nós restantes.
Instalando a infraestrutura de cluster em servidores secundários
Para instalar a infraestrutura nos servidores secundários:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j server --accept-license-agreement
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j server --accept-license-agreement
Instalando a infraestrutura de cluster em nós de agente
Para instalar a infraestrutura nos nós do agente:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j agent --accept-license-agreement
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j agent --accept-license-agreement
Instalando a infraestrutura de cluster em nós de Task Mining
Para instalar a infraestrutura do cluster em nós do Task Mining:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j task-mining --accept-license-agreement
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j task-mining --accept-license-agreement
Instalação da infraestrutura de cluster nos nós de Automation Suite Robots
Para instalar a infraestrutura de cluster nos nós de Automation Suite Robots:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j asrobots --accept-license-agreement
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j asrobots --accept-license-agreement
Instalando a infraestrutura de cluster em nós de GPU
Para instalar a infraestrutura do cluster nos nós da GPU:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j gpu --accept-license-agreement
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j gpu --accept-license-agreement
sf-infra.tar.gz
em todos os nós do cluster:
- Copie o pacote no diretório
/uipath/
no nó primário do servidor de restauração. - Copie o pacote sob o diretório
/opt/UiPathAutomationSuite/
em servidores secundários e nós de agente.
Instalação da infraestrutura de cluster no nó de cluster de restauração primário
To install the infrastructure on the primary restore cluster node:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore --accept-license-agreement --offline-bundle /uipath/sf-infra.tar.gz --offline-tmp-folder /uipath/tmp
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore --accept-license-agreement --offline-bundle /uipath/sf-infra.tar.gz --offline-tmp-folder /uipath/tmp
dr_input.json
do nó do servidor principal para os nós restantes do servidor/agentes. A etapa de instalação da infraestrutura no nó do servidor principal adiciona valores extras necessários aos nós restantes.
Instalando a infraestrutura de cluster em servidores secundários
Para instalar a infraestrutura nos servidores secundários:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j server --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/sf-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j server --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/sf-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp
Instalando a infraestrutura de cluster em nós de agente
Para instalar a infraestrutura nos nós do agente:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j agent --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/sf-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j agent --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/sf-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp
Instalando a infraestrutura de cluster em nós de Task Mining
Para instalar a infraestrutura em nós de Task Mining:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j task-mining --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/sf-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j task-mining --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/sf-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp
Instalação da infraestrutura de cluster nos nós de Automation Suite Robots
Para instalar a infraestrutura nos nós dos Automation Suite Robots:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j asrobots --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/sf-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j asrobots --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/sf-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp
Instalando a infraestrutura de cluster em nós de GPU
Para instalar a infraestrutura nos nós da GPU:
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j gpu --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/sf-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp
cd <installer directory>
./install-uipath.sh -i dr_input.json -o dr_output.json --restore -j gpu --accept-license-agreement --offline-bundle /opt/UiPathAutomationSuite/sf-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp
Depois que a infraestrutura estiver instalada, configure o instantâneo enquanto fornece os dados mínimos, como destino, endpoint e local. Esses valores são usados no momento da restauração.
Para configurar o backup do cluster restaurado, siga as etapas na seção Configurar o snapshot do cluster .
Após configurar o snapshot, liste os snapshots existentes e decida qual você deseja usar como ponto de restauração.
--from-snapshot <snapshot-name>
.
./configureUiPathAS.sh snapshot restore create --from-snapshot <snapshot name>
./configureUiPathAS.sh snapshot restore create --from-snapshot <snapshot name>
Se você não especificar o nome do snapshot, o cluster restaurará o snapshot mais recente bem-sucedido. Consulte a lista de snapshots para snapshots disponíveis.
cluster_config.json
para uso futuro, como adicionar novos nós ao cluster, atualizar, etc.
cluster_config.json
:
./bin/uipathctl manifest get-revision >> ./cluster_config.json
./bin/uipathctl manifest get-revision >> ./cluster_config.json
Após restaurar o cluster, certifique-se de adicionar seus certificados de CA ao armazenamento de confiança das VMs restauradas. Para obter detalhes, consulte:
Após a restauração de um cluster do Automation Suite, você precisa recuperar a nova senha de monitoramento. Para isso, siga as etapas de Acesso ao Painel do Rancher Monitoring.
Após restaurar um cluster do Automation Suite com o AI Center™ habilitado, siga as etapas do procedimento Habilitar o AI Center no cluster restaurado .
- Etapa 1: Instalando a infraestrutura de cluster
- Instalação online
- Instalação offline
- Step 2: Configuring the snapshot on the restored cluster
- Step 3: Selecting the snapshot to restore
- Step 4: Restoring data and settings
- Restaurando cluster_config.json
- Adição de certificados de CA ao armazenamento de confiança
- Recuperação de nova senha de monitoramento
- Habilitação do AI Center no cluster restaurado