- Visão geral
- Requisitos
- Instalação
- Q&A: Deployment templates
- Configuração das máquinas
- Configurando o objectstore externo
- Configuração do balanceador de carga
- Configuração do DNS
- Como configurar o Microsoft SQL Server
- Configuração dos certificados
- Instalação online de produção pronta para alta disponibilidade de vários nós
- Instalação offline de produção pronta para alta disponibilidade de vários nós
- Baixando os pacotes de instalação
- Parâmetros do install-uipath.sh
- Como habilitar o High Availability Add-on do Redis para o cluster
- Arquivo de configuração do Document Understanding
- Adicionando um nó de agente dedicado com suporte a GPU
- Conexão do aplicativo Task Mining
- Adição de um nó de agente dedicado ao Task Mining
- Adicionando um nó de agente dedicado para robôs do Automation Suite
- Pós-instalação
- Administração de cluster
- Monitoramento e alertas
- Migração e atualização
- Opções de migração
- Etapa 1: mover os dados da organização do Identity, de independente para o Automation Suite
- Etapa 2: restauração do banco de dados de produtos independente
- Etapa 3: backup do banco de dados da plataforma no Automation Suite
- Etapa 4: mesclando organizações no Automation Suite
- Etapa 5: atualização das strings de conexão do produto migradas
- Etapa 6: migração do Insights independente
- Etapa 7: exclusão do tenant padrão
- B) Migração de um único tenant
- Configuração específica do produto
- Melhores práticas e manutenção
- Solução de problemas
- Como solucionar problemas dos serviços durante a instalação
- Como desinstalar o cluster
- Como limpar os artefatos offline para melhorar o espaço em disco
- Como limpar os dados do Redis
- Como habilitar o registro em log do Istio
- Como limpar logs manualmente
- Como limpar logs antigos armazenados no bucket do sf-logs
- Como desabilitar os logs de streaming para o AI Center
- Como depurar instalações do Automation Suite com falha
- Como excluir imagens do instalador antigo após a atualização
- Como limpar automaticamente instantâneos do Longhorn
- Como desabilitar o descarregamento de soma de verificação do TX
- Como lidar com cifras fracas no TLS 1.2
- Não é possível executar uma instalação offline no SO RHEL 8.4
- Erro ao baixar o pacote
- A instalação offline falha devido a um binário ausente
- Problema de certificado na instalação offline
- First installation fails during Longhorn setup
- Erro de validação da string de conexão ao SQL
- Verificação de pré-requisito para o módulo iscsid do selinux falha
- Azure disk not marked as SSD
- Falha após a atualização do certificado
- Antivírus causa problemas de instalação
- Automation Suite not working after OS upgrade
- O Automation Suite requer que backlog_wait_time seja definido como 0
- Não é possível montar o volume devido a não estar pronto para cargas de trabalho
- Não é possível iniciar o Automation Hub e o Apps com configuração de proxy
- Falha ao carregar ou baixar dados no objectstore
- PVC resize does not heal Ceph
- Falha no redimensionamento do PVC
- Falha no redimensionamento do PVC do Objectstore
- Pod do Rook Ceph ou Looker travado no estado Init
- Erro de anexo de volume StatefulSet
- Falha ao criar volumes persistentes
- Patch de reclamação de armazenamento
- Falha de backup devido ao erro TooManySnapshots
- Todas as réplicas do Longhorn estão com falha
- Configurando um intervalo de tempo limite para os portais de gerenciamento
- Atualizar as conexões de diretório subjacentes
- Autenticação não funciona após migração
- kinit: não é possível encontrar o KDC para o realm <AD Domain> ao obter credenciais iniciais
- kinit: o Keytab não contém chaves adequadas para *** ao obter credenciais iniciais
- Falha na operação GSSAPI devido a código de status inválido
- Alarme recebido para trabalho com falha do Kerberos-tgt-update
- Provedor de SSPI: servidor não encontrado no banco de dados Kerberos
- Falha de login para usuário do AD devido a conta desabilitada
- ArgoCD login failed
- Falha ao obter a imagem do sandbox
- Os pods não são exibidos na UI do ArgoCD
- Falha de teste do Redis
- O servidor RKE2 falha ao iniciar
- Segredo não encontrado no namespace da UiPath
- O ArgoCD entra em estado Em andamento após a primeira instalação
- Inconsistência inesperada; execute o fsck manualmente
- Pods de MongoDB em CrashLoopBackOff ou provisionamento de PVC pendente após exclusão
- Pod do MongoDB falha ao atualizar de 4.4.4-ent para 5.0.7-ent
- Unhealthy services after cluster restore or rollback
- Pods presos em Init:0/X
- Prometheus no estado CrashloopBackoff com erro de falta de memória (OOM)
- Métricas Ceph-rook ausentes nos painéis de monitoramento
- Os pods não podem se comunicar com o FQDN em um ambiente de proxy
- O Document Understanding não está no menu de navegação esquerdo do Automation Suite
- Status de Falha ao criar uma sessão de rotulagem de dados
- Status de Falha ao tentar implantar uma habilidade de ML
- Trabalho de migração falha no ArgoCD
- Reconhecimento de escrita com o Extrator de formulários inteligente não está funcionando
- Usando a ferramenta de diagnóstico do Automation Suite
- Usando o pacote de suporte do Automation Suite
- Exploração de logs
Guia de instalação do Automation Suite
Uso do uipathctl.sh
uipathctl.sh
fornece uma maneira automatizada de atualizar um cluster para uma versão mais recente, configurar um backup, restaurar um cluster e muito mais, executando-o em um nó. A automação dessas tarefas é feita por meio da ferramenta de automação de TI Ansible.
Parâmetro |
Description |
---|---|
|
Atualize o cluster. |
|
Gere um arquivo de amostra representando um Conector Dex para ativar o SSO. |
|
Gere um exemplo de arquivo ArgoCD RBAC. |
|
Gere as sobreposições Kustomize para a implantação ArgoCD e Dex com SSO. Útil na depuração. |
|
Gere e aplique as sobreposições Kustomize para ArgoCD e Dex com SSO. |
|
Este sinalizador é mostrado apenas se você usar o comando
upgrade .
Etapas a serem executadas durante as operações de atualização. O padrão é
all .
|
|
Tipo de instalação. Necessário para atualização e restauração. |
|
Caminho para seu arquivo
cluster_config.json . Se não for especificado, um arquivo de configuração será gerado.
|
|
Caminho para um arquivo Kubeconfig que permite a conexão com o cluster. O padrão é
/etc/rancher/rke2/rke2.yaml .
|
|
Caminho para um inventário Ansible válido que descreve o cluster. Se não for especificado, um inventário será gerado. |
|
O nome de usuário a ser usado pelo Ansible para se conectar aos nós do cluster. O padrão é o usuário atual. |
|
A chave privada SSH que fornece conectividade aos nós do cluster. Se não for especificado, um conjunto de senhas será solicitado. |
|
Peça ao Ansible para solicitar uma senha definida para conexões SSH e elevação. |
|
Especifique o caminho para um
ansible.cfg personalizado a ser usado.
|
|
Caminho para o arquivo
sf-infra.tar.gz . Necessário para atualizações off-line.
|
|
Não execute atualização CNI. |
|
Tipo de conector para
sso-generate-connector .
|
|
Caminho para um arquivo contendo um Conector Dex para a integração SSO. |
|
Caminho para um arquivo contendo um Conector Dex para a integração SSO. |
Ansible usa o mecanismo SSH para fazer login em qualquer um dos nós de host ou máquinas para executar tarefas.
uipathctl.sh
, você deve executar as seguintes etapas:
- Identifique o nó de host Ansible.
- Adicione a assinatura SSH de seus nós aos hosts conhecidos.
- Configure o método de autenticação SSH.
- Instale o Ansible e outras ferramentas de pré-requisito.
Você deve garantir que as seguintes ferramentas estejam instaladas no nó do host Ansible:
ansible
(v2.8+)ansible-playbook
sshpass
– Necessário apenas ao usar senha para autenticação junto com o parâmetro --ansible-ask-password.zip
Para obter instruções, consulte as seções a seguir.
O nó de host do Ansible é a máquina onde você instala o Ansible. Esta máquina deve ser um nó de servidor para que tenha as permissões necessárias para executar todas as automações no cluster.
Em instalações online, o nó do host Ansible pode ser qualquer um dos nós do servidor.
/uipath
. Se não houver nenhum nó de servidor com o disco do pacote UiPath anexado, você pode simplesmente montar um disco adicional em qualquer um dos nós de servidor existentes e considerá-lo como o nó de host Ansible.
known_hosts
no nó do host Ansible.
<node-private-ip>
pelo endereço IP privado de cada nó no cluster, um de cada vez.
ssh-keyscan -H <node-private-ip> >> ~/.ssh/known_hosts
ssh-keyscan -H <node-private-ip> >> ~/.ssh/known_hosts
Ansible suporta dois mecanismos SSH:
- Opção 1: Autenticação SSH baseada em chaves — Recomendada. Ele usa chaves privadas e públicas.
- Opção 2: autenticação SSH baseada em senha
Passo 1: Configurando a chave SSH
O mecanismo de autenticação de chave SSH usa uma combinação de chaves privadas e públicas.
Conceda acesso à chave pública do nó do host do Ansible ao copiá-la em todos os outros nós.
ssh-keygen
.
Gerando chaves SSH
ssh-keygen
. Para gerar a nova chave SSH, basta executar o comando ssh-keygen e seguir as instruções.
Para gerar uma nova chave SSH, siga os seguintes passos:
- Gere uma nova chave SSH usando o comando
ssh-keygen
. -
Anote a localização da sua chave. Os valores padrão são:
- Chave pública:
~/.ssh/id_rsa.pub
- Chave Privada:
~/.ssh/id_rsa
- Chave pública:
- Conceda acesso à chave pública do nó do host Ansible em todos os outros nós copiando-a.
Concedendo acesso à chave pública em cada nó
ssh-copy-id
. Se o caminho da chave pública SSH não for ~/.ssh/id_rsa.pub
, certifique-se de substituí-lo adequadamente.
ssh-copy-id -i ~/.ssh/id_rsa.pub username@node-private-ip
ssh-copy-id -i ~/.ssh/id_rsa.pub username@node-private-ip
Etapa 2: fornecer acesso de chave SSH ao Ansible
O Ansible usa o mecanismo SSH para fazer login nas máquinas host e executar a instalação necessária. Por esse motivo, você deve fornecer o acesso da chave SSH ao Ansible.
Escolha entre os seguintes métodos:
ssh-agent
(recomendado)
ssh-agent
para obter acesso aos nós. Para obter mais informações sobre o ssh-agent, consulte o manual do ssh-agent.
ssh-agent
, execute o seguinte comando:
eval "$(ssh-agent -s)"
ssh-add ~/.ssh/id_rsa
eval "$(ssh-agent -s)"
ssh-add ~/.ssh/id_rsa
Opção 2: usando chave privada não protegida
--ansible-private-key
ao seu script uipathctl.sh
. O parâmetro pega o caminho absoluto da chave privada e o usa para autenticação.
Você deve garantir que o Ansible e as outras ferramentas de suporte a seguir estejam instaladas no nó de host do Ansible selecionado anteriormente.
-
ansible
(v2.8+)Para verificar seansible
foi instalado, execute:ansible --version &>/dev/null || echo "Error: Ansible is not installed"
ansible --version &>/dev/null || echo "Error: Ansible is not installed" -
ansible-playbook
Para verificar seansible-playbook
foi instalado, execute:ansible-playbook --version &>/dev/null || echo "Error: Ansible Playbook is not installed"
ansible-playbook --version &>/dev/null || echo "Error: Ansible Playbook is not installed" -
sshpass
– Necessário apenas ao usar senha para autenticação junto com o parâmetro--ansible-ask-password
.Para verificar sesshpass
foi instalado, execute:sshpass -V &>/dev/null || echo "Error: sshpass is not installed"
sshpass -V &>/dev/null || echo "Error: sshpass is not installed" -
zip
Para verificar sezip
foi instalado, execute:zip --version &>/dev/null || echo "Error: zip is not installed"
zip --version &>/dev/null || echo "Error: zip is not installed"Importante: Se algum dos comandos anteriores falhar, o pacote de destino não está instalado em sua máquina. Certifique-se de instalar as ferramentas necessárias.
yaml
para Ansible executando o seguinte comando:
export ANSIBLE_STDOUT_CALLBACK=yaml
export ANSIBLE_STDOUT_CALLBACK=yaml
Esse recurso foi introduzido no Ansible 2.9 e, para determinadas instalações, deve ser ativado executando o seguinte comando:
ansible-galaxy collection install community.general
ansible-galaxy collection install community.general
ERROR! Invalid callback for stdout specified: yaml
após instalar a coleção community.general
, poderá desativar a saída yaml
executando o seguinte comando:
unset ANSIBLE_STDOUT_CALLBACK
unset ANSIBLE_STDOUT_CALLBACK
inventory.ini
para o Ansible. No entanto, existem algumas situações em que você deve criar e fornecer o arquivo inventory.ini
ao Ansible. Por exemplo:
- Ao restaurar o cluster dos dados de backup. Isso ocorre porque, no momento da restauração, não há nenhum cluster íntegro para derivar
inventory.ini
. - Quando você deseja fornecer configurações avançadas, como nome de usuário e chave SSH, que são muito específicas para cada nó.
Para obter mais detalhes, consulte Como criar seu próprio inventário.
uipathctl.sh
entende.
[FIRST_SERVER]
'10.0.1.1'
[SECONDARY_SERVERS]
'10.0.1.2'
'10.0.1.3'
[AGENTS]
'10.0.1.4'
'10.0.1.5'
[TASKMINING]
'10.0.1.6'
[GPU]
'10.0.1.7'
[ASROBOTS]
'10.0.1.8'
[all:vars]
ansible_connection=ssh
ansible_timeout=10
ansible_user=admin
[FIRST_SERVER]
'10.0.1.1'
[SECONDARY_SERVERS]
'10.0.1.2'
'10.0.1.3'
[AGENTS]
'10.0.1.4'
'10.0.1.5'
[TASKMINING]
'10.0.1.6'
[GPU]
'10.0.1.7'
[ASROBOTS]
'10.0.1.8'
[all:vars]
ansible_connection=ssh
ansible_timeout=10
ansible_user=admin
Grupo |
Valor |
---|---|
|
O ponto de partida onde você executa o script
uipathctl.sh . Isso também é chamado de nó de host Ansible.
Você deve fornecer o endereço IP privado para este nó. |
|
O grupo de outros nós de servidor no cluster. Você deve fornecer o endereço IP privado de todos os outros nós do servidor. |
|
O grupo de nós do agente no cluster. Você deve fornecer o Endereço IP Privado de todos os nós do agente. |
|
O grupo de nós Task Mining no cluster. Você deve fornecer o Endereço IP Privado de todos os nós de Task Mining. |
|
O grupo dos nós de GPU no cluster. Você deve fornecer Endereço IP Privado a todos os nós da GPU. |
|
O grupo de nós do Automation Suite Robots no cluster. Você deve fornecer o endereço IP privado de todos os nós do Automation Suite Robots. |
|
O grupo de variáveis aplicadas a todos os grupos de hosts definidos anteriormente.
Você pode fornecer as variáveis por grupo ou por nó de host. Para obter detalhes, consulte Atribuição de uma variável a várias máquinas: variáveis de grupo. |
Yaml
e fornecidos ao Ansible.
uipathctl.sh
usando --ansible-variables-file
.
#Path where installer zip is available. By default, uipathctl.sh takes the current folder and compress it to zip before copying it to other nodes.
installer_path: /path/to/installer.zip
# Path where installer will be copied on nodes
target_installer_base_path: /opt/UiPathAutomationSuite/<version>/installer
# Install type - online or offline
install_type: online
# Path on nodes where offline bundles will be copied
target_bundle_base_path: /opt/UiPathAutomationSuite/{version}
# Path on nodes where offline bundles will be extracted
target_tmp_path: /opt/UiPathAutomationSuite/tmp
# Basepath and filname for the various config files and bundles on the local machine
cluster_config_filename: cluster_config.json
cluster_config_basepath: /var/tmp/uipathctl_{version}
backup_config_filename: backup_config.json
backup_config_basepath: /var/tmp/uipathctl_{version}
restore_config_filename: restore.json
restore_config_basepath: /var/tmp/uipathctl_{version}
infra_bundle_filename: sf-infra.tar.gz
infra_bundle_basepath: /var/tmp/uipath_upgrade_<version>
#Path where installer zip is available. By default, uipathctl.sh takes the current folder and compress it to zip before copying it to other nodes.
installer_path: /path/to/installer.zip
# Path where installer will be copied on nodes
target_installer_base_path: /opt/UiPathAutomationSuite/<version>/installer
# Install type - online or offline
install_type: online
# Path on nodes where offline bundles will be copied
target_bundle_base_path: /opt/UiPathAutomationSuite/{version}
# Path on nodes where offline bundles will be extracted
target_tmp_path: /opt/UiPathAutomationSuite/tmp
# Basepath and filname for the various config files and bundles on the local machine
cluster_config_filename: cluster_config.json
cluster_config_basepath: /var/tmp/uipathctl_{version}
backup_config_filename: backup_config.json
backup_config_basepath: /var/tmp/uipathctl_{version}
restore_config_filename: restore.json
restore_config_basepath: /var/tmp/uipathctl_{version}
infra_bundle_filename: sf-infra.tar.gz
infra_bundle_basepath: /var/tmp/uipath_upgrade_<version>
Variável |
Valor |
---|---|
|
O caminho de
sf-installer.zip . Se você não fornecer esse valor, uipathctl.sh compactará o diretório atual e o copiará para outros nós, como um zip do instalador.
|
|
O caminho onde o instalador será copiado nos nós. O valor padrão é `/opt/UiPathAutomationSuite/{versão |
|
O método de instalação. Os valores possíveis são:
online e offline .
|
|
The path on the nodes where the offline bundles will be copied. The default location is
/var/tmp/uipathctl_{version} .
|
|
O caminho nos nós onde o pacote é extraído. O local padrão é
/opt/UiPathAutomationSuite/tmp .
|
|
O nome do arquivo de configuração do cluster. O valor padrão é
cluster_config.json .
|
|
The location where
cluster_config.json will be stored temporarily on the nodes during orchestration. The default value is /var/tmp/uipathctl_{version} .
|
|
O nome do arquivo de configuração de backup. O valor padrão é
backup.json .
|
|
The location where
backup.json will be stored temporarily on the nodes during orchestration. The default value is /var/tmp/uipathctl_{version} .
|
|
O nome do arquivo de configuração de restauração. O valor padrão é
restore.json .
|
|
O local onde
restore.json será armazenado temporariamente nos nós durante a orquestração. O valor padrão é `/var/tmp/uipathctl_{version
|
|
O nome do pacote configurável que contém as camadas de infraestrutura. Este é o mesmo que você forneceu para o script
uipathctl.sh .
|
|
O local onde
sf-infra.tar.gz será armazenado temporariamente nos nós durante a orquestração. Este é o mesmo que você forneceu para o script uipathctl.sh .
|
- Parâmetros Uipathctl.sh
- Requisitos
- Identifying the Ansible host node
- Adding the SSH signature of your nodes to the known hosts
- Setting up SSH authentication method
- Option 1: Key-based SSH authentication (recommended)
- Opção 2: autenticação SSH baseada em senha
- Checking if Ansible and other prerequisite tools are installed
- Advanced Ansible configuration
- Habilitando a saída yaml
- Gerando o arquivo Inventory.ini do Ansible
- Gerando o arquivo de variável Ansible