- Visão geral
- Requisitos
- Instalação
- Perguntas e respostas: modelos de implantação
- Configuração das máquinas
- Configuração do balanceador de carga
- Configuração do DNS
- Como configurar o Microsoft SQL Server
- Configuração dos certificados
- Instalação online de produção pronta para alta disponibilidade de vários nós
- Instalação offline de produção pronta para alta disponibilidade de vários nós
- Baixando os pacotes de instalação
- Parâmetros do install-uipath.sh
- Como habilitar o High Availability Add-on do Redis para o cluster
- Arquivo de configuração do Document Understanding
- Adicionando um nó de agente dedicado com suporte a GPU
- Conexão do aplicativo Task Mining
- Adição de um nó de agente dedicado ao Task Mining
- Pós-instalação
- Administração de cluster
- Gerenciando produtos
- Gerenciamento do cluster no ArgoCD
- Configuração do servidor NFS externo
- Automatizado: habilitando o backup no cluster
- Automatizado: desabilitando o backup no cluster
- Automatizado, online: restaurando o cluster
- Automatizado, offline: restaurando o cluster
- Manual: habilitando o backup no cluster
- Manual: desabilitando o backup no cluster
- Manual, online: restaurando o cluster
- Manual, offline: restaurando o cluster
- Configuração adicional
- Migrating objectstore from persistent volume to raw disks
- Monitoramento e alertas
- Migração e atualização
- Opções de migração
- Etapa 1: mover os dados da organização do Identity, de independente para o Automation Suite
- Etapa 2: restauração do banco de dados de produtos independente
- Etapa 3: backup do banco de dados da plataforma no Automation Suite
- Etapa 4: mesclando organizações no Automation Suite
- Etapa 5: atualização das strings de conexão do produto migradas
- Etapa 6: migração do Insights independente
- Etapa 7: exclusão do tenant padrão
- B) Migração de um único tenant
- Configuração específica do produto
- Melhores práticas e manutenção
- Solução de problemas
- Como solucionar problemas dos serviços durante a instalação
- Como desinstalar o cluster
- Como limpar os artefatos offline para melhorar o espaço em disco
- Como limpar os dados do Redis
- Como habilitar o registro em log do Istio
- Como limpar logs manualmente
- Como limpar logs antigos armazenados no pacote do sf-logs
- Como desabilitar os logs de streaming para o AI Center
- Como depurar instalações do Automation Suite com falha
- Como excluir imagens do instalador antigo após a atualização
- Como limpar automaticamente instantâneos do Longhorn
- Como desabilitar o descarregamento de soma de verificação do TX
- Como lidar com cifras fracas no TLS 1.2
- Não é possível executar uma instalação offline no SO RHEL 8.4
- Erro ao baixar o pacote
- A instalação offline falha devido a um binário ausente
- Problema de certificado na instalação offline
- First installation fails during Longhorn setup
- Erro de validação da string de conexão ao SQL
- Verificação de pré-requisito para o módulo iscsid do selinux falha
- Azure disk not marked as SSD
- Falha após a atualização do certificado
- Automation Suite not working after OS upgrade
- O Automation Suite requer que Backlog_wait_time seja definido como 1
- Não é possível montar o volume devido a não estar pronto para cargas de trabalho
- O RKE2 falha durante a instalação e atualização
- Falha ao carregar ou baixar dados no objectstore
- PVC resize does not heal Ceph
- Falha no redimensionamento do PVC do Objectstore
- Pod do Rook Ceph ou Looker travado no estado Init
- Erro de anexo de volume StatefulSet
- Falha ao criar volumes persistentes
- Patch de reclamação de armazenamento
- Falha de backup devido ao erro TooManySnapshots
- Todas as réplicas do Longhorn estão com falha
- Configurando um intervalo de tempo limite para os portais de gerenciamento
- Atualizar as conexões de diretório subjacentes
- Não é possível fazer login após a migração
- kinit: não é possível encontrar o KDC para o realm <AD Domain> ao obter credenciais iniciais
- kinit: o Keytab não contém chaves adequadas para *** ao obter credenciais iniciais
- A operação do GSSAPI falhou com erro: um código de status inválido foi fornecido (as credenciais do cliente foram revogadas).
- Alarme recebido para tarefa Kerberos-tgt-update com falha
- Provedor SSPI: servidor não encontrado no banco de dados Kerberos
- Falha do login para o usuário <ADDOMAIN><aduser> Motivo: a conta está desabilitada.
- ArgoCD login failed
- Falha ao obter a imagem do sandbox
- Os pods não são exibidos na UI do ArgoCD
- Falha de teste do Redis
- O servidor RKE2 falha ao iniciar
- Segredo não encontrado no namespace da UiPath
- Após a instalação inicial, o aplicativo ArgoCD entrou no estado Em andamento
- Pods de MongoDB em CrashLoopBackOff ou provisionamento de PVC pendente após exclusão
- Inconsistência inesperada; execute o fsck manualmente
- MongoDB degradado ou aplicativos de negócios após a restauração do cluster
- Operador de autocura ausente e repositório Sf-k8-utils ausente
- Serviços não íntegros após restauração ou reversão do cluster
- Pod RabbitMQ preso em CrashLoopBackOff
- Prometheus no estado CrashloopBackoff com erro de falta de memória (OOM)
- Métricas Ceph-rook ausentes nos painéis de monitoramento
- O Document Understanding não está no menu de navegação esquerdo do Automation Suite
- Status de Falha ao criar uma sessão de rotulagem de dados
- Status de Falha ao tentar implantar uma habilidade de ML
- Trabalho de migração falha no ArgoCD
- Reconhecimento de escrita com o Extrator de formulários inteligente não está funcionando
- Usando a ferramenta de diagnóstico do Automation Suite
- Usando a ferramenta de pacote de suporte do Automation Suite
- Exploração de logs
Adição de um nó de agente dedicado ao Task Mining
Antes de iniciar a instalação do Task Mining, certifique-se de verificar os requisitos de hardware. O Task Mining está vinculado ao AI Center; portanto, para usar o Task Mining, você também deve instalar o AI Center.
Após concluir a instalação do Automation Suite, siga as seguintes etapas para configurar o Task Mining.
Se você já habilitou o Task Mining na configuração durante a instalação principal, você pode pular esta etapa. Em caso negativo, você precisa habilitar o AI Center e o Task Mining editando a configuração e executando novamente a instalação.
cluster_config.json
durante a instalação na etapa Configuração avançada.
aicenter
e task_mining
devem ser adicionados conforme habilitados em cluster_config.json
.
cluster_config.json
{
"aicenter": {
"enabled": Boolean
},
"task_mining": {
"enabled": Boolean
}
}
{
"aicenter": {
"enabled": Boolean
},
"task_mining": {
"enabled": Boolean
}
}
Siga as etapas para configurar um nó do servidor para assegurar que o disco esteja particionado corretamente.
Para instalação online
SSH para a máquina correta:
- Se você adicionou o Task Mining a uma instalação de avaliação de nó único, acesse a máquina e execute esta próxima etapa.
- Se você adicionou o Task Mining a uma instalação de produção pronta para HA de vários nós, acesse qualquer um dos nós do servidor.
UiPathAutomationSuite
no nó do Task Mining (o nome de usuário e DNS são específicos do nó do Task Mining):
sudo su -
scp -r /opt/UiPathAutomationSuite <username>@<node dns>:/opt/
scp -r ~/* <username>@<node dns>:/opt/UiPathAutomationSuite/
sudo su -
scp -r /opt/UiPathAutomationSuite <username>@<node dns>:/opt/
scp -r ~/* <username>@<node dns>:/opt/UiPathAutomationSuite/
Para instalação offline
SSH para o nó de instalação primário.
UiPathAutomationSuite
contenha o arquivo sf-infra.tar.gz
( é parte da etapa Download do pacote de instalação )
scp -r ~/opt/UiPathAutomationSuite <username>@<node dns>:/var/tmp
scp -r ~/opt/UiPathAutomationSuite <username>@<node dns>:/var/tmp
Para instalação online
SSH para o nó do Task Mining e execute os seguintes comandos:
sudo su -
cd /opt/UiPathAutomationSuite
yum install unzip jq -y
CONFIG_PATH=/opt/UiPathAutomationSuite/cluster_config.json
UNATTENDED_ACTION="accept_eula,download_bundle,extract_bundle,join_task_mining" ./installUiPathAS.sh
sudo su -
cd /opt/UiPathAutomationSuite
yum install unzip jq -y
CONFIG_PATH=/opt/UiPathAutomationSuite/cluster_config.json
UNATTENDED_ACTION="accept_eula,download_bundle,extract_bundle,join_task_mining" ./installUiPathAS.sh
Para instalação offline
Conecte-se pelo SSH ao nó dedicado do Task Mining e instale o pacote da plataforma nele usando o script abaixo.
sudo su
mv /var/tmp/UiPathAutomationSuite /opt
cd /opt/UiPathAutomationSuite
sudo chmod -R 755 /opt/UiPathAutomationSuite
sudo ./install-uipath.sh -i ./cluster_config.json -o ./output.json -k -j task-mining --offline-bundle ./sf-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp --install-offline-prereqs --accept-license-agreement
sudo su
mv /var/tmp/UiPathAutomationSuite /opt
cd /opt/UiPathAutomationSuite
sudo chmod -R 755 /opt/UiPathAutomationSuite
sudo ./install-uipath.sh -i ./cluster_config.json -o ./output.json -k -j task-mining --offline-bundle ./sf-infra.tar.gz --offline-tmp-folder /opt/UiPathAutomationSuite/tmp --install-offline-prereqs --accept-license-agreement
Execute o comando abaixo para definir o contexto kubectl na máquina do Task Mining
sudo su -
export KUBECONFIG=/var/lib/rancher/rke2/agent/kubelet.kubeconfig
export PATH=$PATH:/var/lib/rancher/rke2/bin
kubectl get nodes
sudo su -
export KUBECONFIG=/var/lib/rancher/rke2/agent/kubelet.kubeconfig
export PATH=$PATH:/var/lib/rancher/rke2/bin
kubectl get nodes
Você deve ver os nós e seus nomes correspondentes. Você precisa do nome do nó do Task Mining para a próxima etapa.
Finalmente, execute o seguinte comando para verificar se o nó do Task Mining está configurado. Atualize o \<node name\> com o nome do nó do Task Mining no comando abaixo.
kubectl describe node <node name> | grep -i "taints"
kubectl describe node <node name> | grep -i "taints"
O comando acima deve retornar a você a seguinte saída
Nesse ponto, você concluiu com sucesso a instalação do Task Mining. Entre no Portal do Automation Suite e habilite-o no UX de gerenciamento do tenant na seção Administrador.
Certifique-se de configurar as notificações por email do sistema, pois o Task Mining depende do sistema de notificações do Automation Suite para enviar emails.
Para obter instruções sobre como criar um projeto do Task Mining, consulte a documentação do Task Mining.
Siga as etapas para o tipo de implantação em questão, online ou offline.
Antes de prosseguir com as etapas abaixo, é obrigatório começar com as seguintes etapas em Carregamento de pacotes de ML.
Depois de carregar o pacote de ML, siga as etapas relacionadas:
5. Nomeie o pacote, escolha a versão mais recente do pacote e clique em Enviar para criar um pacote de implantação de machine learning.
Como o Task Mining é um aplicativo com um grande volume de dados, recomendamos um 1024 GB adicionais de armazenamento para lidar com as capturas de tela e os metadados coletados durante os estudos. Após adicionar um disco secundário, você deve redimensionar o armazenamento do Longhorn para incorporá-lo.
Você pode adicionar o disco adicional antes ou depois da instalação. Se adicioná-lo após a instalação, deverá seguir etapas adicionais para configurar o novo disco no cluster.
Para obter detalhes, consulte Configuração do novo disco de dados no cluster.
UiPathAutomationSuite
e execute o seguinte comando:
sudo su -
cd /opt/UiPathAutomationSuite
sudo ./configureUiPathAS.sh objectstore resize-pvc --size 1000Gi --sub-component data
sudo su -
cd /opt/UiPathAutomationSuite
sudo ./configureUiPathAS.sh objectstore resize-pvc --size 1000Gi --sub-component data
- Requisitos de Hardware
- Habilitar o Task Mining no cluster
- Edição da configuração
- Configuração de um nó dedicado ao Task Mining
- Etapa um: configurar a máquina
- Etapa dois: copiar o assistente de instalação interativo na máquina de destino para instalação
- Etapa três: executar o assistente de instalação interativo para configurar o nó dedicado
- Etapa quatro: habilitar o kubectl
- Etapa cinco: verificação da configuração do Task Mining
- Configuração do e-mail
- Início de um projeto do Task Mining
- Configuração do modelo de ML do Task Mining no AI Center
- Instalações online e offline
- Aumento de armazenamento de disco secundário/Longhorn
- Configuração de um novo disco de dados no cluster
- Aumento da capacidade de armazenamento