automation-suite
2022.4
false
- Visão geral
- Requisitos
- Instalação
- Perguntas e respostas: modelos de implantação
- Configuração das máquinas
- Configuração do balanceador de carga
- Configuração do DNS
- Como configurar o Microsoft SQL Server
- Configuração dos certificados
- Instalação online de produção pronta para alta disponibilidade de vários nós
- Instalação offline de produção pronta para alta disponibilidade de vários nós
- Baixando os pacotes de instalação
- Parâmetros do install-uipath.sh
- Como habilitar o High Availability Add-on do Redis para o cluster
- Arquivo de configuração do Document Understanding
- Adicionando um nó de agente dedicado com suporte a GPU
- Conexão do aplicativo Task Mining
- Adição de um nó de agente dedicado ao Task Mining
- Pós-instalação
- Administração de cluster
- Gerenciando produtos
- Gerenciamento do cluster no ArgoCD
- Configuração do servidor NFS externo
- Automatizado: habilitando o backup no cluster
- Automatizado: desabilitando o backup no cluster
- Automatizado, online: restaurando o cluster
- Automatizado, offline: restaurando o cluster
- Manual: habilitando o backup no cluster
- Manual: desabilitando o backup no cluster
- Manual, online: restaurando o cluster
- Manual, offline: restaurando o cluster
- Configuração adicional
- Migrating objectstore from persistent volume to raw disks
- Monitoramento e alertas
- Migração e atualização
- Opções de migração
- Etapa 1: mover os dados da organização do Identity, de independente para o Automation Suite
- Etapa 2: restauração do banco de dados de produtos independente
- Etapa 3: backup do banco de dados da plataforma no Automation Suite
- Etapa 4: mesclando organizações no Automation Suite
- Etapa 5: atualização das strings de conexão do produto migradas
- Etapa 6: migração do Insights independente
- Etapa 7: exclusão do tenant padrão
- B) Migração de um único tenant
- Configuração específica do produto
- Melhores práticas e manutenção
- Solução de problemas
- Como solucionar problemas dos serviços durante a instalação
- Como desinstalar o cluster
- Como limpar os artefatos offline para melhorar o espaço em disco
- Como limpar os dados do Redis
- Como habilitar o registro em log do Istio
- Como limpar logs manualmente
- Como limpar logs antigos armazenados no bucket do sf-logs
- Como desabilitar os logs de streaming para o AI Center
- Como depurar instalações do Automation Suite com falha
- Como excluir imagens do instalador antigo após a atualização
- Como limpar automaticamente instantâneos do Longhorn
- Como desabilitar o descarregamento de soma de verificação do TX
- Como lidar com cifras fracas no TLS 1.2
- Não é possível executar uma instalação offline no SO RHEL 8.4
- Erro ao baixar o pacote
- A instalação offline falha devido a um binário ausente
- Problema de certificado na instalação offline
- First installation fails during Longhorn setup
- Erro de validação da string de conexão ao SQL
- Verificação de pré-requisito para o módulo iscsid do selinux falha
- Azure disk not marked as SSD
- Falha após a atualização do certificado
- Automation Suite not working after OS upgrade
- O Automation Suite requer que Backlog_wait_time seja definido como 1
- Não é possível montar o volume devido a não estar pronto para cargas de trabalho
- O RKE2 falha durante a instalação e atualização
- Falha ao carregar ou baixar dados no objectstore
- PVC resize does not heal Ceph
- Falha no redimensionamento do PVC do Objectstore
- Pod do Rook Ceph ou Looker travado no estado Init
- Erro de anexo de volume StatefulSet
- Falha ao criar volumes persistentes
- Patch de reclamação de armazenamento
- Falha de backup devido ao erro TooManySnapshots
- Todas as réplicas do Longhorn estão com falha
- Configurando um intervalo de tempo limite para os portais de gerenciamento
- Atualizar as conexões de diretório subjacentes
- Não é possível fazer login após a migração
- kinit: não é possível encontrar o KDC para o realm <AD Domain> ao obter credenciais iniciais
- kinit: o Keytab não contém chaves adequadas para *** ao obter credenciais iniciais
- A operação do GSSAPI falhou com erro: um código de status inválido foi fornecido (as credenciais do cliente foram revogadas).
- Alarme recebido para tarefa Kerberos-tgt-update com falha
- Provedor SSPI: servidor não encontrado no banco de dados Kerberos
- Falha do login para o usuário <ADDOMAIN><aduser> Motivo: a conta está desabilitada.
- ArgoCD login failed
- Falha ao obter a imagem do sandbox
- Os pods não são exibidos na UI do ArgoCD
- Falha de teste do Redis
- O servidor RKE2 falha ao iniciar
- Segredo não encontrado no namespace da UiPath
- Após a instalação inicial, o aplicativo ArgoCD entrou no estado Em andamento
- Pods de MongoDB em CrashLoopBackOff ou provisionamento de PVC pendente após exclusão
- Inconsistência inesperada; execute o fsck manualmente
- MongoDB degradado ou aplicativos de negócios após a restauração do cluster
- Operador de autocura ausente e repositório Sf-k8-utils ausente
- Serviços não íntegros após restauração ou reversão do cluster
- Pod RabbitMQ preso em CrashLoopBackOff
- Prometheus no estado CrashloopBackoff com erro de falta de memória (OOM)
- Métricas Ceph-rook ausentes nos painéis de monitoramento
- Os pods não podem se comunicar com o FQDN em um ambiente de proxy
- O Document Understanding não está no menu de navegação esquerdo do Automation Suite
- Status de Falha ao criar uma sessão de rotulagem de dados
- Status de Falha ao tentar implantar uma habilidade de ML
- Trabalho de migração falha no ArgoCD
- Reconhecimento de escrita com o Extrator de formulários inteligente não está funcionando
- Usando a ferramenta de diagnóstico do Automation Suite
- Usando o pacote de suporte do Automation Suite
- Exploração de logs
Importante :
A tradução automática foi aplicada parcialmente neste conteúdo.
A localização de um conteúdo recém-publicado pode levar de 1 a 2 semanas para ficar disponível.

Guia de instalação do Automation Suite
Última atualização 17 de mar de 2025
documentunderstanding é uma propriedade no arquivo de configuração do Automation Suite, cluster_config.json. Ela contém valores configuráveis que controlam o comportamento do serviço do Document Understanding. O instalador gera os valores padrão. Alterações adicionais podem ser feitas para configurar ainda mais o serviço do Document Understanding. Se você precisar alterar qualquer configuração relacionada ao Document Understanding, a seção documentunderstanding em cluster_config.json pode ser editada e o instalador pode ser executado novamente.
Como alternativa, as mesmas alterações também podem ser feitas no aplicativo da UiPath no ArgoCD.
Configuração do Document Understanding
"documentunderstanding": {
"enabled": Boolean,
"datamanager": {
"sql_connection_str" : "String"
}
"handwriting": {
"enabled": Boolean,
"max_cpu_per_pod": "Number"
}
}"documentunderstanding": {
"enabled": Boolean,
"datamanager": {
"sql_connection_str" : "String"
}
"handwriting": {
"enabled": Boolean,
"max_cpu_per_pod": "Number"
}
}Observação:
A string de conexão SQL do Data Manager é opcional apenas se você quiser substituir o banco de dados padrão por um próprio.
O manuscrito fica sempre habilitado para a instalação online.
O exemplo de configuração completo
"documentunderstanding": {
"enabled": true,
"datamanager": {
"sql_connection_str": "mssql+pyodbc://testadmin:myPassword@mydev-sql.database.windows.net:1433/datamanager?driver=ODBC+Driver+17+for+SQL+Server",
},
"handwriting": {
"enabled": true,
"max_cpu_per_pod": "2"
}
}"documentunderstanding": {
"enabled": true,
"datamanager": {
"sql_connection_str": "mssql+pyodbc://testadmin:myPassword@mydev-sql.database.windows.net:1433/datamanager?driver=ODBC+Driver+17+for+SQL+Server",
},
"handwriting": {
"enabled": true,
"max_cpu_per_pod": "2"
}
}Observação: o valor para
max_cpu_per_pod é, por padrão, 2,mas pode ser ajustado de acordo com suas necessidades. Para obter mais informações sobre como fazer isso, consulte a seção (opcional) Parâmetro máximo de CPU por pod.
datamanager.sql_connection_str
- String de conexão para o Data Manager
- Obrigatório: False.
- This property is generated and populated by the installer, you do not need to set it unless you want to override the default connection string. For more details about connecting to SQL please refer to the Database configuration page.
manuscrito
- Configurações para a funcionalidade de reconhecimento de letra manuscrita (parte do IntelligentFormExtractor)
- Obrigatório: False.
handwriting.enabled
- Definir isso como True cria os recursos necessários para executar o reconhecimento de letra manuscrita. Isso precisa ser verdadeiro para usar o IntelligentFormExtractor.
- Obrigatório: False
- Essa propriedade está sempre habilitada para a instalação online e desabilitada para a instalação (isolada) offline. Para a instalação isolada, você precisa instalar o pacote offline do Document Understanding antes de habilitar o manuscrito.
handwriting.max_cpu_per_pod
- A quantidade máxima de CPUs que cada contêiner tem permissão para usar. O valor recomendado é 2.
- Obrigatório: False.
- Padrão: 2.
Se você quiser usar o Extrator de formulários inteligente com a funcionalidade de detecção de manuscrito, pode ser necessário ajustar o parâmetro
handwriting.max_cpu_per_pod para obter mais poder de processamento.
Os seguintes fatores são necessários para calcular o dimensionamento correto:
- volume total de documentos por ano = V
- número esperado de fragmentos de manuscrito por documento = S
- dias em que o fluxo de trabalho processa os documentos (dias úteis, todos os dias, fins de semana, etc.) = d
- horas em que o fluxo de trabalho processa os documentos = h
- Número de CPUs = (V x T / (d x h)) / 1500
Como um exemplo, se você espera ter um milhão de documentos para processar durante um ano usando o Extrator de formulários inteligente para detectar manuscritos, com uma média de 50 fragmentos, funcionando em dias úteis da 00:00 às 08:00 (8 horas), o cálculo seria:
Number of CPUs = (1,000,000 x 50 / (250 x 8)) / 1500
= 25,000 / 1500
= 17 CPUsNumber of CPUs = (1,000,000 x 50 / (250 x 8)) / 1500
= 25,000 / 1500
= 17 CPUsPara o modo de avaliação de nó único, é necessário ajustar o parâmetro
max_cpu_per_pod para 17.
Para o modo de produção pronto para alta disponibilidade de vários nós (3 nós), ajuste o parâmetro
max_cpu_per_pod para 5 ou 6.