automation-suite
2022.4
false
- Visão geral
- Requisitos
- Instalação
- Perguntas e respostas: modelos de implantação
- Configuração das máquinas
- Configuração do balanceador de carga
- Configuração do DNS
- Como configurar o Microsoft SQL Server
- Configuração dos certificados
- Instalação online de produção pronta para alta disponibilidade de vários nós
- Instalação offline de produção pronta para alta disponibilidade de vários nós
- Baixando os pacotes de instalação
- Parâmetros do install-uipath.sh
- Como habilitar o High Availability Add-on do Redis para o cluster
- Arquivo de configuração do Document Understanding
- Adicionando um nó de agente dedicado com suporte a GPU
- Conexão do aplicativo Task Mining
- Adição de um nó de agente dedicado ao Task Mining
- Pós-instalação
- Administração de cluster
- Gerenciando produtos
- Gerenciamento do cluster no ArgoCD
- Configuração do servidor NFS externo
- Automatizado: habilitando o backup no cluster
- Automatizado: desabilitando o backup no cluster
- Automatizado, online: restaurando o cluster
- Automatizado, offline: restaurando o cluster
- Manual: habilitando o backup no cluster
- Manual: desabilitando o backup no cluster
- Manual, online: restaurando o cluster
- Manual, offline: restaurando o cluster
- Configuração adicional
- Migrating objectstore from persistent volume to raw disks
- Monitoramento e alertas
- Migração e atualização
- Opções de migração
- Etapa 1: mover os dados da organização do Identity, de independente para o Automation Suite
- Etapa 2: restauração do banco de dados de produtos independente
- Etapa 3: backup do banco de dados da plataforma no Automation Suite
- Etapa 4: mesclando organizações no Automation Suite
- Etapa 5: atualização das strings de conexão do produto migradas
- Etapa 6: migração do Insights independente
- Etapa 7: exclusão do tenant padrão
- B) Migração de um único tenant
- Configuração específica do produto
- Melhores práticas e manutenção
- Solução de problemas
- Como solucionar problemas dos serviços durante a instalação
- Como desinstalar o cluster
- Como limpar os artefatos offline para melhorar o espaço em disco
- Como limpar os dados do Redis
- Como habilitar o registro em log do Istio
- Como limpar logs manualmente
- Como limpar logs antigos armazenados no bucket do sf-logs
- Como desabilitar os logs de streaming para o AI Center
- Como depurar instalações do Automation Suite com falha
- Como excluir imagens do instalador antigo após a atualização
- Como limpar automaticamente instantâneos do Longhorn
- Como desabilitar o descarregamento de soma de verificação do TX
- Como lidar com cifras fracas no TLS 1.2
- Não é possível executar uma instalação offline no SO RHEL 8.4
- Erro ao baixar o pacote
- A instalação offline falha devido a um binário ausente
- Problema de certificado na instalação offline
- First installation fails during Longhorn setup
- Erro de validação da string de conexão ao SQL
- Verificação de pré-requisito para o módulo iscsid do selinux falha
- Azure disk not marked as SSD
- Falha após a atualização do certificado
- Automation Suite not working after OS upgrade
- O Automation Suite requer que Backlog_wait_time seja definido como 1
- Não é possível montar o volume devido a não estar pronto para cargas de trabalho
- O RKE2 falha durante a instalação e atualização
- Falha ao carregar ou baixar dados no objectstore
- PVC resize does not heal Ceph
- Falha no redimensionamento do PVC do Objectstore
- Pod do Rook Ceph ou Looker travado no estado Init
- Erro de anexo de volume StatefulSet
- Falha ao criar volumes persistentes
- Patch de reclamação de armazenamento
- Falha de backup devido ao erro TooManySnapshots
- Todas as réplicas do Longhorn estão com falha
- Configurando um intervalo de tempo limite para os portais de gerenciamento
- Atualizar as conexões de diretório subjacentes
- Não é possível fazer login após a migração
- kinit: não é possível encontrar o KDC para o realm <AD Domain> ao obter credenciais iniciais
- kinit: o Keytab não contém chaves adequadas para *** ao obter credenciais iniciais
- A operação do GSSAPI falhou com erro: um código de status inválido foi fornecido (as credenciais do cliente foram revogadas).
- Alarme recebido para tarefa Kerberos-tgt-update com falha
- Provedor SSPI: servidor não encontrado no banco de dados Kerberos
- Falha do login para o usuário <ADDOMAIN><aduser> Motivo: a conta está desabilitada.
- ArgoCD login failed
- Falha ao obter a imagem do sandbox
- Os pods não são exibidos na UI do ArgoCD
- Falha de teste do Redis
- O servidor RKE2 falha ao iniciar
- Segredo não encontrado no namespace da UiPath
- Após a instalação inicial, o aplicativo ArgoCD entrou no estado Em andamento
- Pods de MongoDB em CrashLoopBackOff ou provisionamento de PVC pendente após exclusão
- Inconsistência inesperada; execute o fsck manualmente
- MongoDB degradado ou aplicativos de negócios após a restauração do cluster
- Operador de autocura ausente e repositório Sf-k8-utils ausente
- Serviços não íntegros após restauração ou reversão do cluster
- Pod RabbitMQ preso em CrashLoopBackOff
- Prometheus no estado CrashloopBackoff com erro de falta de memória (OOM)
- Métricas Ceph-rook ausentes nos painéis de monitoramento
- Os pods não podem se comunicar com o FQDN em um ambiente de proxy
- O Document Understanding não está no menu de navegação esquerdo do Automation Suite
- Status de Falha ao criar uma sessão de rotulagem de dados
- Status de Falha ao tentar implantar uma habilidade de ML
- Trabalho de migração falha no ArgoCD
- Reconhecimento de escrita com o Extrator de formulários inteligente não está funcionando
- Usando a ferramenta de diagnóstico do Automation Suite
- Usando o pacote de suporte do Automation Suite
- Exploração de logs
Arquivo de configuração do Document Understanding
Importante :
A tradução automática foi aplicada parcialmente neste conteúdo.
A localização de um conteúdo recém-publicado pode levar de 1 a 2 semanas para ficar disponível.
Guia de instalação do Automation Suite
Última atualização 19 de dez de 2024
Arquivo de configuração do Document Understanding
documentunderstanding
é uma propriedade no arquivo de configuração do Automation Suite, cluster_config.json
. Ela contém valores configuráveis que controlam o comportamento do serviço do Document Understanding. O instalador gera os valores padrão. Alterações adicionais podem ser feitas para configurar ainda mais o serviço do Document Understanding. Se você precisar alterar qualquer configuração relacionada ao Document Understanding, a seção documentunderstanding
em cluster_config.json
pode ser editada e o instalador pode ser executado novamente.
Como alternativa, as mesmas alterações também podem ser feitas no aplicativo da UiPath no ArgoCD.
"documentunderstanding": {
"enabled": Boolean,
"datamanager": {
"sql_connection_str" : "String"
}
"handwriting": {
"enabled": Boolean,
"max_cpu_per_pod": "Number"
}
}
"documentunderstanding": {
"enabled": Boolean,
"datamanager": {
"sql_connection_str" : "String"
}
"handwriting": {
"enabled": Boolean,
"max_cpu_per_pod": "Number"
}
}
Observação:
A string de conexão SQL do Data Manager é opcional apenas se você quiser substituir o banco de dados padrão por um próprio.
O manuscrito fica sempre habilitado para a instalação online.
"documentunderstanding": {
"enabled": true,
"datamanager": {
"sql_connection_str": "mssql+pyodbc://testadmin:myPassword@mydev-sql.database.windows.net:1433/datamanager?driver=ODBC+Driver+17+for+SQL+Server",
},
"handwriting": {
"enabled": true,
"max_cpu_per_pod": "2"
}
}
"documentunderstanding": {
"enabled": true,
"datamanager": {
"sql_connection_str": "mssql+pyodbc://testadmin:myPassword@mydev-sql.database.windows.net:1433/datamanager?driver=ODBC+Driver+17+for+SQL+Server",
},
"handwriting": {
"enabled": true,
"max_cpu_per_pod": "2"
}
}
Observação: o valor para
max_cpu_per_pod
é, por padrão, 2
,mas pode ser ajustado de acordo com suas necessidades. Para obter mais informações sobre como fazer isso, consulte a seção (opcional) Parâmetro máximo de CPU por pod .
- String de conexão para o Data Manager
- Obrigatório: False.
- Essa propriedade é gerada e preenchida pelo instalador. Você não precisa defini-la, a menos que queira substituir a string de conexão padrão. Para obter mais detalhes sobre a conexão ao SQL, consulte a página Configuração do banco de dados.
- Configurações para a funcionalidade de reconhecimento de letra manuscrita (parte do IntelligentFormExtractor)
- Obrigatório: False.
- Definir isso como True cria os recursos necessários para executar o reconhecimento de letra manuscrita. Isso precisa ser verdadeiro para usar o IntelligentFormExtractor.
- Obrigatório: False
- Essa propriedade está sempre habilitada para a instalação online e desabilitada para a instalação (isolada) offline. Para a instalação isolada, você precisa instalar o pacote offline do Document Understanding antes de habilitar o manuscrito.
- A quantidade máxima de CPUs que cada contêiner tem permissão para usar. O valor recomendado é 2.
- Obrigatório: False.
- Padrão: 2.
Se você quiser usar o Extrator de formulários inteligente com a funcionalidade de detecção de manuscrito, pode ser necessário ajustar o parâmetro
handwriting.max_cpu_per_pod
para obter mais poder de processamento.
Os seguintes fatores são necessários para calcular o dimensionamento correto:
- volume total de documentos por ano = V
- número esperado de fragmentos de manuscrito por documento = S
- dias em que o fluxo de trabalho processa os documentos (dias úteis, todos os dias, fins de semana, etc.) = d
- horas em que o fluxo de trabalho processa os documentos = h
- Número de CPUs = (V x T / (d x h)) / 1500
Como um exemplo, se você espera ter um milhão de documentos para processar durante um ano usando o Extrator de formulários inteligente para detectar manuscritos, com uma média de 50 fragmentos, funcionando em dias úteis da 00:00 às 08:00 (8 horas), o cálculo seria:
Number of CPUs = (1,000,000 x 50 / (250 x 8)) / 1500
= 25,000 / 1500
= 17 CPUs
Number of CPUs = (1,000,000 x 50 / (250 x 8)) / 1500
= 25,000 / 1500
= 17 CPUs
Para o modo de avaliação de nó único, é necessário ajustar o parâmetro
max_cpu_per_pod
para 17.
Para o modo de produção pronto para alta disponibilidade de vários nós (3 nós), ajuste o parâmetro
max_cpu_per_pod
para 5 ou 6.