- Visão geral
- Requisitos
- Recomendado: modelos de implantação
- Manual: preparando a instalação
- Manual: preparando a instalação
- Etapa 1: Configuração do registro compatível com OCI para instalações offline
- Etapa 2: configuração do objectstore externo
- Etapa 3: configuração do High Availability Add-on
- Etapa 4: configuração do Microsoft SQL Server
- Etapa 5: configuração do balanceador de carga
- Etapa 5: configuração do DNS
- Etapa 7: configuração dos discos
- Etapa 8: ajuste das configurações no nível do kernel e do sistema operacional
- Etapa 9: configuração das portas do nó
- Etapa 10: aplicação de configurações diversas
- Etapa 12: validação e instalação dos pacotes RPM necessários
- Etapa 13: geração de cluster_config.json
- Amostra Cluster_config.json
- Configuração geral
- Configuração do perfil
- Configuração de Certificados
- Configuração do Banco de Dados
- Configuração externa do Objectstore
- Configuração de URL pré-assinada
- Configuração do ArgoCD
- Configuração de registro externo compatível com OCI
- Disaster Recovery: configurações Ativo/Passivo e Ativo/Ativo
- Configuração do High Availability Add-on
- Configuração específica do Orchestrator
- Configuração específica do Insights
- Process Mining-specific configuration
- Configuração específica do Document Understanding
- Automation Suite Robots-specific configuration
- Configuração específica do AI Center
- Configuração do monitoramento
- Opcional: configuração do servidor proxy
- Opcional: habilitação da resiliência a falhas zonais em um cluster de produção pronto para alta disponibilidade de vários nós
- Opcional: transmitindo resolv.conf personalizado
- Optional: Increasing fault tolerance
- Adicionando um nó de agente dedicado com suporte a GPU
- Adição de um nó de agente dedicado ao Task Mining
- Conexão do aplicativo Task Mining
- Adicionando um nó de agente dedicado para robôs do Automation Suite
- Etapa 15: configuração do registro temporário do Docker para instalações offline
- Etapa 16: validação dos pré-requisitos para a instalação
- Manual: realizando a instalação
- Pós-instalação
- Administração de cluster
- Gerenciando produtos
- Introdução ao portal de administração do cluster
- Migrating objectstore from persistent volume to raw disks
- Migração do High Availability Add-on no cluster para externo
- Migrating data between objectstores
- Migrating in-cluster objectstore to external objectstore
- Migração para um registro externo compatível com OCI
- Mudança para o cluster secundário manualmente em uma configuração Ativo/Passivo
- Disaster Recovery: executando operações pós-instalação
- Convertendo uma instalação existente para configuração multi-local
- Diretrizes sobre atualização de uma implantação Ativo/Passivo ou Ativo/Ativo
- Diretrizes sobre backup e restauração de uma implantação Ativo/Passivo ou Ativo/Ativo
- Monitoramento e alertas
- Migração e atualização
- Migração entre clusters do Automation Suite
- Atualizando o Automação Suite
- Download dos pacotes de instalação e obtenção de todos os arquivos no primeiro nó do servidor
- Recuperação da mais recente configuração aplicada do cluster
- Atualização da configuração de cluster
- Configuração do registro compatível com OCI para instalações offline
- Execução da atualização
- Realização de operações pós-atualização
- Aplicação de patch
- Configuração específica do produto
- Configuração de parâmetros do Orchestrator
- Configuração do AppSettings
- Configuração do tamanho máximo da solicitação
- Substituição da configuração de armazenamento no nível do cluster
- Configuração do NLog
- Salvando logs do robô no Elasticsearch
- Configuração dos repositórios de credenciais
- Configuração da chave de criptografia por tenant
- Limpeza do banco de dados do Orchestrator
- Melhores práticas e manutenção
- Solução de problemas
- Como solucionar problemas dos serviços durante a instalação
- Como desinstalar o cluster
- Como limpar os artefatos offline para melhorar o espaço em disco
- Como limpar os dados do Redis
- Como habilitar o registro em log do Istio
- Como limpar logs manualmente
- Como limpar logs antigos armazenados no bucket do sf-logs
- Como desabilitar os logs de streaming para o AI Center
- Como depurar instalações do Automation Suite com falha
- Como excluir imagens do instalador antigo após a atualização
- Como desabilitar o descarregamento de soma de verificação do TX
- Como definir manualmente o nível de log do ArgoCD como Info
- Como expandir o armazenamento do AI Center
- Como gerar o pull_secret_value codificado para registros externos
- Como lidar com cifras fracas no TLS 1.2
- Como verificar a versão do TLS
- Como agendar o backup e restaurar dados do Ceph
- Não é possível executar uma instalação offline no SO RHEL 8.4
- Erro ao baixar o pacote
- A instalação offline falha devido a um binário ausente
- Problema de certificado na instalação offline
- Erro de validação da string de conexão ao SQL
- Verificação de pré-requisito para o módulo iscsid do selinux falha
- Azure disk not marked as SSD
- Falha após a atualização do certificado
- Antivírus causa problemas de instalação
- Automation Suite not working after OS upgrade
- O Automation Suite requer que backlog_wait_time seja definido como 0
- Não é possível montar o volume devido a não estar pronto para cargas de trabalho
- Falha na coleta de logs do pacote de suporte
- Data loss when reinstalling or upgrading Insights following Automation Suite upgrade
- Unable to access Automation Hub following upgrade to Automation Suite 2024.10.0
- A atualização de nó único falha no estágio de malha
- Upgrade fails due to unhealthy Ceph
- RKE2 não é iniciado devido a um problema de espaço
- O volume não pode ser montado e permanece no estado de loop anexar/desanexar
- A atualização falha devido a objetos clássicos no banco de dados do Orchestrator
- Um cluster do Ceph foi encontrado em um estado degradado após atualização lado a lado
- Um componente sem integridade do Insights causa uma falha na migração
- A atualização do serviço falha para o Apps
- Tempos limite de atualização no local
- Migração de registro do Docker presa no estágio de exclusão do PVC
- Falha no provisionamento do AI Center após a atualização para a 2023.10 ou posterior
- Falha de atualização em ambientes offline
- A validação de SQL falha durante a atualização
- pod snapshot-controller-crds no estado CrashLoopBackOff após a atualização
- Configurando um intervalo de tempo limite para os portais de gerenciamento
- Autenticação não funciona após migração
- kinit: não é possível encontrar o KDC para o realm <AD Domain> ao obter credenciais iniciais
- kinit: o Keytab não contém chaves adequadas para *** ao obter credenciais iniciais
- Falha na operação GSSAPI devido a código de status inválido
- Alarme recebido para trabalho com falha do Kerberos-tgt-update
- Provedor de SSPI: servidor não encontrado no banco de dados Kerberos
- Falha de login para usuário do AD devido a conta desabilitada
- ArgoCD login failed
- Atualizar as conexões de diretório subjacentes
- Partial failure to restore backup in Automation Suite 2024.10.0
- Falha ao obter a imagem do sandbox
- Os pods não são exibidos na UI do ArgoCD
- Falha de teste do Redis
- O servidor RKE2 falha ao iniciar
- Segredo não encontrado no namespace da UiPath
- O ArgoCD entra em estado Em andamento após a primeira instalação
- Pods de MongoDB em CrashLoopBackOff ou provisionamento de PVC pendente após exclusão
- Pods presos em Init:0/X
- Métricas Ceph-rook ausentes nos painéis de monitoramento
- O Document Understanding não está no menu de navegação esquerdo do Automation Suite
- Status de Falha ao criar uma sessão de rotulagem de dados
- Status de Falha ao tentar implantar uma habilidade de ML
- Trabalho de migração falha no ArgoCD
- Reconhecimento de escrita com o Extrator de formulários inteligente não está funcionando
- Execução de alta disponibilidade com o Process Mining
- Falha na ingestão do Process Mining ao fazer logon usando o Kerberos
- After Disaster Recovery Dapr is not working properly for Process Mining
- Não é possível conectar-se ao banco de dados AutomationSuite_ProcessMining_Warehouse usando uma string de conexão em formato pyodbc.
- A instalação do Airflow falha com sqlalchemy.exc.ArgumentError: não foi possível analisar o URL rfc1738 da string ''
- Como adicionar uma regra de tabela de IP para usar a porta 1433 do SQL Server
- O certificado do Automation Suite não é confiável para o servidor em que o CData Sync está sendo executado
- Task Mining troubleshooting
- Execução da ferramenta de diagnóstico
- Usando o pacote de suporte do Automation Suite
- Exploração de logs
Guia de instalação do Automation Suite no Linux
Gerenciando produtos
Você pode habilitar e desabilitar produtos no Automation Suite a qualquer momento após a instalação.
cluster_config.json
armazenado na pasta /opt/UiPathAutomationSuite
e executar novamente a etapa do instalador.
cluster_config.json
:
"actioncenter": {
"enabled": "true" //Set to "false" to disable the Action Center
}
"actioncenter": {
"enabled": "true" //Set to "false" to disable the Action Center
}
enable
e um banco de dados SQL.
sql_connection_string_template_odbc
em cluster_config.json
, então o nome do banco de dados padrão é AutomationSuite_Apps
.
sql_connection_str
dentro do campo do Apps. Isso substitui o banco de dados padrão e o modelo de string de conexão em sql_connection_string_template_odbc
.
cluster_config.json
:
"apps": {
"enabled": "true" //Set to "false" to disable the Apps
"sql_connection_str": "" ////Optional and only require to override the default database name
}
"apps": {
"enabled": "true" //Set to "false" to disable the Apps
"sql_connection_str": "" ////Optional and only require to override the default database name
}
enable
e um banco de dados SQL.
sql_connection_string_template_jdbc
em cluster_config.json
, então o nome do banco de dados padrão do AI Center é AutomationSuite_AICenter
.
sql_connection_str
dentro do campo do AI Center. Isso substitui o banco de dados padrão e o modelo de string de conexão em sql_connection_string_template_jdbc
.
-
Se o AI Center não exigir um Orchestrator externo, consulte os seguintes detalhes de configuração para ativar ou desativar o AI Center em
cluster_config.json
:"aicenter": { "enabled": "true", //Set to "false" to disable the AICenter "sql_connection_str": "" //Optional and only required to override the default database name }
"aicenter": { "enabled": "true", //Set to "false" to disable the AICenter "sql_connection_str": "" //Optional and only required to override the default database name } -
Se o AI Center exigir um Orchestrator externo, consulte os seguintes detalhes de configuração para ativar ou desativar o AI Center em
cluster_config.json
:"aicenter": { "enabled": "true", //Set to "false" to disable the AI Center "sql_connection_str": "" //Optional and only required to override the default database name "orchestrator_url": "https://orchestrator.example.com", //Specify the Orchestrator URL for AI Center "identity_server_url": "https://orchestrator.example.com/identity", //Specify the Identiy URL for AI Center "orchestrator_cert_file_path": "/opt/UiPathAutomationSuite/UiPath_Installer/orch.cer", //Specify the path to the Orchestrator certificate "identity_cert_file_path": "/opt/UiPathAutomationSuite/UiPath_Installer/orch.cer", //Specify the path to Identity certificate file "metering_api_key": "test" //Specify the metering API key }
"aicenter": { "enabled": "true", //Set to "false" to disable the AI Center "sql_connection_str": "" //Optional and only required to override the default database name "orchestrator_url": "https://orchestrator.example.com", //Specify the Orchestrator URL for AI Center "identity_server_url": "https://orchestrator.example.com/identity", //Specify the Identiy URL for AI Center "orchestrator_cert_file_path": "/opt/UiPathAutomationSuite/UiPath_Installer/orch.cer", //Specify the path to the Orchestrator certificate "identity_cert_file_path": "/opt/UiPathAutomationSuite/UiPath_Installer/orch.cer", //Specify the path to Identity certificate file "metering_api_key": "test" //Specify the metering API key }Observação:metering_api_key
é a chave de API do Document Understanding ou AI Units da conta de nuvem do AI Center.
Para concluir a instalação, execute o seguinte comando de pós-instalação:
./bin/uipathctl service aicenter --installation-token <identity token>
./bin/uipathctl service aicenter --installation-token <identity token>
automation_hub
do arquivo cluster_config.json
, defina o sinalizador enabled
como true
:
"automation_hub": {
"enabled": "true" //Set to "false" to disable Automation Hub
"sql_connection_str": "" //Optional and only require to override the default database name
}
"automation_hub": {
"enabled": "true" //Set to "false" to disable Automation Hub
"sql_connection_str": "" //Optional and only require to override the default database name
}
enabled
como false
na seção automation_hub
do arquivo cluster_config.json
.
enable
e um banco de dados SQL.
sql_connection_string_template
em cluster_config.json
, então o nome do banco de dados padrão para o Automation Ops é AutomationSuite_Platform
.
sql_connection_str
dentro do campo do Automation Ops. Isso substitui o banco de dados padrão e o modelo de string de conexão em sql_connection_string_template
.
cluster_config.json
:
"automation_ops": {
"enabled": "true", //Set to "false" to disable the Automation Ops
"sql_connection_str": "" //Optional and only require to override the default database name
}
"automation_ops": {
"enabled": "true", //Set to "false" to disable the Automation Ops
"sql_connection_str": "" //Optional and only require to override the default database name
}
Para habilitar os robôs do Automation Suite, execute as seguintes etapas:
-
Habilite o sinalizador
asrobots
no arquivocluster_config.json
. Se você quiser habilitar o armazenamento em cache de pacotes, certifique-se de configurar corretamente os sinalizadorespackagecaching
epackagecachefolder
também.{ "asrobots": { "enabled": Boolean, "packagecaching": Boolean, "packagecachefolder": String } }
{ "asrobots": { "enabled": Boolean, "packagecaching": Boolean, "packagecachefolder": String } }Parâmetro
Valor padrão
Description
Cache do pacote
True
Quando definido comotrue
, os robôs usam um cache local para resolução de pacote.packagecachefolder
/uipath_asrobots_package_cache
O local do disco no nó do agente sem servidor em que os pacotes são armazenados.
Observação: o armazenamento dos pacotes em cache otimiza a execução de seus processos e permite que sejam executados mais rapidamente. Os pacotes NuGet são obtidos do sistema de arquivos em vez de serem baixados da Internet/rede. Isso requer um espaço adicional de no mínimo 10GiB e deve ser alocado para uma pasta no sistema de arquivos da máquina host dos nós dedicados. -
Se você usar uma configuração de produção pronta para alta disponibilidade de vários nós, deve configurar um nó de agente especializado para Automation Suite Robots. No modo de avaliação de nó único, um nó adicional é opcional. Para obter instruções, consulte Adição de um nó de agente dedicado para Automation Suite Robots.
asrobots
no arquivo cluster_config.json
.
enable
e de um banco de dados SQL.
sql_connection_string_template
em cluster_config.json
, então o nome do banco de dados padrão é AutomationSuite_DataService
.
sql_connection_str
dentro do campo do Data Service. Isso substitui o banco de dados padrão e o modelo de string de conexão em sql_connection_string_template
.
cluster_config.json
:
"dataservice": {
"enabled": "true", //Set to "false" to disable the Data Service,
"sql_connection_str": "" //Optional and only require to override the default database name
}
"dataservice": {
"enabled": "true", //Set to "false" to disable the Data Service,
"sql_connection_str": "" //Optional and only require to override the default database name
}
enable
e um banco de dados SQL.
sql_connection_string_template_odbc
em cluster_config.json
, então o nome do banco de dados padrão é AutomationSuite_DU_Datamanager
.
sql_connection_str
dentro do campo do Document Understanding. Isso substitui o banco de dados padrão e o modelo de string de conexão em sql_connection_string_template_odbc
.
Se você for executar uma instalação offline, também precisará baixar o pacote offline para o Document Understanding. Antes de habilitar o Document Understanding, consulte Instalar e usar o Document Understanding.
cluster_config.json
:"documentunderstanding": {
"enabled": "true", //Set to "false" to disable the Document Understanding
"sql_connection_str": "" //Optional and only required to override the default database name
}
"pyodbc_sql_connection_str": "" //Optional and only required to override the default database name
}
"documentunderstanding": {
"enabled": "true", //Set to "false" to disable the Document Understanding
"sql_connection_str": "" //Optional and only required to override the default database name
}
"pyodbc_sql_connection_str": "" //Optional and only required to override the default database name
}
cluster_config.json
:"documentunderstanding": {
"enabled": "true", //Set to "false" to disable the Document Understanding
"sql_connection_str": "" //Optional and only required to override the default database name
}
"pyodbc_sql_connection_str": "" //Optional and only required to override the default database name
"modernProjects": {
"enabled": true //Set to "false" to disable Document Understanding modern projects
}
"documentunderstanding": {
"enabled": "true", //Set to "false" to disable the Document Understanding
"sql_connection_str": "" //Optional and only required to override the default database name
}
"pyodbc_sql_connection_str": "" //Optional and only required to override the default database name
"modernProjects": {
"enabled": true //Set to "false" to disable Document Understanding modern projects
}
enable
e um banco de dados SQL.
sql_connection_string_template
em cluster_config.json
, então o nome do banco de dados padrão é AutomationSuite_Insights
.
sql_connection_str
dentro do campdo do Insights. Isso substitui o banco de dados padrão e o modelo de string de conexão em sql_connection_string_template
.
enable_realtime_monitoring
para true
.
O Insights tem uma configuração de SMTP opcional para habilitar o recebimento de notificações por e-mail. Consulte Experiência de instalação avançada para obter mais detalhes.
cluster_config.json
:
"insights": {
"enabled": "true", //Set to "false" to disable the Insights,
"enable_realtime_monitoring": "false", //Set to "true" to enable Insights Real-time monitoring,
"sql_connection_str": "" //Optional and only require to override the default database name
}
"insights": {
"enabled": "true", //Set to "false" to disable the Insights,
"enable_realtime_monitoring": "false", //Set to "true" to enable Insights Real-time monitoring,
"sql_connection_str": "" //Optional and only require to override the default database name
}
orchestrator
como true
no arquivo cluster_config.json
.
"orchestrator": {
"enabled": "true" //Set to "false" to disable Orchestrator
"sql_connection_str": "" //Optional and only require to override the default database name
}
"orchestrator": {
"enabled": "true" //Set to "false" to disable Orchestrator
"sql_connection_str": "" //Optional and only require to override the default database name
}
orchestrator
como false
no arquivo cluster_config.json
.
cluster_config.json
:
- Ative o sinalizador
processmining
. -
Configure os seguintes modelos de string de conexão:
sql_connection_string_template
sql_connection_string_template_jdbc
sql_connection_string_template_odbc
sql_connection_string_template_sqlalchemy_pyodbc
-
Nas instalações de produção prontas para alta disponibilidade de vários nós, adicione uma string de conexão separada para o segundo SQL Server. Observe que em instalações de avaliação de nó único, o SQL Server é recomendado. Para obter instruções sobre como configurar o segundo SQL Server, consulte Requisitos de SQL para o Process Mining
"processmining": { "enabled": true, "sql_connection_str": "" // dotnet connection string "sqlalchemy_pyodbc_sql_connection_str": "", "warehouse": { "sql_connection_str": "", "sqlalchemy_pyodbc_sql_connection_str": "" } }
"processmining": { "enabled": true, "sql_connection_str": "" // dotnet connection string "sqlalchemy_pyodbc_sql_connection_str": "", "warehouse": { "sql_connection_str": "", "sqlalchemy_pyodbc_sql_connection_str": "" } }
processmining
.
enable
e um banco de dados SQL.
sql_connection_string_template
em cluster_config.json
, então o nome do banco de dados padrão é AutomationSuite_Task_Mining
.
Para alterar o nome para algum outro que não seja o padrão, você pode atualizar o sql_connection_str dentro do campo do Task Mining para substituir o banco de dados padrão e o modelo de string de conexão definido em sql_connection_string_template
O Task Mining requer algumas etapas adicionais, incluindo o provisionamento de um nó de agente dedicado para cargas de trabalho específicas de IA.
Antes de habilitar o Task Mining, consulte a seção de instalação do Task Mining Adicionando um nó de agente dedicado para o Task Mining.
cluster_config.json
:
"task_mining": {
"enabled": "true", //Set to "false" to disable the Task Mining,
"sql_connection_str": "" //Optional and only require to override the default database name
}
"task_mining": {
"enabled": "true", //Set to "false" to disable the Task Mining,
"sql_connection_str": "" //Optional and only require to override the default database name
}
Remoção de degradação para cargas de trabalho
Se desejar, o nó do Task Mining pode ser reaproveitado como um nó de agente. Para realizar isso, execute os seguintes comandos:
- Verifique uma contaminação real usando o comando
kubectl describe node task-mining_nodename
. - Execute o comando
kubectl taint nodes task-mining_nodename task.mining/cpu=present:NoSchedule-
. - Verifique se a mancha desapareceu usando o comando
kubectl describe node task-mining_nodename
.
enable
e um banco de dados SQL.
sql_connection_string_template
em cluster_config.json
, então o nome do banco de dados padrão é AutomationSuite_Test_Manager
.
sql_connection_str
dentro do campo do Test Manager. Isso substitui o banco de dados padrão e o modelo de string de conexão em sql_connection_string_template
.
cluster_config.json
:
"test_manager": {
"enabled": "true", //Set to "false" to disable the Test Manager,
"sql_connection_str": "" //Optional and only require to override the default database name
}
"test_manager": {
"enabled": "true", //Set to "false" to disable the Test Manager,
"sql_connection_str": "" //Optional and only require to override the default database name
}
cluster_config.json
, execute o comando a seguir no instalador para atualizar a configuração do serviço.
./bin/uipathctl manifest apply cluster_config.json --versions versions/helm-charts.json
./bin/uipathctl manifest apply cluster_config.json --versions versions/helm-charts.json
- Etapa 1: alterar a seleção de produtos no arquivo de configuração
- Habilitando ou desabilitando o Action Center
- Habilitando ou desabilitando o Apps
- Habilitando ou desabilitando o AI Center
- Ativação ou desativação do Automation Hub
- Habilitando ou desabilitando o Automation Ops
- Enabling or disabling Automation Suite Robots
- Enabling or disabling Data Service
- Habilitando ou desabilitando o Document Understanding
- Habilitando ou desabilitando o Insights
- Enabling or disabling Orchestrator
- Enabling or disabling Process Mining
- Habilitando ou desabilitando o Task Mining
- Habilitando ou desabilitando o Test Manager
- Etapa 2: executar o instalador para atualizar a nova configuração do produto