- Visão geral
- Requisitos
- Recomendado: modelos de implantação
- Manual: preparando a instalação
- Manual: preparando a instalação
- Etapa 1: Configuração do registro compatível com OCI para instalações offline
- Etapa 2: configuração do objectstore externo
- Etapa 3: configuração do High Availability Add-on
- Etapa 4: configuração do Microsoft SQL Server
- Etapa 5: configuração do balanceador de carga
- Etapa 5: configuração do DNS
- Etapa 7: configuração dos discos
- Etapa 8: ajuste das configurações no nível do kernel e do sistema operacional
- Etapa 9: configuração das portas do nó
- Etapa 10: aplicação de configurações diversas
- Etapa 12: validação e instalação dos pacotes RPM necessários
- Etapa 13: geração de cluster_config.json
- Configuração de Certificados
- Configuração do Banco de Dados
- Configuração externa do Objectstore
- Configuração de URL pré-assinada
- Configuração de registro externo compatível com OCI
- Disaster Recovery: configurações Ativo/Passivo e Ativo/Ativo
- Configuração do High Availability Add-on
- Configuração específica do Orchestrator
- Configuração específica do Insights
- Process Mining-specific configuration
- Configuração específica do Document Understanding
- Automation Suite Robots-specific configuration
- Configuração do monitoramento
- Opcional: configuração do servidor proxy
- Opcional: habilitação da resiliência a falhas zonais em um cluster de produção pronto para alta disponibilidade de vários nós
- Opcional: transmitindo resolv.conf personalizado
- Optional: Increasing fault tolerance
- Parâmetros do install-uipath.sh
- Adicionando um nó de agente dedicado com suporte a GPU
- Adição de um nó de agente dedicado ao Task Mining
- Conexão do aplicativo Task Mining
- Adicionando um nó de agente dedicado para robôs do Automation Suite
- Etapa 15: configuração do registro temporário do Docker para instalações offline
- Etapa 16: validação dos pré-requisitos para a instalação
- Manual: realizando a instalação
- Pós-instalação
- Administração de cluster
- Gerenciando produtos
- Introdução ao portal de administração do cluster
- Migrating objectstore from persistent volume to raw disks
- Migração do High Availability Add-on no cluster para externo
- Migrating data between objectstores
- Migrating in-cluster objectstore to external objectstore
- Migração para um registro externo compatível com OCI
- Mudança para o cluster secundário manualmente em uma configuração Ativo/Passivo
- Disaster Recovery: executando operações pós-instalação
- Convertendo uma instalação existente para configuração multi-local
- Diretrizes sobre atualização de uma implantação Ativo/Passivo ou Ativo/Ativo
- Diretrizes sobre backup e restauração de uma implantação Ativo/Passivo ou Ativo/Ativo
- Redirecionamento do tráfego dos serviços não compatíveis para o cluster principal
- Monitoramento e alertas
- Migração e atualização
- Etapa 1: mover os dados da organização do Identity, de independente para o Automation Suite
- Etapa 2: restauração do banco de dados de produtos independente
- Etapa 3: backup do banco de dados da plataforma no Automation Suite
- Etapa 4: mesclando organizações no Automation Suite
- Etapa 5: atualização das strings de conexão do produto migradas
- Etapa 6: migração do Orchestrator independente
- Etapa 7: migração do Insights independente
- Etapa 8: exclusão do tenant padrão
- B) Migração de um único tenant
- Migração do Automation Suite no Linux para o Automation Suite no EKS/AKS
- Atualizando o Automação Suite
- Download dos pacotes de instalação e obtenção de todos os arquivos no primeiro nó do servidor
- Recuperação da mais recente configuração aplicada do cluster
- Atualização da configuração de cluster
- Configuração do registro compatível com OCI para instalações offline
- Execução da atualização
- Realização de operações pós-atualização
- Configuração específica do produto
- Uso da ferramenta de configuração do Orchestrator
- Configuração de parâmetros do Orchestrator
- Configurações de aplicativo do Orchestrator
- Configuração do AppSettings
- Configuração do tamanho máximo da solicitação
- Substituição da configuração de armazenamento no nível do cluster
- Configuração dos repositórios de credenciais
- Configuração da chave de criptografia por tenant
- Limpeza do banco de dados do Orchestrator
- Melhores práticas e manutenção
- Solução de problemas
- Como solucionar problemas dos serviços durante a instalação
- Como desinstalar o cluster
- Como limpar os artefatos offline para melhorar o espaço em disco
- Como limpar os dados do Redis
- Como habilitar o registro em log do Istio
- Como limpar logs manualmente
- Como limpar logs antigos armazenados no bucket do sf-logs
- Como desabilitar os logs de streaming para o AI Center
- Como depurar instalações do Automation Suite com falha
- Como excluir imagens do instalador antigo após a atualização
- Como desabilitar o descarregamento de soma de verificação do TX
- Como atualizar do Automation Suite 2022.10.10 e 2022.4.11 para 2023.10.2
- Como definir manualmente o nível de log do ArgoCD como Info
- Como expandir o armazenamento do AI Center
- Como gerar o pull_secret_value codificado para registros externos
- Como lidar com cifras fracas no TLS 1.2
- Não é possível executar uma instalação offline no SO RHEL 8.4
- Erro ao baixar o pacote
- A instalação offline falha devido a um binário ausente
- Problema de certificado na instalação offline
- First installation fails during Longhorn setup
- Erro de validação da string de conexão ao SQL
- Verificação de pré-requisito para o módulo iscsid do selinux falha
- Azure disk not marked as SSD
- Falha após a atualização do certificado
- Antivírus causa problemas de instalação
- Automation Suite not working after OS upgrade
- O Automation Suite requer que backlog_wait_time seja definido como 0
- Não é possível montar o volume devido a não estar pronto para cargas de trabalho
- Falha na coleta de logs do pacote de suporte
- A cadeia de caracteres de conexão SQL da Automação de Teste é ignorada
- A atualização de nó único falha no estágio de malha
- Cluster unhealthy after automated upgrade from 2021.10
- Upgrade fails due to unhealthy Ceph
- RKE2 não é iniciado devido a um problema de espaço
- O volume não pode ser montado e permanece no estado de loop anexar/desanexar
- A atualização falha devido a objetos clássicos no banco de dados do Orchestrator
- Um cluster do Ceph foi encontrado em um estado degradado após atualização lado a lado
- Um componente sem integridade do Insights causa uma falha na migração
- A atualização do serviço falha para o Apps
- Tempos limite de atualização no local
- Migração de registro do Docker presa no estágio de exclusão do PVC
- Falha no provisionamento do AI Center após a atualização para a 2023.10 ou posterior
- Falha de atualização em ambientes offline
- A validação de SQL falha durante a atualização
- pod snapshot-controller-crds no estado CrashLoopBackOff após a atualização
- Erro de upgrade/reinstalação do endpoint da API REST do Longhorn
- Configurando um intervalo de tempo limite para os portais de gerenciamento
- Autenticação não funciona após migração
- kinit: não é possível encontrar o KDC para o realm <AD Domain> ao obter credenciais iniciais
- kinit: o Keytab não contém chaves adequadas para *** ao obter credenciais iniciais
- Falha na operação GSSAPI devido a código de status inválido
- Alarme recebido para trabalho com falha do Kerberos-tgt-update
- Provedor de SSPI: servidor não encontrado no banco de dados Kerberos
- Falha de login para usuário do AD devido a conta desabilitada
- ArgoCD login failed
- Atualizar as conexões de diretório subjacentes
- Falha ao obter a imagem do sandbox
- Os pods não são exibidos na UI do ArgoCD
- Falha de teste do Redis
- O servidor RKE2 falha ao iniciar
- Segredo não encontrado no namespace da UiPath
- O ArgoCD entra em estado Em andamento após a primeira instalação
- Pods de MongoDB em CrashLoopBackOff ou provisionamento de PVC pendente após exclusão
- Unhealthy services after cluster restore or rollback
- Pods presos em Init:0/X
- Métricas Ceph-rook ausentes nos painéis de monitoramento
- Os pods não podem se comunicar com o FQDN em um ambiente de proxy
- O Document Understanding não está no menu de navegação esquerdo do Automation Suite
- Status de Falha ao criar uma sessão de rotulagem de dados
- Status de Falha ao tentar implantar uma habilidade de ML
- Trabalho de migração falha no ArgoCD
- Reconhecimento de escrita com o Extrator de formulários inteligente não está funcionando
- Execução de alta disponibilidade com o Process Mining
- Falha na ingestão do Process Mining ao fazer logon usando o Kerberos
- Após a recuperação de desastres, o Dapr não está funcionando corretamente para Process Mining e Task Mining
- Não é possível conectar-se ao banco de dados AutomationSuite_ProcessMining_Warehouse usando uma string de conexão em formato pyodbc.
- A instalação do Airflow falha com sqlalchemy.exc.ArgumentError: não foi possível analisar o URL rfc1738 da string ''
- Como adicionar uma regra de tabela de IP para usar a porta 1433 do SQL Server
- Execução da ferramenta de diagnóstico
- Usando o pacote de suporte do Automation Suite
- Exploração de logs
Guia de instalação do Automation Suite no Linux
Etapa 4: configuração do Microsoft SQL Server
Cada produto do Automation Suite requer seu próprio banco de dados SQL com especificações correspondentes.
Por padrão, o instalador cria todos os bancos de dados para você durante o processo de instalação. Você deve fornecer as permissões necessárias para que o instalador faça isso no seu servidor SQL.
Como alternativa, você pode criar seus próprios bancos de dados. Consulte a tabela a seguir para os nomes que você precisa usar.
Se você optar por trazer seus próprios bancos de dados para uma nova instalação do Automation Suite, recomendamos fortemente a configuração de novos bancos de dados em vez de usar os existentes. Essa precaução é necessária para evitar quaisquer conflitos com a operação do Automation Suite que possam ocorrer devido a metadados restantes de bancos de dados antigos.
A tabela a seguir lista os nomes dos bancos de dados e seu formato correspondente.
Produto / Serviço |
Nome do banco de dados padrão |
Formato da string de conexão |
---|---|---|
Recursos de plataforma compartilhados |
| |
Orchestrator |
| |
Action Center |
| |
Automation Suite Robots |
| |
Automation Hub |
| |
Data Service |
| |
Insights |
| |
Test Manager |
| |
Task Mining |
| |
AI Center |
| |
Apps | AutomationSuite_Apps 1 | ODBC |
Document Understanding |
| |
Process Mining |
AutomationSuite_ProcessMining_Warehouse 2AutomationSuite_Airflow 3 |
#{
.
AutomationSuite_ProcessMining_Warehouse
utiliza os formatos ADO.NET e PYODBC.
AutomationSuite_Airflow
utiliza o formato de string de conexão PYODBC. AutomationSuite_Airflow
deve estar com READ_COMMITTED_SNAPSHOT
habilitado ao criar bancos de dados manualmente. A conexão com o banco de dados AutomationSuite_Airflow
não pode começar com um caractere {
.
Se você definir manualmente as strings de conexão no arquivo de configuração, poderá usar o caractere de escape em senhas SQL, JDBC ou ODBC da seguinte maneira:
- para SQL: adicione
'
no início e no fim da senha, e duplique qualquer outro'
. - para JDBC/ODBC: adicione
{
no início da senha e}
no final, e duplique qualquer outro}
Você pode usar os bancos de dados em um pool elástico para obter uma melhor relação custo-benefício.
SQL_Latin1_General_CP1_CI_AS
no nível do servidor e do banco de dados. Recomendamos fortemente essa configuração específica para um desempenho e estabilidade ideais.
Embora você tenha a flexibilidade de usar um agrupamento de sua escolha, esteja ciente de que configurações não testadas podem levar a problemas inesperados.
Não recomendamos o uso de SQL binário ou de quaisquer agrupamentos que diferenciem maiúsculas e minúsculas, pois causam problemas conhecidos ao instalar o Automation Suite.
dbcreator
à conta SQL usada para se conectar ao banco de dados.
db_owner
e db_securityadmin
para todos os bancos de dados do Automation Suite.
db_owner
, a conta SQL deverá ter as seguintes funções e permissões em todos os bancos de dados (a única exceção é o Insights, que ainda requer db_owner
).
db_securityadmin
db_ddladmin
db_datawriter
db_datareader
EXECUTE
permissão no esquema dbo
db_securityadmin
e db_ddladmin
durante a instalação ou se os bancos de dados forem reprovisionados; então, você pode revogar essas permissões posteriormente.
O Document Understanding exige que o SQL Server tenha o componente Pesquisa de Texto Completo do Mecanismo de Banco de Dados do SQL Server, que nem sempre é instalado por padrão.
Se você não selecionou Pesquisa de Texto Completo quando instalou o SQL Server, execute a Instalação do SQL Server novamente para adicioná-la antes de configurar o Document Understanding.
Para obter mais informações, consulte este guia sobre como adicionar/instalar recursos no servidor SQL. Você também pode verificar aqui todos os componentes que podem ser adicionados ao SQL Server, que inclui também a Pesquisa de Texto Completo.
.json
.
Para Azure SQL, certifique-se de que o banco de dados seja S3 service objective ou superior.
Verifique se o nível de compatibilidade do banco de dados Insights está definido como 130 ou superior. Na maioria dos casos, as configurações padrão atendem a esse requisito. Para obter mais informações, consulte Exibir ou alterar o nível de compatibilidade de um banco de dados do SQL Server.
A instalação valida ambas as condições e alerta você se os requisitos mínimos não forem atendidos.
O Data Service requer o SQL Server versão 2016 ou superior.
Se você criar seu próprio banco de dados usando o SQL Server versão 2019 ou superior, certifique-se de conceder as seguintes permissões de serviço do Data Service aos seus usuários:
GRANT ALTER ANY SENSITIVITY CLASSIFICATION TO {userName};
GRANT VIEW ANY SENSITIVITY CLASSIFICATION TO {userName};
GRANT ALTER ANY SENSITIVITY CLASSIFICATION TO {userName};
GRANT VIEW ANY SENSITIVITY CLASSIFICATION TO {userName};
AutomationSuite_ProcessMining_Warehouse
para armazenamento de dados para aplicativos de processos do Process Mining.
AutomationSuite_ProcessMining_Warehouse
.
Ao configurar o Microsoft SQL Server, certifique-se de que o fuso horário da máquina do SQL Server onde o banco de dados Airflow e um banco de dados dedicado do Process Mining estão instalados, esteja definido como UTC.
Para calcular os requisitos de hardware, você precisa ter uma indicação do:
- número de (milhões) de eventos em seu processo.
-
the number of case and event fields in your output data.
Observação: em um ambiente de desenvolvimento, por motivos de desempenho, é recomendável trabalhar em um pequeno conjunto de dados de desenvolvimento com um número limitado de registros.
Você pode usar a Calculadora de capacidade para determinar os requisitos de hardware para configurar uma máquina dedicada do Microsoft SQL Server para o Process Mining. Ao adicionar o Process Mining na seção Produto, os requisitos mínimos para 1 SQL Server dedicado são exibidos.
Consulte também Requisitos de hardware.
db_securityadmin
no nível do banco de dados durante e após a instalação para habilitar a segurança por aplicativo no SQL Server do Process Mining. Para obter mais detalhes, consulte a documentação oficial da Microsoft sobre Funções no nível do banco de dados.
Veja também Configuração de segurança do aplicativo de processo.
AutomationSuite_Platform
para os serviços do AI Events e do AI Storage.
-
Antes de iniciar a instalação do Automation Suite, siga os seguintes passos:
-
Ative o FIPS 140-2 na máquina em que planeja instalar o Microsoft Server seguindo as instruções da Microsoft.
-
Instale o Microsoft SQL Server na máquina habilitada para FIPS 140-2.
-
Obtenha o certificado do Microsoft SQL Server executando o seguinte comando do SQL Server ou de qualquer servidor que possa se conectar ao servidor SQL com o nome do host SQL configurado:
nmap -sV -p <port> -vv --script ssl-cert domain
nmap -sV -p <port> -vv --script ssl-cert domain
-
-
Durante a instalação do Automation Suite, execute as seguintes etapas:
-
Acrescente os seguintes valores à string de conexão
sql_connection_string_template_jdbc
do AI Center no arquivocluster_config.json
:encrypt=true;trustServerCertificate=false;fips=true;
.Exemplo:
jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net:1433;database=DB_NAME_PLACEHOLDER;user=testadmin;password=***;encrypt=true;trustServerCertificate=false;fips=true;Connection Timeout=30;hostNameInCertificate=sfdev1804627-c83f074b-sql.database.windows.net"
jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net:1433;database=DB_NAME_PLACEHOLDER;user=testadmin;password=***;encrypt=true;trustServerCertificate=false;fips=true;Connection Timeout=30;hostNameInCertificate=sfdev1804627-c83f074b-sql.database.windows.net"Para obter detalhes sobre a configuração do banco de dados, consulte Experiência de instalação avançada e Atualizando o banco de dados SQL.
-
Adicione o certificado exportado da etapa 1.c. para o armazenamento confiável da máquina host. Para obter detalhes, consulte Atualizando os certificados de CA.
-
Para obter uma configuração de alta disponibilidade do SQL Server, selecione um grupo de disponibilidade Always On. Para obter mais informações, consulte Visão geral dos grupos de disponibilidade Always On.
READ_COMMITTED_SNAPSHOT
esteja definida como ON
.
READ_COMMITTED_SNAPSHOT
está habilitado ou desabilitado:
SELECT is_read_committed_snapshot_on FROM sys.databases
WHERE name= 'UiPath'
SELECT is_read_committed_snapshot_on FROM sys.databases
WHERE name= 'UiPath'
1
.
0
.Use esta consulta para habilitá-lo:
ALTER DATABASE UiPath
SET READ_COMMITTED_SNAPSHOT ON
ALTER DATABASE UiPath
SET READ_COMMITTED_SNAPSHOT ON
READ_COMMITTED_SNAPSHOT
deve ser habilitado neles também.
- Bancos de dados
- Requisitos de agrupamento de SQL
- Permissões
- Requisitos de SQL para pesquisa de texto completo
- Requisitos de SQL para Insights
- SQL requirements for Data Service
- SQL requirements for Process Mining
- Requisitos de SQL para o AI Center
- Requisitos para o AI Center conectado a um Orchestrator externo
- Requisitos para o AI Center instalado em uma máquina habilitada para FIPS 140-2
- SQL requirements for HA
- Requisitos SQL para o Orchestrator