- Visão geral
- Requisitos
- Modelos de implantação
- Manual: preparando a instalação
- Manual: preparando a instalação
- Etapa 2: configuração do registro compatível com OCI para instalações offline
- Etapa 3: configuração do objectstore externo
- Etapa 4: configuração do High Availability Add-on
- Etapa 5: configuração de bancos de dados SQL
- Etapa 7: configuração do DNS
- Etapa 8: configuração dos discos
- Etapa 9: configuração dos ajustes do nível do kernel e do sistema operacional
- Etapa 10: configuração das portas do nó
- Etapa 11: aplicação de configurações diversas
- Etapa 12: validação e instalação dos pacotes RPM necessários
- Etapa 13: geração de cluster_config.json
- Amostra Cluster_config.json
- Configuração geral
- Configuração do perfil
- Configuração de Certificados
- Configuração do Banco de Dados
- Configuração externa do Objectstore
- Configuração de URL pré-assinada
- Configuração do ArgoCD
- Configuração da autenticação do Kerberos
- Configuração de registro externo compatível com OCI
- Disaster Recovery: configurações Ativo/Passivo e Ativo/Ativo
- Configuração do High Availability Add-on
- Configuração específica do Orchestrator
- Configuração específica do Insights
- Process Mining-specific configuration
- Configuração específica do Document Understanding
- Automation Suite Robots-specific configuration
- Configuração específica do AI Center
- Configuração do monitoramento
- Opcional: configuração do servidor proxy
- Opcional: habilitação da resiliência a falhas zonais em um cluster de produção pronto para alta disponibilidade de vários nós
- Opcional: transmitindo resolv.conf personalizado
- Optional: Increasing fault tolerance
- Adicionando um nó de agente dedicado com suporte a GPU
- Adicionando um nó de agente dedicado para robôs do Automation Suite
- Etapa 15: configuração do registro temporário do Docker para instalações offline
- Etapa 16: validação dos pré-requisitos para a instalação
- Executando o uipathctl
- Manual: realizando a instalação
- Pós-instalação
- Administração de cluster
- Gerenciando produtos
- Introdução ao portal de administração do cluster
- Migração do Redis do High Availability Add-on no cluster para externo
- Migrating data between objectstores
- Migrating in-cluster objectstore to external objectstore
- Migração de um registro no cluster para um registro externo compatível com OCI
- Mudança para o cluster secundário manualmente em uma configuração Ativo/Passivo
- Disaster Recovery: executando operações pós-instalação
- Convertendo uma instalação existente para configuração multi-local
- Diretrizes sobre atualização de uma implantação Ativo/Passivo ou Ativo/Ativo
- Diretrizes sobre backup e restauração de uma implantação Ativo/Passivo ou Ativo/Ativo
- Escalando uma implantação de nó único (avaliação) para uma implantação de vários nós (HA)
- Monitoramento e alertas
- Migração e atualização
- Migração entre clusters do Automation Suite
- Atualizando o Automação Suite
- Download dos pacotes de instalação e obtenção de todos os arquivos no primeiro nó do servidor
- Recuperação da mais recente configuração aplicada do cluster
- Atualização da configuração de cluster
- Configuração do registro compatível com OCI para instalações offline
- Execução da atualização
- Realização de operações pós-atualização
- Configuração específica do produto
- Configuração de parâmetros do Orchestrator
- Configuração do AppSettings
- Configuração do tamanho máximo da solicitação
- Substituição da configuração de armazenamento no nível do cluster
- Configuração do NLog
- Salvando logs do robô no Elasticsearch
- Configuração dos repositórios de credenciais
- Configuração da chave de criptografia por tenant
- Limpeza do banco de dados do Orchestrator
- Melhores práticas e manutenção
- Solução de problemas
- Como solucionar problemas dos serviços durante a instalação
- Como reduzir as permissões para um diretório de backup NFS
- Como desinstalar o cluster
- Como limpar os artefatos offline para melhorar o espaço em disco
- Como limpar os dados do Redis
- Como habilitar o registro em log do Istio
- Como limpar logs manualmente
- Como limpar logs antigos armazenados no bucket do sf-logs
- Como desabilitar os logs de streaming para o AI Center
- Como depurar instalações do Automation Suite com falha
- Como excluir imagens do instalador antigo após a atualização
- Como desabilitar o descarregamento de soma de verificação do TX
- Como definir manualmente o nível de log do ArgoCD como Info
- Como expandir o armazenamento do AI Center
- Como gerar o pull_secret_value codificado para registros externos
- Como lidar com cifras fracas no TLS 1.2
- Como verificar a versão do TLS
- Como trabalhar com certificados
- Como agendar o backup e restaurar dados do Ceph
- Como coletar dados de uso de DU com objectstore (Ceph) no cluster
- Como instalar o RKE2 SELinux em ambientes air-gapped
- Como limpar backups diferenciados antigos em um servidor NFS
- Erro ao baixar o pacote
- A instalação offline falha devido a um binário ausente
- Problema de certificado na instalação offline
- Erro de validação da string de conexão ao SQL
- Azure disk not marked as SSD
- Falha após a atualização do certificado
- Antivírus causa problemas de instalação
- Automation Suite not working after OS upgrade
- O Automation Suite requer que backlog_wait_time seja definido como 0
- A instalação do registro temporário falha no RHEL 8.9
- Problema de reinício frequente em implantações de namespace uipath durante instalações offline
- Configurações de DNS não honradas pelo CoreDNS
- Upgrade fails due to unhealthy Ceph
- RKE2 não é iniciado devido a um problema de espaço
- A atualização falha devido a objetos clássicos no banco de dados do Orchestrator
- Um cluster do Ceph foi encontrado em um estado degradado após atualização lado a lado
- A atualização do serviço falha para o Apps
- Tempos limite de atualização no local
- Falha de atualização em ambientes offline
- pod snapshot-controller-crds no estado CrashLoopBackOff após a atualização
- Falha de atualização devido aos tamanhos de PVC do Insights substituídos
- Falha de atualização devido ao nome de host em letra maiúscula
- Configurando um intervalo de tempo limite para os portais de gerenciamento
- Autenticação não funciona após migração
- kinit: não é possível encontrar o KDC para o realm <AD Domain> ao obter credenciais iniciais
- kinit: o Keytab não contém chaves adequadas para *** ao obter credenciais iniciais
- Falha na operação GSSAPI devido a código de status inválido
- Alarme recebido para trabalho com falha do Kerberos-tgt-update
- Provedor de SSPI: servidor não encontrado no banco de dados Kerberos
- Falha de login para usuário do AD devido a conta desabilitada
- ArgoCD login failed
- Atualizar as conexões de diretório subjacentes
- Falha ao obter a imagem do sandbox
- Os pods não são exibidos na UI do ArgoCD
- Falha de teste do Redis
- O servidor RKE2 falha ao iniciar
- Segredo não encontrado no namespace da UiPath
- O ArgoCD entra em estado Em andamento após a primeira instalação
- Métricas Ceph-rook ausentes nos painéis de monitoramento
- Incompatibilidade em erros relatados durante as verificações de integridade do diagnóstico
- Nenhum problema upstream íntegro
- Inicialização do Redis bloqueada por antivírus
- O Document Understanding não está no menu de navegação esquerdo do Automation Suite
- Status de Falha ao criar uma sessão de rotulagem de dados
- Status de Falha ao tentar implantar uma habilidade de ML
- Trabalho de migração falha no ArgoCD
- Reconhecimento de escrita com o Extrator de formulários inteligente não está funcionando
- Execução de alta disponibilidade com o Process Mining
- Falha na ingestão do Process Mining ao fazer logon usando o Kerberos
- Não é possível conectar-se ao banco de dados AutomationSuite_ProcessMining_Warehouse usando uma string de conexão em formato pyodbc.
- A instalação do Airflow falha com sqlalchemy.exc.ArgumentError: não foi possível analisar o URL rfc1738 da string ''
- Como adicionar uma regra de tabela de IP para usar a porta 1433 do SQL Server
- O certificado do Automation Suite não é confiável para o servidor em que o CData Sync está sendo executado
- Execução da ferramenta de diagnóstico
- Usando o pacote de suporte do Automation Suite
- Exploração de logs
- Exploração de telemetria resumida

Guia de instalação do Automation Suite no Linux
Etapa 5: configuração de bancos de dados SQL
Bancos de dados
- Apenas o Microsoft ODBC Driver 17 é compatível.
- As versões 2.2510.0 e superiores do Automation Suite são compatíveis com as versões 2019 e superiores do SQL.
Salvo especificação em contrário nas seções dedicadas a requisitos, esses requisitos são aplicáveis a todos os produtos do Automation Suite.
Cada produto do Automation Suite requer seu próprio banco de dados SQL com especificações correspondentes.
Por padrão, o instalador cria todos os bancos de dados para você durante o processo de instalação. Você deve fornecer as permissões necessárias para que o instalador faça isso no seu servidor SQL.
Como alternativa, você pode criar seus próprios bancos de dados. Consulte a tabela a seguir para os nomes que você precisa usar.
Se você optar por trazer seus próprios bancos de dados para uma nova instalação do Automation Suite, recomendamos fortemente a configuração de novos bancos de dados em vez de usar os existentes. Essa precaução é necessária para evitar quaisquer conflitos com a operação do Automation Suite que possam ocorrer devido a metadados restantes de bancos de dados antigos.
A tabela a seguir lista os nomes dos bancos de dados e seu formato correspondente.
| Produto / Serviço | Nome do banco de dados padrão | Formato da string de conexão |
|---|---|---|
| Recursos de plataforma compartilhados | AutomationSuite_Platform | ADO.NET |
| Orchestrator | AutomationSuite_Orchestrator | ADO.NET |
| Action Center | AutomationSuite_Orchestrator | ADO.NET |
| Automation Suite Robots | AutomationSuite_Orchestrator | ADO.NET |
| Automation Hub | AutomationSuite_Automation_Hub | ADO.NET |
| Automation Ops | AutomationSuite_Platform | ADO.NET |
| Data Service | AutomationSuite_DataService | ADO.NET |
| Insights | AutomationSuite_Insights | ADO.NET |
| Test Manager | AutomationSuite_Test_Manager | ADO.NET |
| AI Center | AutomationSuite_AICenter | JDBC |
| Apps | AutomationSuite_Apps 1 | ODBC |
| Document Understanding | AutomationSuite_DU_Datamanager | ODBC PYODBC |
| Process Mining2 | AutomationSuite_ProcessMining_Metadata AutomationSuite_ProcessMining_Warehouse3 AutomationSuite_Airflow4 | ADO.NET PYODBC PSYCOPG2 |
| Soluções | AutomationSuite_Platform | ADO.NET |
1 A senha para o banco de dados do Apps não deve conter #{.
2Para minimizar os problemas de latência, é altamente recomendável implantar os bancos de dados do Process Mining na mesma região que o recurso de computação (cluster do Kubernetes).
3AutomationSuite_ProcessMining_Warehouse utiliza os formatos ADO.NET e PYODBC.
4AutomationSuite_Airflow O banco de dados PostgreSQL usa o formato de string de conexão SQLAlchemy. A conexão com o banco de dados AutomationSuite_Airflow não pode começar com um caractere { .
Se você definir manualmente as strings de conexão no arquivo de configuração, poderá usar o caractere de escape em senhas SQL, JDBC ou ODBC da seguinte maneira:
- para SQL: adicione
'no início e no fim da senha, e duplique qualquer outro'. - para JDBC/ODBC: adicione
{no início da senha e}no final, e duplique qualquer outro}
Você pode usar os bancos de dados em um pool elástico para obter uma melhor relação custo-benefício.
Collation de SQL
O Automation Suite é compatível com agrupamento de SQL definido como SQL_Latin1_General_CP1_CI_AS no nível do servidor e do banco de dados. Recomendamos fortemente essa configuração específica para um desempenho e estabilidade ideais.
Embora você tenha a flexibilidade de usar um agrupamento de sua escolha, esteja ciente de que configurações não testadas podem levar a problemas inesperados.
Não recomendamos usar SQL binário ou quaisquer agrupamentos que diferenciem maiúsculas e minúsculas, pois causam problemas conhecidos ao instalar o Automation Suite.
Permissões
Se você quiser que o instalador crie um banco de dados no SQL Server fornecido, certifique-se de conceder pelo menos a função dbcreator à conta SQL usada para se conectar ao banco de dados.
Se você quiser criar seus próprios bancos de dados para todos os produtos, você deve conceder à conta SQL a função db_owner para todos os bancos de dados do Automation Suite.
Se as restrições de segurança não permitirem o uso de db_owner, a conta SQL deverá ter as seguintes funções e permissões em todos os bancos de dados (a única exceção é o Insights, que ainda requer db_owner).
db_securityadmindb_ddladmindb_datawriterdb_datareaderEXECUTEpermissão no esquema dbo, dt, authz, e messagebus
Usamos as funções db_securityadmin e db_ddladmin durante a instalação ou se os bancos de dados forem reprovisionados; então, você pode revogar essas permissões posteriormente.
Codificações do SQL server
Apenas as cifras SQL listadas são suportadas no Automation Suite:
TLS_AES_256_GCM_SHA384TLS_CHACHA20_POLY1305_SHA256TLS_AES_128_GCM_SHA256TLS_AES_128_CCM_SHA256ECDHE-ECDSA-AES256-GCM-SHA384ECDHE-RSA-AES256-GCM-SHA384ECDHE-ECDSA-CHACHA20-POLY1305ECDHE-RSA-CHACHA20-POLY1305ECDHE-ECDSA-AES256-CCMECDHE-ECDSA-AES128-GCM-SHA256ECDHE-RSA-AES128-GCM-SHA256ECDHE-ECDSA-AES128-CCMECDHE-ECDSA-AES128-SHA256ECDHE-RSA-AES128-SHA256ECDHE-ECDSA-AES256-SHAECDHE-RSA-AES256-SHAECDHE-ECDSA-AES128-SHAECDHE-RSA-AES128-SHAAES256-GCM-SHA384AES256-CCMAES128-GCM-SHA256AES128-CCMAES256-SHA256AES128-SHA256AES256-SHAAES128-SHADHE-RSA-AES256-GCM-SHA384DHE-RSA-CHACHA20-POLY1305DHE-RSA-AES256-CCMDHE-RSA-AES128-GCM-SHA256DHE-RSA-AES128-CCMDHE-RSA-AES256-SHA256DHE-RSA-AES128-SHA256DHE-RSA-AES256-SHADHE-RSA-AES128-SHAPSK-AES256-GCM-SHA384PSK-CHACHA20-POLY1305PSK-AES256-CCMPSK-AES128-GCM-SHA256PSK-AES128-CCMPSK-AES256-CBC-SHAPSK-AES128-CBC-SHA256PSK-AES128-CBC-SHADHE-PSK-AES256-GCM-SHA384DHE-PSK-CHACHA20-POLY1305DHE-PSK-AES256-CCMDHE-PSK-AES128-GCM-SHA256DHE-PSK-AES128-CCMDHE-PSK-AES256-CBC-SHADHE-PSK-AES128-CBC-SHA256DHE-PSK-AES128-CBC-SHAECDHE-PSK-CHACHA20-POLY1305ECDHE-PSK-AES256-CBC-SHAECDHE-PSK-AES128-CBC-SHA256ECDHE-PSK-AES128-CBC-SHARSA-PSK-AES256-GCM-SHA384RSA-PSK-CHACHA20-POLY1305RSA-PSK-AES128-GCM-SHA256RSA-PSK-AES256-CBC-SHARSA-PSK-AES128-CBC-SHA256RSA-PSK-AES128-CBC-SHA
Requisitos de SQL para pesquisa de texto completo
O Document Understanding exige que o SQL Server tenha o componente Pesquisa de Texto Completo do Mecanismo de Banco de Dados do SQL Server, que nem sempre é instalado por padrão.
Se você não selecionou Pesquisa de Texto Completo quando instalou o SQL Server, execute a Instalação do SQL Server novamente para adicioná-la antes de configurar o Document Understanding.
Para obter mais informações, consulte este guia sobre como adicionar/instalar recursos no servidor SQL. Você também pode verificar aqui todos os componentes que podem ser adicionados ao SQL Server, que inclui também a Pesquisa de Texto Completo.
Requisitos de SQL para Insights
O Insights não oferece suporte à autenticação do Azure AD. Se você se autenticar usando o Azure AD, os painéis não poderão ser carregados e os dados não poderão ser buscados a partir do banco de dados Microsoft SQL.
O Insights requer o SQL Server 2019 ou 2022, incluindo suporte para índice columnstore e funções .json . O SQL Server Enterprise é recomendado devido ao threading e escalabilidade mais eficientes.
Para Azure SQL, certifique-se de que o banco de dados seja S3 Service Object ou superior.
Certifique-se de que o nível de compatibilidade do banco de dados Insights esteja definido como 130 ou superior. Na maioria dos casos, as configurações padrão atendem a esse requisito. Para obter mais informações, consulte Exibir ou alterar o nível de compatibilidade de um banco de dados - SQL Server.
A instalação valida ambas as condições e alerta você se os requisitos mínimos não forem atendidos.
SQL requirements for Data Service
O Data Service requer o SQL Server versão 2016 ou superior.
Se você criar seu próprio banco de dados usando o SQL Server versão 2019 ou superior, certifique-se de conceder as seguintes permissões de serviço do Data Service aos seus usuários:
GRANT ALTER ANY SENSITIVITY CLASSIFICATION TO {userName};
GRANT VIEW ANY SENSITIVITY CLASSIFICATION TO {userName};
GRANT ALTER ANY SENSITIVITY CLASSIFICATION TO {userName};
GRANT VIEW ANY SENSITIVITY CLASSIFICATION TO {userName};
SQL requirements for Process Mining
Due to a known issue, in Automation Suite versions 2.2510.0 and 2.2510.1 you cannot use a custom database name for the Platform database if Process Mining is enabled. If you specify a custom name, the OMS backfill job fails.
To avoid this, use AutomationSuite_Platform as the Platform database name when installing Process Mining.
Quando você habilita o Process Mining para a instalação no Automation Suite, é necessário trazer um banco de dados PostgreSQL para AutomationSuite_Airflow.
A partir do Process Mining no Automation Suite 2.2510, apenas o banco de dados PostgreSQL é compatível com o banco de dados AutomationSuite_Airflow .
AutomationSuite_Airflow banco de dados PostgreSQL
Antes de instalar ou atualizar para o Automation Suite 2.2510 ou superior, você precisa criar manualmente o banco de dados PostgreSQL para AutomationSuite_Airflow. O banco de dados PostgreSQL para o Airflow não será criado automaticamente pelo instalador.
Ao migrar do Microsoft SQL Server para o banco de dados PostgreSQL, a migração de dados não é necessária. Com uma configuração correta, o banco de dados é reconstruído ao executar o Sync Airflow.
Versões do PostgreSQL compatíveis
As versões 12.x a 16.x do PostgreSQL são compatíveis. É recomendável usar a versão mais recente do PostgreSQL dentro desse intervalo para compatibilidade e desempenho ideais.
Requisitos de Hardware
A máquina na qual o banco de dados PostgreSQL para Airflow está instalado deve atender aos seguintes requisitos de hardware.
- Núcleos: 4
- Memória: 16 GiB
- Armazenamento: 128 GiB
- IOPS: >=500 IOPS
Permissões necessárias
O usuário do PostgreSQL Airflow (ou qualquer usuário de banco de dados dedicado) deve ter
- Permissões "Todos os privilégios" para o banco de dados do Airflow designado.
- "todas as concessões" no esquema público do servidor.
- "search_path" definido como "public".
Pode ser necessário atualizar o arquivo de autenticação baseada em host do PostgreSQL pg_hba.conf para adicionar o usuário do Airflow à lista de controle de acesso do banco de dados e recarregar a configuração do banco de dados para aplicar as alterações.
O código a seguir mostra um exemplo para configurar um banco de dados PostgreSQL.
CREATE DATABASE airflow_db
WITH ENCODING 'UTF8'
LC_COLLATE='en_US.UTF-8'
LC_CTYPE='en_US.UTF-8'
TEMPLATE template0;
CREATE USER airflow_user WITH PASSWORD 'airflow_pass';
GRANT ALL PRIVILEGES ON DATABASE airflow_db TO airflow_user;
-- PostgreSQL 15 requires additional privileges:
GRANT ALL ON SCHEMA public TO airflow_user;
CREATE DATABASE airflow_db
WITH ENCODING 'UTF8'
LC_COLLATE='en_US.UTF-8'
LC_CTYPE='en_US.UTF-8'
TEMPLATE template0;
CREATE USER airflow_user WITH PASSWORD 'airflow_pass';
GRANT ALL PRIVILEGES ON DATABASE airflow_db TO airflow_user;
-- PostgreSQL 15 requires additional privileges:
GRANT ALL ON SCHEMA public TO airflow_user;
O código a seguir mostra um exemplo de validação de codificação de banco de dados.
SELECT pg_encoding_to_char(encoding) AS encoding
FROM pg_database
WHERE datname = 'airflow_db';
SELECT pg_encoding_to_char(encoding) AS encoding
FROM pg_database
WHERE datname = 'airflow_db';
Consulte a documentação oficial do Airflow para obter mais informações sobre como configurar um banco de dados PostgreSQL para o Airflow.
Porta padrão do servidor
A porta padrão do servidor para as conexões de banco de dados do Airflow com o PostgreSQL é 5432. Se você estiver usando o pool de conexões PgBouncer, é comum usar a porta 6432.
Os blocos de código a seguir mostram alguns exemplos de strings de conexão para PostgreSQL usando a porta 5432.
Exemplo de string de conexão:
postgresql+psycopg2://testadmin:<password>@test-cu231009v3-postgresql.postgres.database.azure.com:5432/automationsuite_airflow
postgresql+psycopg2://testadmin:<password>@test-cu231009v3-postgresql.postgres.database.azure.com:5432/automationsuite_airflow
Exemplo de string de conexão para usar o Kerberos:
postgresql+psycopg2://kerberos_user:@kerberospostgres.AUTOSUITEAD.LOCAL:5432/automationsuite_airflow
postgresql+psycopg2://kerberos_user:@kerberospostgres.AUTOSUITEAD.LOCAL:5432/automationsuite_airflow
Exemplo de string de conexão para usar Identidade Gerenciada:
postgresql+psycopg2://testmanagedidentity:@test-postgresql-1.postgres.database.azure.com/airflow-ci-sfasaksqacu8524745
postgresql+psycopg2://testmanagedidentity:@test-postgresql-1.postgres.database.azure.com/airflow-ci-sfasaksqacu8524745
A porta padrão do servidor pode ser configurada para usar qualquer porta disponível conforme os requisitos do seu sistema.
PgBouncer
Como o Airflow usa conexões de vida curta, é altamente recomendável configurar o PgBouncer. O PgBouncer é um pool de conexões leve para o PostgreSQL.
Consulte a documentação oficial do PgBouncer para obter mais informações sobre como configurar o PgBouncer.
Ao migrar do Microsoft SQL Server para o banco de dados PostgreSQL, a migração de dados não é necessária. Com uma configuração correta, o banco de dados é reconstruído ao executar o Sync Airflow.
AutomationSuite_ProcessMining_Warehouse database
O Process Mining no Automation Suite requer um Microsoft SQL Server separado para AutomationSuite_ProcessMining_Warehouse para armazenamento de dados para aplicativos de processos do Process Mining.
Para garantir o funcionamento adequado do Process Mining, é recomendável usar o Microsoft SQL Server 2022.
Esta é uma visão geral dos requisitos de hardware e recomendações para configurar uma máquina de banco de dados do Microsoft SQL Server para AutomationSuite_ProcessMining_Warehouse.
Para calcular os requisitos de hardware, você precisa ter uma indicação do:
- número de (milhões) de eventos em seu processo.
- the number of case and event fields in your output data.
Observação:
In a development environment, for performance reasons, it is recommended to work on a small development dataset with a limited number of records.
Você pode usar a Calculadora de dimensionamento de instalação do UiPath Automation Suite para determinar os requisitos de hardware para configurar uma máquina dedicada do Microsoft SQL Server para o Process Mining. Ao adicionar o Process Mining na seção Produto, os requisitos mínimos para 1 SQL Server dedicado são exibidos.
Consulte Requisitos de hardware para obter mais informações.
O usuário SQL usado nas strings de conexão deve ter a função no nível do banco de dados db_securityadmin durante e após a instalação para habilitar a segurança por aplicativo no SQL Server do Process Mining. Para obter detalhes, consulte a documentação oficial da Microsoft sobre Funções no nível do banco de dados.
Consulte Configuração da segurança do aplicativo de processo para obter mais informações.
É recomendável habilitar a diferenciação entre maiúsculas e minúsculas nos nomes de tabelas e colunas usando o seguinte comando:
ALTER DATABASE AutomationSuite_ProcessMining_Warehouse COLLATE SQL_Latin1_General_CP1_CS_AS
Isso evita erros ao carregar dados causados por colunas com nomes semelhantes, como ID e id. Isso também garante que os valores textuais que diferem apenas em letras maiúsculas ou minúsculas sejam tratados como distintos. Por exemplo:
'activity 1' == 'activity 1''Activity 1' != 'activity 1'
Isso evita problemas de duplicação em transformações SQL.
Requisitos de SQL para o AI Center
Requisitos para o AI Center conectado a um Orchestrator externo
Se você instalar um AI Center que se conecta a um Orchestrator externo, deve certificar-se de criar um novo banco de dados chamado AutomationSuite_Platform para os serviços do AI Events e do AI Storage.
Atualmente, o AI Center requer o SQL Server versão 2019 e superior para funcionar de forma otimizada.
Requisitos para o AI Center instalado em uma máquina habilitada para FIPS 140-2
Para instalar o AI Center em uma máquina habilitada para FIPS 140-2, execute as seguintes etapas:
- Antes de iniciar a instalação do Automation Suite, siga os seguintes passos:
-
Ative o FIPS 140-2 na máquina em que planeja instalar o Microsoft Server seguindo as instruções da Microsoft.
-
Instale o Microsoft SQL Server na máquina habilitada para FIPS 140-2.
-
Obtenha o certificado do Microsoft SQL Server executando o seguinte comando do SQL Server ou de qualquer servidor que possa se conectar ao servidor SQL com o nome do host SQL configurado:
nmap -sV -p <port> -vv --script ssl-cert domainnmap -sV -p <port> -vv --script ssl-cert domain
-
- Durante a instalação do Automation Suite, execute as seguintes etapas:
-
Acrescente os seguintes valores à string de conexão
sql_connection_string_template_jdbcdo AI Center no arquivocluster_config.json:encrypt=true;trustServerCertificate=false;fips=true;.Exemplo:
jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net:1433;database=DB_NAME_PLACEHOLDER;user=testadmin;password=***;encrypt=true;trustServerCertificate=false;fips=true;Connection Timeout=30;hostNameInCertificate=sfdev1804627-c83f074b-sql.database.windows.net"jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net:1433;database=DB_NAME_PLACEHOLDER;user=testadmin;password=***;encrypt=true;trustServerCertificate=false;fips=true;Connection Timeout=30;hostNameInCertificate=sfdev1804627-c83f074b-sql.database.windows.net"Para obter detalhes sobre a configuração do banco de dados, consulte Experiência de instalação avançada e Atualizando o banco de dados SQL.
-
Adicione o certificado exportado da etapa 1.c. para o armazenamento confiável da máquina host. Para obter detalhes, consulte Atualizando os certificados de CA.
-
SQL requirements for HA
Para uma configuração de alta disponibilidade de seu SQL Server, selecione um grupo de disponibilidade Sempre Ativado. Para obter mais informações, consulte Visão geral dos grupos de disponibilidade Sempre Ativados.
Requisitos SQL para o Orchestrator
Para aumentar o desempenho, evite deadlocks e impeça leituras sujas no SQL, certifique-se de que a opção READ_COMMITTED_SNAPSHOT esteja definida como ON.
Para processar a mesma fila com vários robôs e se o isolamento de instantâneo estiver ativado, certifique-se de que a opção ALLOW_SNAPSHOT_ISOLATION esteja definida como ON.
Use esta consulta para verificar se READ_COMMITTED_SNAPSHOT e ALLOW_SNAPSHOT_ISOLATION estão habilitados ou desabilitados:
SELECT is_read_committed_snapshot_on, snapshot_isolation_state FROM sys.databases
WHERE name like 'PLACEHOLDER'
SELECT is_read_committed_snapshot_on, snapshot_isolation_state FROM sys.databases
WHERE name like 'PLACEHOLDER'
Certifique-se de substituir PLACEHOLDER pelo nome do banco de dados do Orchestrator.
Se as configurações estiverem habilitadas, o valor retornado será 1.
Se as configurações estiverem desabilitadas, o valor retornado será 0. Use esta consulta para habilitá-lo:
# To enable READ_COMMITTED_SNAPSHOT
ALTER DATABASE <PLACEHOLDER>
SET READ_COMMITTED_SNAPSHOT ON
# To enable ALLOW_SNAPSHOT_ISOLATION
ALTER DATABASE <PLACEHOLDER>
SET ALLOW_SNAPSHOT_ISOLATION ON
# To enable READ_COMMITTED_SNAPSHOT
ALTER DATABASE <PLACEHOLDER>
SET READ_COMMITTED_SNAPSHOT ON
# To enable ALLOW_SNAPSHOT_ISOLATION
ALTER DATABASE <PLACEHOLDER>
SET ALLOW_SNAPSHOT_ISOLATION ON
Certifique-se de substituir <PLACEHOLDER> pelo nome do banco de dados do Orchestrator.
Se você usar bancos de dados diferentes para Testar Automação e/ou Atualizar Servidor, READ_COMMITTED_SNAPSHOT e ALLOW_SNAPSHOT_ISOLATION devem ser habilitados neles também.
- Bancos de dados
- Collation de SQL
- Permissões
- Codificações do SQL server
- Requisitos de SQL para pesquisa de texto completo
- Requisitos de SQL para Insights
- SQL requirements for Data Service
- SQL requirements for Process Mining
AutomationSuite_Airflowbanco de dados PostgreSQLAutomationSuite_ProcessMining_Warehousedatabase- Requisitos de SQL para o AI Center
- Requisitos para o AI Center conectado a um Orchestrator externo
- Requisitos para o AI Center instalado em uma máquina habilitada para FIPS 140-2
- SQL requirements for HA
- Requisitos SQL para o Orchestrator