- Visão geral
- Requisitos
- Instalação
- Pós-instalação
- Migração e atualização
- Atualização do Automation Suite no EKS/AKS
- Opções de migração
- Etapa 1: mover os dados da organização do Identity, de independente para o Automation Suite
- Etapa 2: restauração do banco de dados de produtos independente
- Etapa 3: backup do banco de dados da plataforma no Automation Suite
- Etapa 4: mesclando organizações no Automation Suite
- Etapa 5: atualização das strings de conexão do produto migradas
- Etapa 6: migração do Insights independente
- Etapa 7: exclusão do tenant padrão
- B) Migração de um único tenant
- Monitoramento e alertas
- Administração de cluster
- Configuração específica do produto
- Solução de problemas

Automation Suite no guia de instalação do EKS/AKS
Configuring input.json
input.json
permite configurar os produtos da UiPath que você deseja implantar, os parâmetros, configurações e preferências aplicados aos produtos selecionados, e as configurações da sua infraestrutura de Cloud . Você deve atualizar esse arquivo para alterar os padrões e usar qualquer configuração avançada para seu cluster.
Alguns produtos podem ter dependências. Para obter detalhes, consulte Dependências entre produtos
input.json
, você pode usar seu editor de texto favorito na sua máquina de cliente.
Parâmetros gerais |
Description |
---|---|
|
Especifique qual distribuição do Kubernetes você usa. Pode ser
aks ou eks .
|
|
URLs para extrair as imagens Docker e gráficos do Helm para produtos UiPath e Automation Suite .
|
|
O endpoint do balanceador de carga para Automation Suite |
|
O nome de usuário que você deseja definir como um administrador para a organização do host. |
|
A senha de administrador do host a ser definida. |
|
Valor padrão, não alterável
|
|
true ou false – usado para optar por não enviar telemetria de volta ao UiPath. Ele é definido como false por padrão.
Se você quiser cancelar, defina como
true .
|
"kubernetes_distribution": "aks",
"registries": {
"docker": {
"url": "registry.uipath.com"
},
"helm": {
"url": "registry.uipath.com"
}
},
"fqdn": "replace with your fqdn",
"admin_username": "replace with your UiPath admin username",
"admin_password": "replace with your UiPath admin password",
"profile": "ha",
"telemetry_optout": false
"kubernetes_distribution": "aks",
"registries": {
"docker": {
"url": "registry.uipath.com"
},
"helm": {
"url": "registry.uipath.com"
}
},
"fqdn": "replace with your fqdn",
"admin_username": "replace with your UiPath admin username",
"admin_password": "replace with your UiPath admin password",
"profile": "ha",
"telemetry_optout": false
Você pode habilitar e desabilitar produtos no Automation Suite no momento da instalação e em qualquer ponto pós-instalação. Para obter mais detalhes sobre a configuração de cada produto, consulte Gerenciamento dos produtos.
Exemplo do Orchestrator:
"orchestrator": {
"enabled": true,
"external_object_storage": {
"bucket_name": "uipath-as-orchestrator"
},
"testautomation": {
"enabled": true
},
"updateserver": {
"enabled": true
}
"orchestrator": {
"enabled": true,
"external_object_storage": {
"bucket_name": "uipath-as-orchestrator"
},
"testautomation": {
"enabled": true
},
"updateserver": {
"enabled": true
}
O Automation Suite permite que você traga seus próprios componentes do Gateway (e políticas OPA), Gerenciador de certificados, Monitoramento e Registro em log. Se você escolher excluir esses componentes, certifique-se de que você os tenha presentes em seu cluster antes de instalar o Automation Suite .
-
Para obter a lista de componentes opcionais e a matriz de responsabilidades, consulte Automation Suite na pilha EKS/AKS.
-
Certifique-se de revisar a matriz de compatibilidade para as versões que são validadas com o Automation Suite .
No exemplo abaixo, todos os componentes são excluídos. No entanto, você pode remover aqueles que você gostaria que o Automation Suite provisionasse.
"exclude_components": [
"gatekeeper",
"opa-policies",
"network-policies",
"cert-manager",
"monitoring",
"logging",
"velero"
]
"exclude_components": [
"gatekeeper",
"opa-policies",
"network-policies",
"cert-manager",
"monitoring",
"logging",
"velero"
]
Se nenhum certificado for fornecido no momento da instalação, o instalador criará certificados emitidos automaticamente e os configurará no cluster.
pwd
para obter o caminho do diretório no qual os arquivos são colocados e anexe o nome do arquivo de certificado no input.json
.
Parâmetro |
Description |
---|---|
|
O caminho absoluto para o certificado da Autoridade de Certificação (CA). Essa CA é a autoridade que assina o certificado TLS. Um pacote de CA deve conter apenas os certificados de cadeia usados para assinar o certificado TLS. O limite de cadeia é de nove certificados. Se você usar um certificado assinado automaticamente, será necessário especificar o caminho para
rootCA.crt , que você criou anteriormente. Deixe em branco se quiser que o instalador gere ir.
|
|
Caminho absoluto para o certificado TLS (
server.crt é o certificado assinado automaticamente). Deixe em branco se você quiser que o instalador o gere.
|
|
Caminho absoluto para a chave de certificado (
server.key é o certificado assinado automaticamente). Deixe em branco se você quiser que o instalador o gere.
|
|
Caminho absoluto para o certificado de assinatura de token de identidade usado para assinar tokens (
identity.pfx é o certificado assinado automaticamente). Deixe em branco se você quiser que o instalador gere um certificado de identidade usando o certificado do servidor.
|
|
Senha de texto simples definida ao exportar o certificado de assinatura de token de identidade. |
|
O caminho absoluto para o arquivo contendo os certificados de CA adicionais que você deseja que seja confiável para todos os serviços em execução como parte do Automation Suite. Todos os certificados no arquivo devem ter um formato
PEM válido.
Por exemplo, você precisa fornecer o arquivo que contém o certificado de CA do SQL Server se o certificado não for emitido por uma autoridade de certificação pública. |
input.json
, consulte as seguintes seções de pré-requisito:
-
Banco dedados SQL (obrigatório)
-
Cache (obrigatório)
-
Armazenamento (obrigatório)
-
Rede (obrigatório)
-
Configuração de entrada do NGINX (opcional)
-
Configuração de proxy (opcional)
orchestrator.orchestrator_robot_logs_elastic
. Se não forem fornecidos, os logs de robô serão salvos no banco de dados do Orchestrator.
orchestrator.orchestrator_robot_logs_elastic
:
Parâmetro |
Description |
---|---|
orchestrator_robot_logs_elastic |
Configuração do Elasticsearch. |
|
O endereço da instância do Elasticsearch que deve ser usado. Ele deve ser fornecido na forma de um URI. Se fornecidos, o nome de usuário e senha também são necessários. |
|
O nome de usuário do Elasticsearch, usado para autenticação. |
|
A senha do Elasticsearch, usada para autenticação. |
Se habilitar o Insights, os usuários podem incluir a configuração do servidor SMTP que será usada para enviar emails agendados/emails de alerta. Se não for fornecida, os emails agendados e os emails de alerta não funcionarão.
insights.smtp_configuration
:
Parâmetro |
Description |
---|---|
|
Os valores válidos são
TLSv1_2 , TLSv1_1 , SSLv23 . Omita a chave completamente se não estiver usando TLS.
|
|
Endereço do qual os emails de alerta/agendados serão enviados. |
|
Nome do host do servidor SMTP. |
|
Porta do servidor SMTP. |
|
Nome de usuário para a autenticação do servidor SMTP. |
|
Senha para a autenticação do servidor SMTP. |
enable_realtime_monitoring | Sinalize para habilitar o monitoramento em tempo real do Insights. Os valores válidos são true , false . O valor padrão é false .
|
Exemplo
"insights": {
"enabled": true,
"enable_realtime_monitoring": true,
"smtp_configuration": {
"tls_version": "TLSv1_2",
"from_email": "test@test.com",
"host": "smtp.sendgrid.com",
"port": 587,
"username": "login",
"password": "password123"
}
}
"insights": {
"enabled": true,
"enable_realtime_monitoring": true,
"smtp_configuration": {
"tls_version": "TLSv1_2",
"from_email": "test@test.com",
"host": "smtp.sendgrid.com",
"port": 587,
"username": "login",
"password": "password123"
}
}
processmining
:
Parâmetro |
Description |
---|---|
|
Cadeia de conexão formatada DotNet com banco de dados definido como um espaço reservado:
Initial Catalog=DB_NAME_PLACEHOLDER .
|
|
String de conexão formatada PYODBC do Sqlalchemy para local do banco de dados de metadados do airflow personalizado:
sqlServer:1433/DB_NAME_PLACEHOLDER .
Exemplo:
Onde Usuário:
testadmin%40myhost Observação:
Se houver "@" no nome do usuário, ele deverá ser codificado com URL como %40 Exemplo: (configuração do SQL Server com autenticação do Kerberos)
|
|
Cadeia de conexão SQL formatada em DotNet para o data warehouse de processmining SQL Server com espaço reservado para dbname: Initial Catalog=DB_NAME_PLACEHOLDER .
|
|
String de conexão SQL formatada Sqlalchemy PYODBC para o data warehouse de processmining SQL Server com espaço reservado para dbname: sqlServer:1433/DB_NAME_PLACEHOLDER .
|
|
Se o instalador estiver criando bancos de dados por meio da configuração
sql.create_db: true , uma string de conexão SQL mestre formatada em DotNet deve ser fornecida para o SQL Server do data warehouse de processmining. O banco de dados na cadeia de conexão deve ser definido como master .
|
Exemplo de string de conexão do Process Mining
"processmining": {
"enabled": true,
"app_security_mode": "system_managed",
"sql_connection_str": "Server=tcp:shared_sqlserver_fqdn,1433;Initial Catalog=AutomationSuite_ProcessMining_Metadata;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://username:password@shared_sqlserver_fqdn:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
"warehouse": {
"sql_connection_str": "Server=tcp:dedicated_sqlserver_fqdn,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://useername:password@dedicated_sqlserver_fqdn:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
"master_sql_connection_str": "Server=tcp:dedicated_sqlserver_fqdn,1433;Initial Catalog=master;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"blob_storage_account_use_presigned_uri": true
},
"processmining": {
"enabled": true,
"app_security_mode": "system_managed",
"sql_connection_str": "Server=tcp:shared_sqlserver_fqdn,1433;Initial Catalog=AutomationSuite_ProcessMining_Metadata;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://username:password@shared_sqlserver_fqdn:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
"warehouse": {
"sql_connection_str": "Server=tcp:dedicated_sqlserver_fqdn,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://useername:password@dedicated_sqlserver_fqdn:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
"master_sql_connection_str": "Server=tcp:dedicated_sqlserver_fqdn,1433;Initial Catalog=master;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"blob_storage_account_use_presigned_uri": true
},
Ao configurar o Microsoft SQL Server, certifique-se de que o fuso horário da máquina do SQL Server onde o banco de dados Airflow e um banco de dados dedicado do Process Mining estão instalados, esteja definido como UTC.
Ao configurar as strings de conexão para o SQL Server do data warehouse do processmining, a instância nomeada do SQL Server deve ser omitida.
As instâncias nomeadas do SQL Server não podem operar na mesma porta TCP. Portanto, o número da porta por si só é suficiente para distinguir entre instâncias.
tcp:server,1445
em vez de tcp:server\namedinstance,1445
.
sql_connection_string_template_sqlalchemy_pyodbc
do modelo e a string de conexão PYODBC sqlalchemy_pyodbc_sql_connection_str
usadas quando você traz seu próprio banco de dados são diferentes. Além disso, os nomes das strings de conexão são diferentes para o modelo SQL sql_connection_string_template
e sql_connection_str
usado quando você traz seu próprio banco de dados.
sql_connection_str
e sqlalchemy_pyodbc_sql_connection_str
na seção processmining
do arquivo input.json
, as strings de conexão do modelo sql_connection_string_template
e sql_connection_string_template_sqlalchemy_pyodbc
serão ignoradas, se especificadas.
1433
para os seguintes bancos de dados:
warehouse.sql_connection_str
warehouse.sqlalchemy_pyodbc_sql_connection_str
warehouse.master_sql_connection_str
Portas do servidor SQL não padrão não são compatíveis.
Os Automation Suite Robots podem usar o cache de pacotes para otimizar suas execuções de processo e permitir que sejam executados mais rapidamente. Os pacotes NuGet são obtidos do sistema de arquivos em vez de serem baixados da Internet/rede. Isso requer um espaço adicional de no mínimo 10GiB e deve ser alocado para uma pasta no sistema de arquivos da máquina host dos nós dedicados.
input.json
:
Parâmetro |
Valor padrão |
Description |
---|---|---|
|
|
Quando definido como
true , os robôs usam um cache local para resolução de pacote.
|
|
|
O local do disco no nó do agente sem servidor em que os pacotes são armazenados. |
aicenter.external_object_storage.port
e aicenter.external_object_storage.fqdn
no arquivo input.json
.
aicenter
do arquivo input.json
, mesmo que você tenha configurado a seção external_object_storage
do arquivo.
input.json
válida para o AI Center:"aicenter": {
"external_object_storage" {
"port": 443,
"fqdn": "s3.us-west-2.amazonaws.com"
}
},
"external_object_storage": {
"enabled": true,
"create_bucket": false,
"storage_type": "s3",
"region": "us-west-2",
"use_instance_profile": true
}
...
"aicenter": {
"external_object_storage" {
"port": 443,
"fqdn": "s3.us-west-2.amazonaws.com"
}
},
"external_object_storage": {
"enabled": true,
"create_bucket": false,
"storage_type": "s3",
"region": "us-west-2",
"use_instance_profile": true
}
...
- Produtos da UiPath®
- Traga seus próprios componentes
- Configuração de Certificados
- Pré-requisitos da infraestrutura
- Configuração específica do Orchestrator
- Configuração específica do Insights
- Process Mining-specific configuration
- Automation Suite Robots-specific configuration
- Configuração específica do AI Center