automation-suite
2024.10
true
Importante :
A tradução automática foi aplicada parcialmente neste conteúdo. A localização de um conteúdo recém-publicado pode levar de 1 a 2 semanas para ficar disponível.
UiPath logo, featuring letters U and I in white

Guia de instalação do Automation Suite no OpenShift

Última atualização 5 de mai de 2025

Configuring input.json

O arquivo input.json permite que você configure os produtos da UiPath® que você deseja implantar, os parâmetros, configurações e preferências aplicadas aos produtos selecionados e as configurações de sua infraestrutura de nuvem. Você deve atualizar esse arquivo para alterar os padrões e usar qualquer configuração avançada para seu cluster.
Observação:

Alguns produtos podem ter dependências. Para obter detalhes, consulte Dependências entre produtos.

Para editar input.json, você pode usar seu editor de texto favorito na sua máquina de cliente.
A tabela a seguir descreve os principais parâmetros input.json que você deve atualizar para configurar corretamente o Automation Suite. Para obter um exemplo de configuração, consulte o exemplo do input.json.

Parâmetros gerais

Description

kubernetes_distribution

A distribuição do Kubernetes que você usa. Para o Automation Suite no OpenShift, o valor é openshift.

install_type

Determina se o cluster é implantado no modo online ou offline. Se não for especificado, o cluster é implantado no modo online. Para implantar o cluster no modo offline, você deve definir explicitamente o valor do parâmetro install_type como offline.
Possíveis valores: online ou offline
Valor padrão:online

registries

URLs para extrair as imagens do docker e gráficos do helm para produtos da UiPath® e Automation Suite.

registry.uipath.com

istioMinProtocolVersion

A versão mínima do protocolo TLS aceita pelo Istio para comunicações seguras. Ele pode ser definido como TLSV1_2 ou TLSV1_3.

fqdn

O nome de domínio totalmente qualificado para acessar o produto. Certifique-se de que o Istio Ingress possa acessar o FQDN.

admin_username

O nome de usuário que você deseja definir como um administrador para a organização do host.

admin_password

A senha de administrador do host a ser definida.

profile

Valor padrão, não alterável

  • ha : perfil de produção pronto para alta disponibilidade de vários nós.

telemetry_optout

true ou false – usado para cancelar o envio de telemetria de volta à UiPath®. Ele é definido como false por padrão.
Se você quiser cancelar, defina como true.

fips_enabled_nodes

Indique se você deseja habilitar o FIPS 140-2 nos nós nos quais você planeja instalar o Automation Suite. Os valores possíveis são true e false.
storage_class

Especifique a classe de armazenamento a ser usada para o provisionamento PV. Essa classe de armazenamento deve suportar várias réplicas para uma alta disponibilidade ideal e possuir recursos de backup.

Para obter mais informações, consulte a seção Armazenamento de blocos .

storage_class_single_replica

Forneça a classe de armazenamento a ser usada para o provisionamento PV. Essa classe de armazenamento pode ter uma única réplica para os componentes que não exigem Alta Disponibilidade. A classe de armazenamento não pode ter recursos de backup.

Para obter mais informações, consulte a seção Armazenamento de arquivos .

O valor storage_class_single_replica pode ser igual ao valor storage_class .
exclude_components

Use esse parâmetro para evitar que componentes não essenciais sejam instalados.

Para obter detalhes, consulte Traga seus próprios componentes.

namespace

Especifique o namespace no qual você deseja instalar o Automation Suite.

Para obter detalhes, consulte Configuração de namespace personalizada.

argocd.application_namespace

O namespace do aplicativo que você planeja instalar. Idealmente, deve ser o mesmo que o namespace no qual você planeja instalar o Automation Suite.

argocd.project

O projeto do ArgoCD necessário para implantar o Automation Suite. Isso é necessário apenas se você quiser usar a instância do ArgoCD compartilhada ou global em vez de uma instância do ArgoCD dedicada.

Produtos da UiPath®

Você pode habilitar e desabilitar produtos no Automation Suite no momento da instalação e em qualquer ponto pós-instalação. Para obter mais detalhes sobre a configuração de cada produto, consulte Gerenciamento dos produtos.

Exemplo do Orchestrator:

"orchestrator": {
  "enabled": true,
  "external_object_storage": {
    "bucket_name": "uipath-as-orchestrator"
  },
  "testautomation": {
    "enabled": true
  },
  "updateserver": {
    "enabled": true
  }"orchestrator": {
  "enabled": true,
  "external_object_storage": {
    "bucket_name": "uipath-as-orchestrator"
  },
  "testautomation": {
    "enabled": true
  },
  "updateserver": {
    "enabled": true
  }

Traga seus próprios componentes

O Automation Suite permite que você traga suas próprias Políticas do Gateway e OPA, Gerenciador de certificados, Istio, monitoramento, registros em log e muito mais. Se você optar por excluir esses componentes, verifique se estão disponíveis no seu cluster antes de instalar o Automation Suite.

O exemplo a seguir mostra uma lista de componentes excluídos. Você pode remover os componentes que deseja que o Automation Suite provisione.

"exclude_components": [
    "argocd",
    "monitoring",
    "istio",
    "logging",
    "gatekeeper",
    "network-policies",
    "velero",
    "alerts",
    "cert-manager",
    "dapr"
],"exclude_components": [
    "argocd",
    "monitoring",
    "istio",
    "logging",
    "gatekeeper",
    "network-policies",
    "velero",
    "alerts",
    "cert-manager",
    "dapr"
],

Excluindo o Istio

Se você trouxer seu próprio componente do Istio, certifique-se de incluir os rótulos gateway_selector do seu gateway do Istio no arquivo input.json . Para encontrar seu rótulo de seletor de gateway, siga as seguintes etapas:
  1. Liste todos os pods no namespace <istio-system>, executando o comando oc get pods -n <istio-system>.
  2. Encontre o ideal para a sua implantação do Gateway do Istio.

Observação: Se você planeja instalar o plug-in do HASM por conta própria e quiser evitar fornecer ao instalador do Automation Suite acesso de gravação para o namespace do <istio-system> , você deve adicionar o componente istio-configure à lista do exclude_components .

Exclusão do Gerenciador de certificados

Se você optar por trazer seu próprio Gerenciador de certificados e seu certificado TLS for emitido por uma CA privada ou não pública, você deve incluir manualmente o certificado de folha e os certificados de CA intermediários no arquivo do certificado TLS. No caso de CAs públicas, elas são automaticamente confiáveis pelos sistemas do cliente, e nenhuma ação adicional é necessária de sua parte.

Configuração de Certificados

Se nenhum certificado for fornecido no momento da instalação, o instalador criará certificados emitidos automaticamente e os configurará no cluster.

Observação:

Os certificados podem ser criados no momento da instalação apenas se você conceder ao instalador do Automation Suite privilégios de administrador durante a instalação. Se você não puder conceder os privilégios de administrador do instalador, então você deve criar e gerenciar os certificados por conta própria.

Para detalhes sobre como obter um certificado, consulte Gerenciamento dos certificados.

Observação:
Certifique-se de especificar o caminho absoluto para os arquivos de certificado. Execute pwd para obter o caminho do diretório no qual os arquivos são colocados e anexe o nome do arquivo de certificado no input.json .

Parâmetro

Description

server_certificate.ca_cert_file

O caminho absoluto para o certificado da Autoridade de Certificação (CA). Essa CA é a autoridade que assina o certificado TLS. Um pacote de CA deve conter apenas os certificados de cadeia usados para assinar o certificado TLS. O limite de cadeia é de nove certificados.

Se você usar um certificado assinado automaticamente, será necessário especificar o caminho para rootCA.crt, que você criou anteriormente. Deixe em branco se quiser que o instalador gere ir.

server_certificate.tls_cert_file

Caminho absoluto para o certificado TLS (server.crt é o certificado assinado automaticamente). Deixe em branco se você quiser que o instalador o gere.
Observação: se você fornecer o certificado por conta própria, o arquivo server.crt deve conter toda a cadeia, conforme mostrado no exemplo a seguir:
-----server cert-----
-----root ca chain----------server cert-----
-----root ca chain-----

server_certificate.tls_key_file

Caminho absoluto para a chave de certificado (server.key é o certificado assinado automaticamente). Deixe em branco se você quiser que o instalador o gere.

identity_certificate.token_signing_cert_file

Caminho absoluto para o certificado de assinatura de token de identidade usado para assinar tokens (identity.pfx é o certificado assinado automaticamente). Deixe em branco se você quiser que o instalador gere um certificado de identidade usando o certificado do servidor.

identity_certificate.token_signing_cert_pass

Senha de texto simples definida ao exportar o certificado de assinatura de token de identidade.

additional_ca_certs

O caminho absoluto para o arquivo contendo os certificados de CA adicionais que você deseja que seja confiável para todos os serviços em execução como parte do Automation Suite. Todos os certificados no arquivo devem ter um formato PEM válido.

Por exemplo, você precisa fornecer o arquivo que contém o certificado de CA do SQL Server se o certificado não for emitido por uma autoridade de certificação pública.

Pré-requisitos da infraestrutura

Você deve fornecer detalhes de configurações dos pré-requisitos que você configurou no Azure ou na AWS. Para requisitos de parâmetros input.json , consulte as seguintes seções de pré-requisito:

Configuração externa do Objectstore

Configuração geral

O Automation Suite permite que você traga seu próprio provedor de armazenamento externo. Você pode escolher entre os seguintes provedores de armazenamento:

  • Azure
  • AWS
  • compatível com S3

Você pode configurar o armazenamento de objeto externo de uma das seguintes maneiras:

  • durante a instalação;
  • pós-instalação, usando o arquivo input.json .
Observação:
  • Para que o Automation Suite funcione corretamente ao usar URLs pré-assinadas, você deve certificar-se de que seu objectstore externo esteja acessível a partir do cluster do Automation Suite, navegadores e todas as suas máquinas, incluindo estações de trabalho e máquinas de robôs.
  • A Criptografia do lado do servidor com Serviço de Gerenciamento de Chaves (SSE-KMS) só pode ser habilitada nos buckets do Automation Suite implantados em qualquer região criada após 30 de janeiro de 2014.

    A funcionalidade SSE-KMS requer APIs SignV4 puras. As regiões criadas antes de 30 de janeiro de 2014 não usam APIs puras do SignV4 devido à compatibilidade com versões anteriores com o SignV2. Portanto, o SSE-KMS é funcional apenas em regiões que usam o SignV4 para comunicação. Para descobrir quando as várias regiões foram provisionadas, consulte a documentação da AWS.

Se você usar um Ponto de extremidade privado para acessar o contêiner, deverá adicionar o parâmetro fqdn no arquivo input.jsone especificar o Ponto de extremidade privado como valor.
A tabela a seguir lista os parâmetros input.jsonque você pode usar para configurar cada provedor de armazenamento de objetos externo:

Parâmetro

Azure

AWS

compatível com S3

Description

external_object_storage.enabled

available

available

available

Especifique se você gostaria de trazer seu próprio armazenamento de objetos. Valores possíveis: true e false.

external_object_storage.create_bucket

available

available

available

Especifique se você gostaria de provisionar o bucket. Valores possíveis: true e false.

external_object_storage.storage_type

available

available

available

Especifique o provedor de armazenamento que deseja configurar. O valor diferencia maiúsculas de minúsculas. Valores possíveis: azure e s3.
Observação: muitos objetos S3 requerem o CORS definido para todo o tráfego do cluster do Automation Suite. Você deve configurar a política CORS no nível do objectstore para permitir o FQDN do cluster.

external_object_storage.fqdn

Não disponível

available

available

Especifique o FQDN do servidor S3. Necessário no caso da instância da AWS e perfil não instância.

external_object_storage.port

Não disponível

available

available

Especifique a porta S3. Necessário no caso da instância da AWS e perfil não instância.

external_object_storage.region

Não disponível

available

available

Especifique a região da AWS onde os buckets estão hospedados. Necessário no caso da instância da AWS e perfil não instância.

external_object_storage.access_key

Não disponível

available

available

Especifique a chave de acesso para a conta S3. Necessário apenas no caso do perfil de não instância da AWS.

external_object_storage.secret_key

Não disponível

available

available

Especifique a chave secreta para a conta S3. Necessário apenas no caso do perfil de não instância da AWS.

external_object_storage.use_instance_profile

Não disponível

available

available

Especifique se você deseja usar um perfil de instância. Um perfil de instância do AWS Identity e Access Management (IAM) concede acesso seguro a recursos da AWS para aplicativos ou serviços em execução nas instâncias do Amazon Elastic Compute Cloud (EC2). Se você optar pelo AWS S3, um perfil de instância permite que uma instância do EC2 interaja com buckets do S3 sem a necessidade de que credenciais explícitas da AWS (como chaves de acesso) sejam armazenadas na instância.

external_object_storage.bucket_name_prefix 1

Não disponível

available

available

Indique o prefixo para os nomes dos depósitos. Opcional no caso do perfil de não instância da AWS.

external_object_storage.bucket_name_suffix 2

Não disponível

available

available

Indique o sufixo para os nomes dos depósitos. Opcional no caso do perfil de não instância da AWS.

external_object_storage.account_key

available

Não disponível

Não disponível

Especifique a chave da conta do Azure.

external_object_storage.account_name

available

Não disponível

Não disponível

Especifique o nome da conta do Azure.

external_object_storage.azure_fqdn_suffix

available

Não disponível

Não disponível

Especifique o sufixo FQDN do Azure. Parâmetro opcional.

1 Se você planeja desabilitar o acesso a URL pré-assinado, observe que essa configuração não é suportada pelas seguintes atividades que carregam ou recuperam dados do objectstore:

2, 3 Ao configurar o armazenamento de objetos externo, você deve seguir as regras e convenções de nomenclatura do seu provedor para bucket_name_prefix e bucket_name_suffix. Além disso, o sufixo e o prefixo devem ter um comprimento combinado de não mais do que 25 caracteres, e você não deve terminar o prefixo ou iniciar o sufixo com um hífen (-), pois já adicionamos o caractere para você automaticamente.

Configuração específica do produto

Você pode usar os parâmetros descritos na seção Configuração geral para atualizar a configuração geral do Automation Suite. Isso significa que todos os produtos instalados compartilhariam a mesma configuração. Se você quiser configurar um ou mais produtos de forma diferente, pode substituir a configuração geral. Você só precisa especificar o(s) produto(s) para o qual deseja configurar o armazenamento de objetos externo de forma diferente e usar os mesmos parâmetros para definir sua configuração. Observe que todos os outros produtos instalados continuarão a herdar a configuração geral.

O exemplo a seguir mostra como você pode substituir a configuração geral do Orchestrator:

"external_object_storage": {
  "enabled": false, // <true/false>
  "create_bucket": true, // <true/false>
  "storage_type": "s3", // <s3,azure,aws>
  "fqdn": "",  // <needed in the case of aws instance and non-instance profile>
  "port": 443, // <needed in the case of aws instance and non-instance profile>
  "region": "", 
  "access_key": "", // <needed in the case of aws non instance profile>
  "secret_key": "", // <needed in the case of aws non instance profile>
  "bucket_name_prefix": "",
  "bucket_name_suffix": "",
  "account_key": "",
  "account_name": "",
  "azure_fqdn_suffix": "core.windows.net",
},

"orchestrator": {
  "external_object_storage": {
    "enabled": false, // <true/false>
    "create_bucket": true, // <true/false>
    "storage_type": "s3", // <s3,azure>
    "fqdn": "",  // <needed in the case of aws instance and non-instance profile>
    "port": 443, // <needed in the case of aws instance and non-instance profile>
    "region": "", 
    "access_key": "", // <needed in case of aws non instance profile>
    "secret_key": "", // <needed in case of aws non instance profile>
    "bucket_name_prefix": "",
    "bucket_name_suffix": "",
    "account_key": "",
    "account_name": "",
    "azure_fqdn_suffix": "core.windows.net",
  }
}"external_object_storage": {
  "enabled": false, // <true/false>
  "create_bucket": true, // <true/false>
  "storage_type": "s3", // <s3,azure,aws>
  "fqdn": "",  // <needed in the case of aws instance and non-instance profile>
  "port": 443, // <needed in the case of aws instance and non-instance profile>
  "region": "", 
  "access_key": "", // <needed in the case of aws non instance profile>
  "secret_key": "", // <needed in the case of aws non instance profile>
  "bucket_name_prefix": "",
  "bucket_name_suffix": "",
  "account_key": "",
  "account_name": "",
  "azure_fqdn_suffix": "core.windows.net",
},

"orchestrator": {
  "external_object_storage": {
    "enabled": false, // <true/false>
    "create_bucket": true, // <true/false>
    "storage_type": "s3", // <s3,azure>
    "fqdn": "",  // <needed in the case of aws instance and non-instance profile>
    "port": 443, // <needed in the case of aws instance and non-instance profile>
    "region": "", 
    "access_key": "", // <needed in case of aws non instance profile>
    "secret_key": "", // <needed in case of aws non instance profile>
    "bucket_name_prefix": "",
    "bucket_name_suffix": "",
    "account_key": "",
    "account_name": "",
    "azure_fqdn_suffix": "core.windows.net",
  }
}

Rotating the blob storage credentials for Process Mining

Para rotacionar as credenciais de armazenamento de Blobs para o Process Mining no Automation Suite, as senhas armazenadas devem ser atualizadas com as novas credenciais. Consulte Rotação das credenciais do armazenamento de blobs.

Configuração de URL pré-assinada

Você pode usar o sinalizador disable_presigned_url para especificar se você gostaria de desabilitar o acesso à URL pré-assinada no nível global. Por padrão, as URLs pré-assinadas são habilitadas para toda a plataforma. Os valores possíveis são: true e false.
{
  "disable_presigned_url" : true
}{
  "disable_presigned_url" : true
}
Observação:
  • Você pode alterar o valor padrão desse parâmetro apenas para novas instalações. A operação é irreversível e não se aplica a um cluster existente.

  • Você pode aplicar essa configuração apenas a toda a plataforma. Você não pode substituir a configuração global no nível do produto.

Configuração de registro externo compatível com OCI

Para configurar um registro externo compatível com OCI, atualize os seguintes parâmetros no arquivo input.json :

Chaves

Valor

registries.docker.url

Valor padrão:registry.uipath.com

O URL ou FQDN do registro a ser usado pelo Automation Suite para hospedar as imagens do contêiner.

registries.docker.username

registries.docker.password

Informações de autenticação a serem usadas para extrair as imagens do Docker do registro.

Se um dos valores for encontrado no arquivo de entrada, você deve fornecer ambos ao configurar o registro externo.

registries.docker.pull_secret_value

A senha de extração do registro.

registries.helm.url

Valor padrão:registry.uipath.com

O URL ou FQDN do registro a ser usado pelo Automation Suite para hospedar o gráfico do Helm do serviço.

registries.helm.username

registries.helm.password

Informações de autenticação a serem usadas para extrair gráficos do Helm do registro.

Se um dos valores for encontrado no arquivo de entrada, você deve fornecer ambos ao configurar o registro externo.

registry_ca_cert

O local do arquivo do CA correspondente ao certificado configurado para o registro.

Se o registro for assinado por uma autoridade de certificação privada hospedada em suas instalações, você deve fornecê-la para estabelecer a confiança.

Observação:
Você pode usar diferentes métodos para gerar a versão codificada do pull_secret_value, incluindo aquele usando Docker. Para obter mais detalhes, consulte .

O exemplo de configuração a seguir mostra uma configuração típica de registro compatível com OCI:

{
    "registries": {
        "docker": {
            "url": "registry.domain.io",
            "username": "username",
            "password": "password", 
            "pull_secret_value": "pull-secret-value"
        },
        "helm": {
            "url": "registry.domain.io",
            "username": "username",
            "password": "password"
        },
        "trust": {
            "enabled": true,
            "public_key": "LS0tLS1CRUdJTiBQVUJMSUMgS0VZLS0tLS0KTUZrd0V3WUhLb1pJemowQ0FRWUlLb1pJemowREFRY0RRZ0FFNE4vSzNzK2VXUTJHU3NnTTJNcUhsdEplVHlqRQp1UC9sd0dNTnNNUjhUZTI2Ui9TTlVqSVpIdnJKcEx3YmpDc0ZlZUI3L0xZaFFsQzlRdUU1WFhITDZ3PT0KLS0tLS1FTkQgUFVCTElDIEtFWS0tLS0tCg==",
            "detection_mode": false
        }
    },
    "registry_ca_cert": "/etc/pki/ca-trust/extracted/ca-bundle.trust.crt"
}{
    "registries": {
        "docker": {
            "url": "registry.domain.io",
            "username": "username",
            "password": "password", 
            "pull_secret_value": "pull-secret-value"
        },
        "helm": {
            "url": "registry.domain.io",
            "username": "username",
            "password": "password"
        },
        "trust": {
            "enabled": true,
            "public_key": "LS0tLS1CRUdJTiBQVUJMSUMgS0VZLS0tLS0KTUZrd0V3WUhLb1pJemowQ0FRWUlLb1pJemowREFRY0RRZ0FFNE4vSzNzK2VXUTJHU3NnTTJNcUhsdEplVHlqRQp1UC9sd0dNTnNNUjhUZTI2Ui9TTlVqSVpIdnJKcEx3YmpDc0ZlZUI3L0xZaFFsQzlRdUU1WFhITDZ3PT0KLS0tLS1FTkQgUFVCTElDIEtFWS0tLS0tCg==",
            "detection_mode": false
        }
    },
    "registry_ca_cert": "/etc/pki/ca-trust/extracted/ca-bundle.trust.crt"
}

Configuração de namespace personalizada

Você pode especificar um único namespace personalizado que substitua os namespaces padrão uipath, uipath-check e uipath-installer . Para definir um namespace personalizado, forneça um valor para o parâmetro opcional namespace . Se você não fornecer um valor para o parâmetro namespace , os namespaces padrão serão usados.

Configuração de rótulo de namespace personalizado

Se quiser que os namespaces da UiPath contenham rótulos de namespace personalizados, adicione a seguinte seção ao arquivo input.json. Certifique-se de adicionar seus próprios rótulos.
"namespace_labels": {
		"install-type": "aksoffline",
		"uipathctlversion": "rc-10_0.1",
		"updatedLabel": "rerun"
	}, "namespace_labels": {
		"install-type": "aksoffline",
		"uipathctlversion": "rc-10_0.1",
		"updatedLabel": "rerun"
	},

Configuração de tolerância de nó personalizada

Se você precisar de taints e tolerâncias personalizados nos nós em que planeja instalar o Automation Suite, atualize input.json com os seguintes sinalizadores. Certifique-se de fornecer os valores apropriados para o campo spec .
"tolerations": [
  {
    "spec": {
      "key": "example-key", 
      "operator": "Exists",
      "value": "optional-value",
      "effect": "NoSchedule"
    }
  },
  {
    "spec": {
      "key": "example-key2", 
      "operator": "Exists",
      "value": "optional-value2",
      "effect": "NoSchedule"
    }
  }
]"tolerations": [
  {
    "spec": {
      "key": "example-key", 
      "operator": "Exists",
      "value": "optional-value",
      "effect": "NoSchedule"
    }
  },
  {
    "spec": {
      "key": "example-key2", 
      "operator": "Exists",
      "value": "optional-value2",
      "effect": "NoSchedule"
    }
  }
]

Instalação de várias instâncias do Automation Suite em um único cluster

Se você instalar várias instâncias do Automation Suite no mesmo cluster, você precisa criar um arquivo input.json diferente para cada instalação e preencher os valores JSON com recursos diferentes, como:
  • FQDN - Cada instalação deve ter um FQDN diferente.
  • Namespace - Cada instalação deve ter um namespace diferente. Forneça o valor do namespace no qual você concedeu todas as permissões para que o Automation Suite seja instalado.
  • argocd.application_namespace - Deve ser o mesmo que o namespace no qual o Automation Suite tem todas as permissões para ser instalado.
  • argocd.project - Padrão.
  • fabric.redis - Preencha os detalhes sobre as diferentes instalações do redis, estejam elas localizadas interna ou externamente ao cluster do OpenShift.
  • SQL - Preencha os detalhes sobre os diferentes bancos de dados, estejam eles localizados internamente ou externamente ao cluster do OpenShift.
  • sql_connection_string _template – Preencha os detalhes sobre os diferentes bancos de dados, estejam eles localizados interna ou externamente ao cluster do OpenShift.

Esses diferentes recursos podem ser o serviço do Redis, o banco de dados ou o namespace. Na anotação do serviço Ingress, no entanto, o IP do balanceador de carga será um IP comum que aponta para o mesmo cluster do OpenShift.

Configuração específica do Orchestrator

O Orchestrator pode salvar logs de robô em um servidor do Elasticsearch. Você pode configurar esta funcionalidade na seção orchestrator.orchestrator_robot_logs_elastic. Se não forem fornecidos, os logs de robô serão salvos no banco de dados do Orchestrator.
A tabela a seguir lista os parâmetros orchestrator.orchestrator_robot_logs_elastic:

Parâmetro

Description

orchestrator_robot_logs_elastic

Configuração do Elasticsearch.

elastic_uri

O endereço da instância do Elasticsearch que deve ser usado. Ele deve ser fornecido na forma de um URI. Se fornecidos, o nome de usuário e senha também são necessários.

elastic_auth_username

O nome de usuário do Elasticsearch, usado para autenticação.

elastic_auth_password

A senha do Elasticsearch, usada para autenticação.

Configuração específica do Insights

Se habilitar o Insights, os usuários podem incluir a configuração do servidor SMTP que será usada para enviar emails agendados/emails de alerta. Se não for fornecida, os emails agendados e os emails de alerta não funcionarão.

Os detalhes dos campos insights.smtp_configuration:

Parâmetro

Description

tls_version

Os valores válidos são TLSv1_2, TLSv1_1, SSLv23. Omita a chave completamente se não estiver usando TLS.

from_email

Endereço do qual os emails de alerta/agendados serão enviados.

host

Nome do host do servidor SMTP.

port

Porta do servidor SMTP.

username

Nome de usuário para a autenticação do servidor SMTP.

password

Senha para a autenticação do servidor SMTP.

enable_realtime_monitoringSinalize para habilitar o monitoramento em tempo real do Insights. Os valores válidos são true, false. O valor padrão é false.

Exemplo

"insights": {
    "enabled": true,
    "enable_realtime_monitoring": true,
    "smtp_configuration": {
      "tls_version": "TLSv1_2",
      "from_email": "test@test.com",
      "host": "smtp.sendgrid.com",
      "port": 587,
      "username": "login",
      "password": "password123"
    }
  }"insights": {
    "enabled": true,
    "enable_realtime_monitoring": true,
    "smtp_configuration": {
      "tls_version": "TLSv1_2",
      "from_email": "test@test.com",
      "host": "smtp.sendgrid.com",
      "port": 587,
      "username": "login",
      "password": "password123"
    }
  }

Process Mining-specific configuration

Se habilitar o Process Mining, recomendamos que os usuários especifiquem um SECONDARY SQL Server para atuar como um data warehouse separado do Automation Suite SQL Server primário. O SQL Server do armazém de dados estará sob carga pesada e pode ser configurado na seção processmining :

Parâmetro

Description

sql_connection_str

Cadeia de conexão formatada DotNet com banco de dados definido como um espaço reservado: Initial Catalog=DB_NAME_PLACEHOLDER.

airflow.metadata_db_connection_str

Observação: isso se aplica ao banco de dados PostgreSQL AutomationSuite Airflow e é recomendado para a versão 2024.10.3 ou superior.
String de conexão formatada em Sqlalchemy PSYCOPG2 para localização do banco de dados de metadados do Airflow personalizado: PostgreSQL:5432/DB_NAME_PLACEHOLDER.

Exemplo:

postgresql+psycopg2://testadmin:<password>@postgres.company.com:5432/DB_NAME_PLACEHOLDER

Observação:
Você também pode usar o metadata_db_connection_str na seção processmining no nível global no cluster_config.json para fornecer o valor para o metabanco do Airflow. Nesse caso, o airflow.metadata_db_connection_str é opcional.
"processmining": { 
    "enabled": true,
    "app_security_mode": "system_managed",
    "airflow": {
      "metadata_db_connection_str": "postgresql+psycopg2://testadmin:<password>@sfdev8454496-postgresql.postgres.database.azure.com:5432/AutomationSuite_Airflow"},"processmining": { 
    "enabled": true,
    "app_security_mode": "system_managed",
    "airflow": {
      "metadata_db_connection_str": "postgresql+psycopg2://testadmin:<password>@sfdev8454496-postgresql.postgres.database.azure.com:5432/AutomationSuite_Airflow"},

sqlalchemy_pyodbc_sql_connection_str

Observação:
Isso é aplicável apenas para o banco de dados Microsoft SQL Server AutomationSuite Airflow e não pode mais ser usado a partir da versão 2025.10.
String de conexão formatada PYODBC do Sqlalchemy para local do banco de dados de metadados do airflow personalizado: sqlServer:1433/DB_NAME_PLACEHOLDER.

Exemplo:

mssql+pyodbc://testadmin%40myhost:mypassword@myhost:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES

Onde

Usuário: testadmin%40myhost
Observação:

Se houver "@" no nome do usuário, ele deverá ser codificado com URL como %40

Exemplo: (configuração do SQL Server com autenticação do Kerberos)

mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes

warehouse.sql_connection_str

Cadeia de conexão SQL formatada em DotNet para o data warehouse de processmining SQL Server com espaço reservado para dbname:

Initial Catalog=DB_NAME_PLACEHOLDER.

warehouse.sqlalchemy_pyodbc_sql_connection_str

String de conexão SQL formatada Sqlalchemy PYODBC para o data warehouse de processmining SQL Server com espaço reservado para dbname:

sqlServer:1433/DB_NAME_PLACEHOLDER.

warehouse.master_sql_connection_str

Se o instalador estiver criando bancos de dados por meio da configuração sql.create_db: true , uma string de conexão SQL mestre formatada em DotNet deve ser fornecida para o SQL Server do data warehouse de processmining. O banco de dados na cadeia de conexão deve ser definido como master.
Exemplo de string de conexão do Process Mining com PostgreSQL para AutomationSuite_Airflow
"processmining": {
    "enabled": true,
    "app_security_mode": "system_managed",
    "airflow": {
      "metadata_db_connection_str": "postgresql+psycopg2://testadmin:<password>@sfdev8454496-postgresql.postgres.database.azure.com:5432/AutomationSuite_Airflow"
    },
    "warehouse": {
      "sql_connection_str": "Server=tcp:kerberossql.autosuitead.local,1433;Initial Catalog=AutomationSuite_Warehouse;Persist Security Info=False;User Id=testadmin;Password='<password>';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
      "sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin:<password>@kerberossql.autosuitead.local:1433/AutomationSuite_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
      "master_sql_connection_str": "Server=tcp:kerberossql.autosuitead.local,1433;Initial Catalog=master;Persist Security Info=False;User Id=testadmin;Password='<password>';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;""processmining": {
    "enabled": true,
    "app_security_mode": "system_managed",
    "airflow": {
      "metadata_db_connection_str": "postgresql+psycopg2://testadmin:<password>@sfdev8454496-postgresql.postgres.database.azure.com:5432/AutomationSuite_Airflow"
    },
    "warehouse": {
      "sql_connection_str": "Server=tcp:kerberossql.autosuitead.local,1433;Initial Catalog=AutomationSuite_Warehouse;Persist Security Info=False;User Id=testadmin;Password='<password>';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
      "sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin:<password>@kerberossql.autosuitead.local:1433/AutomationSuite_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
      "master_sql_connection_str": "Server=tcp:kerberossql.autosuitead.local,1433;Initial Catalog=master;Persist Security Info=False;User Id=testadmin;Password='<password>';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"

Exemplo de string de conexão do Process Mining com o Microsoft SQL Server para AutomationSuite_Airflow
"processmining": {
    "enabled": true,
    "app_security_mode": "system_managed",
    "warehouse": {
        "sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='password';Persist Security Info=False;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
	    "sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:<password>:@sfdev4515230-sql.database.windows.net:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
        "master_sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=master;Persist Security Info=False;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
    },
    "sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:<password>@sfdev4515230-sql.database.windows.net:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES"
    "sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Metadata;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='password';Persist Security Info=False;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",  
},"processmining": {
    "enabled": true,
    "app_security_mode": "system_managed",
    "warehouse": {
        "sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='password';Persist Security Info=False;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
	    "sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:<password>:@sfdev4515230-sql.database.windows.net:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
        "master_sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=master;Persist Security Info=False;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
    },
    "sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:<password>@sfdev4515230-sql.database.windows.net:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES"
    "sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Metadata;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='password';Persist Security Info=False;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",  
},
Observação:
Ao usar a autenticação do Kerberos, utilize os parâmetros Integrated Security e Trusted_Connection . Ao definir Integrated Security como true e definir Trusted_Connection como yes, as credenciais do usuário atualmente logado serão usadas para a conexão. Nesse caso, você não precisa especificar um nome de usuário e senha separados.
Importante:
Se você usar o Microsoft SQL Server para o banco de dados AutomationSuite_Airflow , certifique-se de atender aos seguintes requisitos.
  • Certifique-se de que o fuso horário da máquina SQL Server onde o banco de dados Airflow está instalado, esteja definido como UTC.

  • Você deve usar a porta padrão do servidor 1433 para as conexões do banco de dados do Airflow. As portas do servidor SQL não padrão não são suportadas.
Atenção:

Ao configurar as strings de conexão para o SQL Server do data warehouse do Process Mining, a instância nomeada do SQL Server deve ser omitida.

As instâncias nomeadas do SQL Server não podem operar na mesma porta TCP. Portanto, o número da porta por si só é suficiente para distinguir entre instâncias.

Por exemplo, use tcp:server,1445 em vez de tcp:server\namedinstance,1445.
Importante:
Observe que os nomes para a string de conexão PYODBC postgresql_connection_string_template_sqlalchemy_pyodbc (para PostgreSQL) respectivamente sql_connection_string_template_sqlalchemy_pyodbc (para MS SQL Server) e a string de conexão PYODBC sqlalchemy_pyodbc_sql_connection_str usadas quando você traz seu próprio banco de dados são diferentes. Além disso, os nomes das strings de conexão são diferentes para o modelo SQL sql_connection_string_template e sql_connection_str usado quando você traz seu próprio banco de dados.
Importante:
Se você trouxer seu próprio banco de dados e configurou isso usando as strings de conexão sql_connection_str e sqlalchemy_pyodbc_sql_connection_str ou airflow.metadata_db_connection_str na seção processmining do arquivo input.json , as strings de conexão do modelo sql_connection_string_template e postgresql_connection_string_template_sqlalchemy_pyodbc ( para PostgreSQL) respectivamente sql_connection_string_template_sqlalchemy_pyodbc (para MS SQL Server) são ignorados se especificados.

Automation Suite Robots-specific configuration

Os robôs do Automation Suite podem usar o cache de pacotes para otimizar a execução do processo e permitir que sejam executados mais rapidamente. Os pacotes NuGet são obtidos do sistema de arquivos em vez de serem baixados da Internet/rede. Isso requer um espaço adicional mínimo de 10 GB e deve ser alocado para uma pasta no sistema de arquivos da máquina host dos nós dedicados.

Para habilitar o armazenamento em cache de pacotes, você precisa atualizar os seguintes parâmetros input.json :

Parâmetro

Valor padrão

Description

packagecaching

true

Quando definido como true, os robôs usam um cache local para resolução de pacote.

packagecachefolder

/uipath_asrobots_package_cache

O local do disco no nó do agente sem servidor em que os pacotes são armazenados.

Configuração específica do AI Center

Para que o AI Center funcione corretamente, você deve configurar os parâmetros aicenter.external_object_storage.port e aicenter.external_object_storage.fqdn no arquivo input.json .
Observação: você deve configurar os parâmetros na seção aicenter do arquivo input.json , mesmo que você tenha configurado a seção external_object_storage do arquivo.
O exemplo a seguir mostra uma configuração input.jsonválida para o AI Center:
"aicenter": {
  "external_object_storage" {
    "port": 443,
    "fqdn": "s3.us-west-2.amazonaws.com"
  }
},
"external_object_storage": {
  "enabled": true,
  "create_bucket": false,
  "storage_type": "s3", 
  "region": "us-west-2", 
  "use_instance_profile": true
}
..."aicenter": {
  "external_object_storage" {
    "port": 443,
    "fqdn": "s3.us-west-2.amazonaws.com"
  }
},
"external_object_storage": {
  "enabled": true,
  "create_bucket": false,
  "storage_type": "s3", 
  "region": "us-west-2", 
  "use_instance_profile": true
}
...

Esta página foi útil?

Obtenha a ajuda que você precisa
Aprendendo RPA - Cursos de automação
Fórum da comunidade da Uipath
Uipath Logo White
Confiança e segurança
© 2005-2025 UiPath. Todos os direitos reservados.