- Visão geral
- Requisitos
- Pré-instalação
- Preparação da instalação
- Instalação e configuração do service mesh
- Baixando os pacotes de instalação
- Configuração do registro compatível com OCI
- Concessão de permissões de instalação
- Instalando e configurando a ferramenta GitOps
- Implantação do Redis pelo OperatorHub
- Aplicação de configurações diversas
- Executando o uipathctl
- Instalação
- Pós-instalação
- Migração e atualização
- Atualizando o Automação Suite
- Migração de produtos independentes para o Automation Suite
- Etapa 1: restauração do banco de dados de produtos independente
- Etapa 2: atualizar o esquema do banco de dados de produtos restaurado
- Etapa 3: migração dos dados da organização do Identity de independente para o Automation Suite
- Etapa 4: backup do banco de dados da plataforma no Automation Suite
- Etapa 5: mesclando organizações no Automation Suite
- Etapa 6: atualização das strings de conexão do produto migradas
- Etapa 7: migração do Orchestrator independente
- Etapa 8: migração do Insights independente
- Etapa 9: exclusão do tenant padrão
- Executando uma migração de único tenant
- Migração entre clusters do Automation Suite
- Administração de cluster
- Configuração específica do produto
- Configuração de parâmetros do Orchestrator
- Configuração do AppSettings
- Configuração do tamanho máximo da solicitação
- Substituição da configuração de armazenamento no nível do cluster
- Configuração do NLog
- Salvando logs do robô no Elasticsearch
- Configuração dos repositórios de credenciais
- Configuração da chave de criptografia por tenant
- Limpeza do banco de dados do Orchestrator
- Solução de problemas

Guia de instalação do Automation Suite no OpenShift
Armazenamento
Além do Microsoft SQL Server, o cluster do Automation Suite requer um componente de armazenamento para armazenar os arquivos. O Automation Suite requer o objectstore e o armazenamento em bloco/arquivo, dependendo do tipo de serviço que você escolher.
Os serviços a seguir exigem o componente de armazenamento. Eles são necessários apenas se você tiver optado por habilitá-los como parte da instalação do Automation Suite ou posteriormente.
Serviço |
Tipo de armazenamento |
Finalidade |
Estimativa |
---|---|---|---|
Orchestrator |
Armazenamento de objeto |
|
Normalmente, um pacote tem 5 Mb e os buckets, se houver, têm menos de 1 Mb. Uma Enterprise madura implanta cerca de 10 GB de pacotes e 12 GB de Filas. |
Action Center |
Armazenamento de objeto |
|
Normalmente, um documento leva 0,15 Mb e os formulários a serem preenchidos levam 0,15 Kb adicionais. Em uma empresa madura, isso pode totalizar 4 GB. |
Test Manager |
Armazenamento de objeto |
|
Normalmente, todos os arquivos e anexos somam aproximadamente 5 Gb. |
Insights |
Blockstore |
|
2 GB são necessários para habilitação, com o espaço para dados inativos (pegada de disco) crescendo conforme número. Uma implantação em escala Enterprisebem estabelecida requer mais alguns GB para todos os painéis. Cerca de 10 GB de armazenamento devem ser suficientes. |
Apps |
Armazenamento de objeto |
|
Normalmente, o banco de dados leva aproximadamente 5 GB e um aplicativo complexo típico consome cerca de 15 Mb. |
AI Center |
Objectstore/Filestore |
|
Uma instalação típica e estabelecida consumirá 8 GB para cinco pacotes e 1 GB adicionais para os conjuntos de dados. Um pipeline pode consumir um adicional de 50 GB de armazenamento em bloco, mas apenas quando estiver em execução ativa. |
Document Understanding |
Armazenamento de objeto |
|
Em uma implantação madura, 12 GB irão para o modelo ML, 17 GB para o OCR e 50 GB para todos os documentos armazenados. |
Automation Suite Robots |
Armazenamento de arquivos |
|
Normalmente, uma empresa madura implanta cerca de 10 GB de pacotes. |
Process Mining |
Armazenamento de objeto |
|
O espaço mínimo é usado apenas para armazenar os arquivos SQL. aproximadamente um GB de armazenamento deve ser suficiente no início. |
O Automation Suite suporta os seguintes objetos:
-
Armazenamento de Blobs do Azure
-
Armazenamento do AWS S3
-
Objectstore compatível com S3. O OpenShift fornece o OpenShift Data Foundation, um objectstore compatível com S3 baseado no Ceph. Para instalar o OpenShift Data Foundation, consulte Introdução ao OpenShift Data Foundation.
-
Para criar um bucket do objectstore no OpenShift Data Foundation, você deve criar um
ObjectBucketClaim
para cada bucket, correspondendo a cada produto que você planeja instalar. O exemplo a seguir mostra umObjectBucketClaim
válido:Observação: a configuração que fornecemos no exemplo é necessária apenas se você criar os buckets no OpenShift Data Foundation.apiVersion: objectbucket.io/v1alpha1 kind: ObjectBucketClaim metadata: name: BUCKET_NAME namespace: <uipath> spec: bucketName: BUCKET_NAME storageClassName: openshift-storage.noobaa.io
apiVersion: objectbucket.io/v1alpha1 kind: ObjectBucketClaim metadata: name: BUCKET_NAME namespace: <uipath> spec: bucketName: BUCKET_NAME storageClassName: openshift-storage.noobaa.io -
A aplicação do manifesto cria um segredo chamado
BUCKET_NAME
no namespace.<uipath>
O segredo contém oaccess_key
e osecret_key
para esse bucket. Para consultar oaccess_key
e osecret_key
, execute o seguinte comando:oc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_ACCESS_KEY_ID} | base64 -d; echo oc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_SECRET_ACCESS_KEY} | base64 -d; echo
oc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_ACCESS_KEY_ID} | base64 -d; echo oc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_SECRET_ACCESS_KEY} | base64 -d; echo -
Para encontrar o host ou FQDN para acessar o bucket, execute o seguinte comando:
oc get routes s3 -o jsonpath={.spec.host} -n openshift-storage; echo
oc get routes s3 -o jsonpath={.spec.host} -n openshift-storage; echo
Além disso, você pode ter que habilitar a seguinte política do CORS no nível da conta/bucket de armazenamento se encontrar qualquer erro relacionado ao CORS durante a conexão do S3 ao usar o cluster do Automation Suite .
{{fqdn}}
pelo FQDN do cluster do Automation Suite na seguinte política do CORS.
O exemplo a seguir mostra a política do CORS no formato JSON:
[
{
"AllowedHeaders": [
"*"
],
"AllowedMethods": [
"POST",
"GET",
"HEAD",
"DELETE",
"PUT"
],
"AllowedOrigins": [
"https://{{fqdn}}"
],
"ExposeHeaders": [
"etag",
"x-amz-server-side-encryption",
"x-amz-request-id",
"x-amz-id-2"
],
"MaxAgeSeconds": 3000
}
]
[
{
"AllowedHeaders": [
"*"
],
"AllowedMethods": [
"POST",
"GET",
"HEAD",
"DELETE",
"PUT"
],
"AllowedOrigins": [
"https://{{fqdn}}"
],
"ExposeHeaders": [
"etag",
"x-amz-server-side-encryption",
"x-amz-request-id",
"x-amz-id-2"
],
"MaxAgeSeconds": 3000
}
]
O exemplo a seguir mostra a política do CORS no formato XML:
<CORSConfiguration>
<CORSRule>
<AllowedOrigin>{{fqdn}}</AllowedOrigin>
<AllowedMethod>HEAD</AllowedMethod>
<AllowedMethod>GET</AllowedMethod>
<AllowedMethod>PUT</AllowedMethod>
<AllowedMethod>POST</AllowedMethod>
<AllowedMethod>DELETE</AllowedMethod>
<AllowedHeader>*</AllowedHeader>
<MaxAgeSeconds>3000</MaxAgeSeconds>
<ExposeHeader>x-amz-server-side-encryption</ExposeHeader>
<ExposeHeader>x-amz-request-id</ExposeHeader>
<ExposeHeader>x-amz-id-2</ExposeHeader>
<ExposeHeader>etag</ExposeHeader>
</CORSRule>
</CORSConfiguration>
<CORSConfiguration>
<CORSRule>
<AllowedOrigin>{{fqdn}}</AllowedOrigin>
<AllowedMethod>HEAD</AllowedMethod>
<AllowedMethod>GET</AllowedMethod>
<AllowedMethod>PUT</AllowedMethod>
<AllowedMethod>POST</AllowedMethod>
<AllowedMethod>DELETE</AllowedMethod>
<AllowedHeader>*</AllowedHeader>
<MaxAgeSeconds>3000</MaxAgeSeconds>
<ExposeHeader>x-amz-server-side-encryption</ExposeHeader>
<ExposeHeader>x-amz-request-id</ExposeHeader>
<ExposeHeader>x-amz-id-2</ExposeHeader>
<ExposeHeader>etag</ExposeHeader>
</CORSRule>
</CORSConfiguration>
Para configurar o objectstore, consulte Configuração do Objectstore Externo.
make
. Ou então, você pode provisionar os contêineres/buckets necessários antes da instalação e suas informações para o instalador.
Armazenamento |
Requisito |
---|---|
Armazenamento de objeto |
500 GB |
O tamanho do objectstore depende do tamanho da automação implantada e em execução. Portanto, pode ser difícil fornecer uma estimativa precisa do objectstore inicialmente durante a instalação. Você pode começar com um tamanho de objectstore de 350 GB a 500 GB. Para entender o uso do objectstore, consulte Estimativa de armazenamento para cada componente do Automation Suite.
-
À medida que sua automação escala, você pode precisar considerar o aumento no tamanho de seu objectstore.
-
Se você usar buckets criados no OpenShift Data Foundation, deverá provisionar explicitamente os buckets e fornecer os detalhes para cada produto no arquivo
input.json
.Para obter mais informações sobre como fornecer informações do bucket explicitamente no arquivoinput.json
, consulte a seção Configuração específica do produto .
O armazenamento em bloco deve ter drivers CSI configurados com as classes de armazenamento do Kubernetes.
A tabela a seguir fornece detalhes do armazenamento de blocos, classe de armazenamento e provisionador:
Nuvem/Kubernetes |
Armazenamento |
ClasseDeArmazenamento |
Provisionador |
---|---|---|---|
AWS |
Volumes de EBS |
|
|
Azure |
Disco de gerenciamento do Azure |
Disco LRS Premium |
|
OpenShift |
OpenShift Data Foundation |
|
|
StorageClass
correspondente que seu fornecedor de armazenamento fornecer.
Você pode seguir o guia oficial da Red Hat para criar uma classe de armazenamento em seu cluster do OpenShift.
storage_class
no arquivo input.json
.
-
No OpenShift, os drivers CSI são instalados automaticamente e a classe de armazenamento é criada durante a instalação do OpenShift Data Foundation. Se essas classes de armazenamento não estiverem configuradas, você deve configurá-las antes da instalação do Automation Suite.
-
Você deve tornar a classe de armazenamento para o armazenamento de blocos a padrão, conforme mostrado no exemplo a seguir.
Exemplo
input.json
durante a instalação:
Configuração | input.json | StorageClass |
---|---|---|
Azure |
|
|
AWS |
|
|
OpenShift |
|
|
Configuração |
Requisito |
---|---|
Armazenamento de blocos |
50 GB |
O tamanho do armazenamento de blocos depende do tamanho da automação implantada e em execução. Portanto, pode ser difícil fornecer uma estimativa precisa inicialmente durante a instalação. Você pode começar com um tamanho de armazenamento em bloco de 50 GB. Para entender o uso do armazenamento de blocos, consulte Estimativa de armazenamento para cada componente do Automation Suite.
O armazenamento de arquivos deve ter drivers CSI configurados com as classes de armazenamento do Kubernetes.
O armazenamento de arquivos é necessário para os componentes que não requerem qualquer replicação. No entanto, se você não tiver um sistema de arquivos, poderá substituir o armazenamento de arquivos pelo armazenamento em blocos.
Nuvem/Kubernetes |
Armazenamento |
ClasseDeArmazenamento |
Provisionador |
---|---|---|---|
AWS |
EFS |
|
|
Azure |
Arquivos do Azure |
azurefile-csi-premium *
|
|
OpenShift |
OpenShift Data Foundation |
|
|
azurefile-csi-premium
para o Studio Web no AKS.
* Recomenda-se configurar o ZRS (ou replicação) para o armazenamento do Studio Web para garantir a alta disponibilidade.
StorageClass
correspondente que seu fornecedor de armazenamento fornecer.
Você pode seguir o guia oficial da Red Hat para criar uma classe de armazenamento em seu cluster do OpenShift.
storage_class_single_replica
no arquivo input.json
.
No OpenShift, os drivers CSI são instalados automaticamente e a classe de armazenamento é criada durante a instalação do OpenShift Data Foundation. Se a classe de armazenamento não estiver configurada, você deve configurá-la antes da instalação do Automation Suite.
Exemplo
input.json
durante a instalação:
Configuração |
|
|
---|---|---|
Azure |
|
|
AWS |
|
Observação:
Substitua
$(EFS_ID) pelo ID do compartilhamento de arquivos real que você criou ao provisionar a infraestrutura.
|
OpenShift |
|
|
A classe de armazenamento para o compartilhamento de arquivos deve ter as permissões necessárias definidas como 700 para o diretório e arquivos.
UID
e GID
devem ser definidos como 1000 no Azure, e gidRangeStart
e gidRangeEnd
como 1000 e 2000, respectivamente, na AWS.
Armazenamento |
Requisito |
---|---|
Armazenamento de arquivos |
510 GB |
O tamanho do armazenamento de arquivos depende do tamanho da automação implantada e em execução. Portanto, pode ser difícil fornecer uma estimativa real inicialmente, durante a instalação. No entanto, você deve esperar que aproximadamente 510 GB de tamanho de armazenamento seja suficiente para executar dez pipelines de treinamento simultâneos e para os Automation Suite Robots. Para entender o uso do armazenamento de arquivos, consulte Estimativa de armazenamento para cada componente do Automation Suite.
À medida que sua automação escala, talvez você precise considerar um aumento no tamanho do seu armazenamento de arquivos.
- Estimativa de armazenamento para cada componente do Automation Suite
- Serviços de plataforma da UiPath®
- Armazenamento de objeto
- Configuração do OpenShift Data Foundation
- Configuração da política CORS
- Configuração
- Requisitos de armazenamento
- Armazenamento de blocos
- Configuração
- Requisitos de armazenamento
- Armazenamento de arquivos
- Configuração
- Requisitos de armazenamento