- Información general
- Requisitos
- Preinstalación
- Preparar la instalación
- Instalar y configurar la malla de servicio
- Descarga de los paquetes de instalación
- Configurar el registro compatible con OCI
- Conceder permisos de instalación
- Instalar y configurar la herramienta GitOps
- Implementar Redis a través de OperatorHub
- Aplicar configuraciones varias
- Ejecutar uipathctl
- Instalación
- Después de la instalación
- Migración y actualización
- Actualizar Automation Suite
- Migrar productos independientes a Automation Suite
- Paso 1: restaurar la base de datos del producto independiente
- Paso 2: actualizar el esquema de la base de datos del producto restaurada
- Paso 3: mover los datos de la organización de Identity de independiente a Automation Suite
- Paso 4: Realizar una copia de seguridad de la base de datos de la plataforma en Automation Suite
- Paso 5: Fusionar organizaciones en Automation Suite
- Paso 6: actualizar las cadenas de conexión del producto migradas
- Paso 7: migrar Orchestrator independiente
- Paso 8: migrar Insights independiente
- Paso 9: eliminar el tenant predeterminado
- Realizar una migración de un solo tenant
- Migrar entre clústeres de Automation Suite
- Supervisión y alertas
- Administración de clústeres
- Configuración específica del producto
- Configurar parámetros de Orchestrator
- Configurar AppSettings
- Configurar el tamaño máximo de la solicitud
- Anular la configuración de almacenamiento a nivel de clúster
- Configurar NLog
- Guardar los registros del robot en Elasticsearch
- Configurar almacenes de credenciales
- Configurar clave de cifrado por tenant
- Limpiar la base de datos de Orchestrator
- Solución de problemas

Guía de instalación de Automation Suite en OpenShift
Además de Microsoft SQL Server, el clúster de Automation Suite requiere un componente de almacenamiento para almacenar los archivos. Automation Suite requiere el almacén de objetos y el almacenamiento de bloques/archivos, dependiendo del tipo de servicio que elijas.
Servicios de la plataforma UiPath®
Los siguientes servicios requieren el componente de almacenamiento. Estos solo son necesarios si ha optado por habilitarlos como parte de la instalación de Automation Suite o posteriormente.
|
Servicio |
Tipo de almacenamiento |
Propósito |
Estimación |
|---|---|---|---|
|
Orchestrator |
Almacén de objetos |
|
Normalmente, un paquete pesa 5 Mb y los depósitos, si los hay, son inferiores a 1 Mb. Una Enterprise madura implementa alrededor de 10 GB de paquetes y 12 GB de colas. |
|
Action Center |
Almacén de objetos |
|
Normalmente, un documento ocupa 0,15 Mb, y los formularios a rellenar ocupan 0,15 Kb adicionales. En una empresa madura, esto puede sumar un total de 4 GB. |
|
Test Manager |
Almacén de objetos |
|
Normalmente, el conjunto de archivos y adjuntos suman hasta, aproximadamente, 5 Gb. |
|
Insights |
Blockstore |
|
Se requieren 2 GB para la habilitación, y la huella de almacenamiento aumenta con el número. Una implementación de escala Enterpriseconsolidada requiere otros pocos GB para todos los paneles. Aproximadamente 10 GB de almacenamiento deberían ser suficientes. |
|
Apps |
Almacén de objetos |
|
Normalmente, la base de datos ocupa aproximadamente 5 GB y una aplicación compleja típica consume unos 15 Mb. |
|
AI Center |
Almacén de objetos / almacén de archivos |
|
Una instalación típica y establecida consumirá 8 GB para cinco paquetes y 1 GB adicional para los conjuntos de datos. Un proceso puede consumir 50 GB adicionales de almacenamiento en bloque, pero solo cuando se ejecuta activamente. |
|
Document Understanding |
Almacén de objetos |
|
En una implementación madura, 12 GB se asignarán al modelo ML, 17 GB al OCR y 50 GB a todos los documentos almacenados. |
|
Automation Suite Robots |
Almacén de archivos |
|
Normalmente, una empresa madura implementa alrededor de 10 GB de paquetes. |
|
Process Mining |
Almacén de objetos |
|
El espacio mínimo solo se utiliza para almacenar archivos SQL. Aproximadamente un GB de almacenamiento debería ser suficiente al principio. |
Automation Suite admite los siguientes almacenes de objetos:
-
Almacenamiento de blobs de Azure
-
Almacenamiento de AWS S3
-
Almacén de objetos compatible con S3. OpenShift proporciona OpenShift Data Foundation, un almacén de objetos compatible con S3 basado en Ceph. Para instalar OpenShift Data Foundation, consulta Introducción a OpenShift Data Foundation.
Configurar la infraestructura de datos de OpenShift
- Para crear un depósito de almacén de objetos en OpenShift Data Foundation (ODF), debes crear un
ObjectBucketClaimpara cada depósito, correspondiente a cada producto que planeas instalar.Importante:El siguiente ejemplo muestra unAl utilizar ODF como almacén de objetos en versiones de clúster de OpenShift anteriores a la 4.19, no se puede configurar CORS. Esta limitación puede evitar que los servicios funcionen correctamente con depósitos ODF. Para garantizar la compatibilidad, establece"disable_presigned_url": trueen tu archivoinput.json.Si se produce un error al aplicar esta configuración, consulta la sección Resolución de problemas .
ObjectBucketClaimválido:Nota: La configuración que proporcionamos en la muestra solo es necesaria si creas los depósitos en OpenShift Data Foundation.apiVersion: objectbucket.io/v1alpha1 kind: ObjectBucketClaim metadata: name: BUCKET_NAME namespace: <uipath> spec: bucketName: BUCKET_NAME storageClassName: openshift-storage.noobaa.ioapiVersion: objectbucket.io/v1alpha1 kind: ObjectBucketClaim metadata: name: BUCKET_NAME namespace: <uipath> spec: bucketName: BUCKET_NAME storageClassName: openshift-storage.noobaa.io -
Al aplicar el manifiesto se crea un secreto llamado
BUCKET_NAMEen el espacio de nombres<uipath>. El secreto contiene elaccess_keyy elsecret_keypara ese depósito. Para consultaraccess_keyysecret_key, ejecuta el siguiente comando:oc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_ACCESS_KEY_ID} | base64 -d; echo oc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_SECRET_ACCESS_KEY} | base64 -d; echooc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_ACCESS_KEY_ID} | base64 -d; echo oc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_SECRET_ACCESS_KEY} | base64 -d; echo -
Para encontrar el host o FQDN para acceder al depósito, ejecuta el siguiente comando:
oc get routes s3 -o jsonpath={.spec.host} -n openshift-storage; echooc get routes s3 -o jsonpath={.spec.host} -n openshift-storage; echo
Configurar la política de CORS
Además, es posible que deba habilitar la siguiente política de CORS en el nivel de cuenta / depósito de almacenamiento si se enfrenta a cualquier error relacionado con el CORS durante la conexión de S3 mientras utiliza el clúster de Automation Suite .
{{fqdn}} por el FQDN del clúster de Automation Suite en la siguiente política CORS.
El siguiente ejemplo muestra la política CORS en formato JSON:
[
{
"AllowedHeaders": [
"*"
],
"AllowedMethods": [
"POST",
"GET",
"HEAD",
"DELETE",
"PUT"
],
"AllowedOrigins": [
"https://{{fqdn}}"
],
"ExposeHeaders": [
"etag",
"x-amz-server-side-encryption",
"x-amz-request-id",
"x-amz-id-2"
],
"MaxAgeSeconds": 3000
}
][
{
"AllowedHeaders": [
"*"
],
"AllowedMethods": [
"POST",
"GET",
"HEAD",
"DELETE",
"PUT"
],
"AllowedOrigins": [
"https://{{fqdn}}"
],
"ExposeHeaders": [
"etag",
"x-amz-server-side-encryption",
"x-amz-request-id",
"x-amz-id-2"
],
"MaxAgeSeconds": 3000
}
]El siguiente ejemplo muestra la política CORS en formato XML:
<CORSConfiguration>
<CORSRule>
<AllowedOrigin>{{fqdn}}</AllowedOrigin>
<AllowedMethod>HEAD</AllowedMethod>
<AllowedMethod>GET</AllowedMethod>
<AllowedMethod>PUT</AllowedMethod>
<AllowedMethod>POST</AllowedMethod>
<AllowedMethod>DELETE</AllowedMethod>
<AllowedHeader>*</AllowedHeader>
<MaxAgeSeconds>3000</MaxAgeSeconds>
<ExposeHeader>x-amz-server-side-encryption</ExposeHeader>
<ExposeHeader>x-amz-request-id</ExposeHeader>
<ExposeHeader>x-amz-id-2</ExposeHeader>
<ExposeHeader>etag</ExposeHeader>
</CORSRule>
</CORSConfiguration><CORSConfiguration>
<CORSRule>
<AllowedOrigin>{{fqdn}}</AllowedOrigin>
<AllowedMethod>HEAD</AllowedMethod>
<AllowedMethod>GET</AllowedMethod>
<AllowedMethod>PUT</AllowedMethod>
<AllowedMethod>POST</AllowedMethod>
<AllowedMethod>DELETE</AllowedMethod>
<AllowedHeader>*</AllowedHeader>
<MaxAgeSeconds>3000</MaxAgeSeconds>
<ExposeHeader>x-amz-server-side-encryption</ExposeHeader>
<ExposeHeader>x-amz-request-id</ExposeHeader>
<ExposeHeader>x-amz-id-2</ExposeHeader>
<ExposeHeader>etag</ExposeHeader>
</CORSRule>
</CORSConfiguration>Configuración
Para configurar el almacén de objetos, consulta Configuración del almacén de objetos externo.
make . También puedes aprovisionar los contenedores / depósitos necesarios antes de la instalación y su información al instalador.
Requisitos de almacenamiento
|
Almacenamiento |
Requisitos |
|---|---|
|
Almacén de objetos |
500 GB |
El tamaño del almacén de objetos depende del tamaño de la automatización implementada y en ejecución. Por lo tanto, puede ser un desafío proporcionar una estimación precisa del almacén de objetos inicialmente durante la instalación. Puedes empezar con un tamaño de almacén de objetos de 350 GB a 500 GB. Para comprender el uso del almacén de objetos, consulta Estimación de almacenamiento para cada componente de Automation Suite.
-
A medida que tu automatización escala, es posible que debas tener en cuenta el aumento del tamaño de tu almacén de objetos.
-
Si utilizas depósitos creados en OpenShift Data Foundation, debes aprovisionar explícitamente los depósitos y proporcionar los detalles de cada producto en el archivo
input.json.Para obtener más información sobre cómo proporcionar información del depósito de forma explícita en el archivoinput.json, consulta la sección Configuración específica del producto .
El almacenamiento en bloque debe tener controladores CSI configurados con las clases de almacenamiento de Kubernetes.
La siguiente tabla proporciona detalles del almacenamiento en bloque, la clase de almacenamiento y el aprovisionador:
|
Nube/Kubernetes |
Almacenamiento |
ClaseDeAlmacenamiento |
Aprovisionador |
|---|---|---|---|
|
AWS |
Volúmenes de EBS |
|
|
|
Azure |
Administración de disco de Azure |
Disco LRS premium |
|
|
OpenShift |
Infraestructura de datos de OpenShift |
|
|
StorageClass correspondiente que te proporcione tu proveedor de almacenamiento.
Configuración
Puedes seguir la guía oficial de Red Hat para crear una clase de almacenamiento en tu clúster de OpenShift.
storage_class en el archivo input.json .
-
En OpenShift, los controladores CSI se instalan automáticamente y la clase de almacenamiento se crea al instalar OpenShift Data Foundation. Si estas clases de almacenamiento no están configuradas, debes configurarlas antes de la instalación de Automation Suite.
-
Debe hacer que la clase de almacenamiento para el almacenamiento en bloque sea la predeterminada, como se muestra en el siguiente ejemplo.
Ejemplo
input.json durante la instalación:
|
Configuración | input.json | StorageClass |
|---|---|---|
|
Azure |
|
|
|
AWS |
|
|
|
OpenShift |
|
|
Requisitos de almacenamiento
|
Configuración |
Requisitos |
|---|---|
|
Bloquear almacenamiento |
50 GB |
El tamaño del almacén de bloques depende del tamaño de la automatización implementada y en ejecución. Por lo tanto, puede ser un desafío proporcionar una estimación precisa inicialmente durante la instalación. Puedes empezar con un tamaño de almacenamiento en bloque de 50 GB. Para comprender el uso del almacén de bloques, consulta Estimación de almacenamiento para cada componente de Automation Suite.
El almacenamiento de archivos debe tener controladores CSI configurados con las clases de almacenamiento de Kubernetes.
El almacenamiento de archivos es necesario para los componentes que no requieren ninguna replicación. Sin embargo, si no tienes un sistema de archivos, puedes reemplazar el almacenamiento de archivos por almacenamiento en bloque.
|
Nube/Kubernetes |
Almacenamiento |
ClaseDeAlmacenamiento |
Aprovisionador |
|---|---|---|---|
|
AWS |
EFS |
|
|
|
Azure |
Archivos Azure |
azurefile-csi-premium*
|
|
|
OpenShift |
Infraestructura de datos de OpenShift |
|
|
azurefile-csi-premium para Studio Web en AKS.
* Se recomienda configurar ZRS (o replicación) para el almacenamiento de Studio Web para garantizar una alta disponibilidad.
StorageClass correspondiente que te proporcione tu proveedor de almacenamiento.
Configuración
Puedes seguir la guía oficial de Red Hat para crear una clase de almacenamiento en tu clúster de OpenShift.
storage_class_single_replica en el archivo input.json .
En OpenShift, los controladores CSI se instalan automáticamente y la clase de almacenamiento se crea al instalar OpenShift Data Foundation. Si la clase de almacenamiento no está configurada, debes configurarla antes de la instalación de Automation Suite.
Ejemplo
input.json durante la instalación:
|
Configuración |
|
|
|---|---|---|
|
Azure | | |
|
AWS | | Nota:
Reemplaza
$(EFS_ID) con el ID del recurso compartido de archivos real que creaste durante el aprovisionamiento de la infraestructura.
|
|
OpenShift | | |
La clase de almacenamiento para el recurso compartido de archivos debe tener los permisos necesarios establecidos en 700 para el directorio y los archivos.
UID y GID deben establecerse en 1000 en Azure, y gidRangeStart y gidRangeEnd en 1000 y 2000, respectivamente, en AWS.
Requisitos de almacenamiento
|
Almacenamiento |
Requisitos |
|---|---|
|
Almacenamiento de archivos |
512 GB |
El tamaño del almacén de archivos depende del tamaño de la automatización implementada y en ejecución. Por lo tanto, puede ser un desafío proporcionar una estimación real inicialmente, durante la instalación. Sin embargo, debe esperar que aproximadamente 510 GB de tamaño de almacenamiento sean suficientes para ejecutar diez procesos de entrenamiento simultáneos y para Automation Suite Robots. Para comprender el uso del almacén de archivos, consulta Estimación de almacenamiento para cada componente de Automation Suite.
A medida que tu automatización escala, es posible que debas tener en cuenta un aumento en el tamaño de tu almacenamiento de archivos.
- Estimación de almacenamiento para cada componente de Automation Suite
- Servicios de la plataforma UiPath®
- Almacén de objetos
- Configurar la infraestructura de datos de OpenShift
- Configurar la política de CORS
- Configuración
- Requisitos de almacenamiento
- Bloquear almacenamiento
- Configuración
- Requisitos de almacenamiento
- Almacenamiento de archivos
- Configuración
- Requisitos de almacenamiento