automation-suite
2024.10
false
Importante :
Este contenido se ha localizado parcialmente a partir de un sistema de traducción automática. La localización de contenidos recién publicados puede tardar entre una y dos semanas en estar disponible.
UiPath logo, featuring letters U and I in white

Guía de instalación de Automation Suite en OpenShift

Última actualización 13 de nov. de 2025

Almacenamiento

Además de Microsoft SQL Server, el clúster de Automation Suite requiere un componente de almacenamiento para almacenar los archivos. Automation Suite requiere el almacén de objetos y el almacenamiento de bloques/archivos, dependiendo del tipo de servicio que elijas.

Estimación de almacenamiento para cada componente de Automation Suite

Servicios de la plataforma UiPath®

Los siguientes servicios requieren el componente de almacenamiento. Estos solo son necesarios si ha optado por habilitarlos como parte de la instalación de Automation Suite o posteriormente.

Servicio

Tipo de almacenamiento

Propósito

Estimación

Orchestrator

Almacén de objetos

  • Paquetes de automatización NuGet para la automatización implementada

  • Colas y sus datos

Normalmente, un paquete pesa 5 Mb y los depósitos, si los hay, son inferiores a 1 Mb. Una Enterprise madura implementa alrededor de 10 GB de paquetes y 12 GB de colas.

Action Center

Almacén de objetos

  • Documentos almacenados por el usuario en tareas relacionadas con documentos

Normalmente, un documento ocupa 0,15 Mb, y los formularios a rellenar ocupan 0,15 Kb adicionales. En una empresa madura, esto puede sumar un total de 4 GB.

Test Manager

Almacén de objetos

  • Archivos adjuntos y capturas de pantalla almacenados por los usuarios

Normalmente, el conjunto de archivos y adjuntos suman hasta, aproximadamente, 5 Gb.

Insights

Blockstore

  • Paneles publicados y sus metadatos

Se requieren 2 GB para la habilitación, y la huella de almacenamiento aumenta con el número. Una implementación de escala Enterpriseconsolidada requiere otros pocos GB para todos los paneles. Aproximadamente 10 GB de almacenamiento deberían ser suficientes.

Apps

Almacén de objetos

  • Archivos adjuntos que se cargan a aplicaciones

Normalmente, la base de datos ocupa aproximadamente 5 GB y una aplicación compleja típica consume unos 15 Mb.

AI Center

Almacén de objetos / almacén de archivos

  • Paquetes ML

  • Conjuntos de datos para análisis

  • Procesos de entrenamiento

Una instalación típica y establecida consumirá 8 GB para cinco paquetes y 1 GB adicional para los conjuntos de datos.

Un proceso puede consumir 50 GB adicionales de almacenamiento en bloque, pero solo cuando se ejecuta activamente.

Document Understanding

Almacén de objetos

  • Modelo de ML

  • Modelo OCR

  • Documentos almacenados

En una implementación madura, 12 GB se asignarán al modelo ML, 17 GB al OCR y 50 GB a todos los documentos almacenados.

Automation Suite Robots

Almacén de archivos

  • Almacenar en caché los paquetes necesarios para ejecutar una automatización

Normalmente, una empresa madura implementa alrededor de 10 GB de paquetes.

Process Mining

Almacén de objetos

  • Archivos SQL necesarios para ejecutar consultas en el almacén de SQL

El espacio mínimo solo se utiliza para almacenar archivos SQL. Aproximadamente un GB de almacenamiento debería ser suficiente al principio.

Almacén de objetos

Automation Suite admite los siguientes almacenes de objetos:

  • Almacenamiento de blobs de Azure

  • Almacenamiento de AWS S3

  • Almacén de objetos compatible con S3. OpenShift proporciona OpenShift Data Foundation, un almacén de objetos compatible con S3 basado en Ceph. Para instalar OpenShift Data Foundation, consulta Introducción a OpenShift Data Foundation.

Configurar la infraestructura de datos de OpenShift

  1. Para crear un depósito de almacén de objetos en OpenShift Data Foundation (ODF), debes crear un ObjectBucketClaim para cada depósito, correspondiente a cada producto que planeas instalar.
    Importante:
    Al utilizar ODF como almacén de objetos en versiones de clúster de OpenShift anteriores a la 4.19, no se puede configurar CORS. Esta limitación puede evitar que los servicios funcionen correctamente con depósitos ODF. Para garantizar la compatibilidad, establece "disable_presigned_url": true en tu archivo input.json .

    Si se produce un error al aplicar esta configuración, consulta la sección Resolución de problemas .

    El siguiente ejemplo muestra un ObjectBucketClaim válido:
    Nota: La configuración que proporcionamos en la muestra solo es necesaria si creas los depósitos en OpenShift Data Foundation.
    apiVersion: objectbucket.io/v1alpha1
    kind: ObjectBucketClaim
    metadata:
      name: BUCKET_NAME
      namespace: <uipath>
    spec:
      bucketName: BUCKET_NAME
      storageClassName: openshift-storage.noobaa.ioapiVersion: objectbucket.io/v1alpha1
    kind: ObjectBucketClaim
    metadata:
      name: BUCKET_NAME
      namespace: <uipath>
    spec:
      bucketName: BUCKET_NAME
      storageClassName: openshift-storage.noobaa.io
  2. Al aplicar el manifiesto se crea un secreto llamado BUCKET_NAME en el espacio de nombres <uipath> . El secreto contiene el access_key y el secret_key para ese depósito. Para consultar access_key y secret_key, ejecuta el siguiente comando:
    oc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_ACCESS_KEY_ID} | base64 -d; echo
    oc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_SECRET_ACCESS_KEY} | base64 -d; echooc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_ACCESS_KEY_ID} | base64 -d; echo
    oc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_SECRET_ACCESS_KEY} | base64 -d; echo
  3. Para encontrar el host o FQDN para acceder al depósito, ejecuta el siguiente comando:
    oc get routes s3 -o jsonpath={.spec.host} -n openshift-storage; echooc get routes s3 -o jsonpath={.spec.host} -n openshift-storage; echo
Importante: ODF incluye una implementación de NooBaa con límites de CPU y memoria predefinidos. Estos límites pueden convertirse en un cuello de botella para Automation Suite y dar lugar a problemas de límite de solicitudes de S3. Para mitigar este riesgo, debes configurar ODF con límites de CPU y memoria más altos para la implementación de NooBaa. Para obtener más información, consulta la sección Resolución de problemas .

Configurar la política de CORS

Además, es posible que deba habilitar la siguiente política de CORS en el nivel de cuenta / depósito de almacenamiento si se enfrenta a cualquier error relacionado con el CORS durante la conexión de S3 mientras utiliza el clúster de Automation Suite .

Asegúrate de reemplazar {{fqdn}} por el FQDN del clúster de Automation Suite en la siguiente política CORS.

El siguiente ejemplo muestra la política CORS en formato JSON:

JSON
[
    {
        "AllowedHeaders": [
            "*"
        ],
        "AllowedMethods": [
            "POST",
            "GET",
            "HEAD",
            "DELETE",
            "PUT"
        ],
        "AllowedOrigins": [
            "https://{{fqdn}}"
        ],
        "ExposeHeaders": [
            "etag",
            "x-amz-server-side-encryption",
            "x-amz-request-id",
            "x-amz-id-2"
        ],
        "MaxAgeSeconds": 3000
    }
][
    {
        "AllowedHeaders": [
            "*"
        ],
        "AllowedMethods": [
            "POST",
            "GET",
            "HEAD",
            "DELETE",
            "PUT"
        ],
        "AllowedOrigins": [
            "https://{{fqdn}}"
        ],
        "ExposeHeaders": [
            "etag",
            "x-amz-server-side-encryption",
            "x-amz-request-id",
            "x-amz-id-2"
        ],
        "MaxAgeSeconds": 3000
    }
]

El siguiente ejemplo muestra la política CORS en formato XML:

XML
<CORSConfiguration>
 <CORSRule>
   <AllowedOrigin>{{fqdn}}</AllowedOrigin>
   <AllowedMethod>HEAD</AllowedMethod>
   <AllowedMethod>GET</AllowedMethod>
   <AllowedMethod>PUT</AllowedMethod>
   <AllowedMethod>POST</AllowedMethod>
   <AllowedMethod>DELETE</AllowedMethod>
   <AllowedHeader>*</AllowedHeader>
  <MaxAgeSeconds>3000</MaxAgeSeconds>
  <ExposeHeader>x-amz-server-side-encryption</ExposeHeader>
  <ExposeHeader>x-amz-request-id</ExposeHeader>
  <ExposeHeader>x-amz-id-2</ExposeHeader>
  <ExposeHeader>etag</ExposeHeader>
 </CORSRule>
</CORSConfiguration><CORSConfiguration>
 <CORSRule>
   <AllowedOrigin>{{fqdn}}</AllowedOrigin>
   <AllowedMethod>HEAD</AllowedMethod>
   <AllowedMethod>GET</AllowedMethod>
   <AllowedMethod>PUT</AllowedMethod>
   <AllowedMethod>POST</AllowedMethod>
   <AllowedMethod>DELETE</AllowedMethod>
   <AllowedHeader>*</AllowedHeader>
  <MaxAgeSeconds>3000</MaxAgeSeconds>
  <ExposeHeader>x-amz-server-side-encryption</ExposeHeader>
  <ExposeHeader>x-amz-request-id</ExposeHeader>
  <ExposeHeader>x-amz-id-2</ExposeHeader>
  <ExposeHeader>etag</ExposeHeader>
 </CORSRule>
</CORSConfiguration>

Configuración

Para configurar el almacén de objetos, consulta Configuración del almacén de objetos externo.

El instalador de Automation Suite admite la creación de contenedores / depósitos si proporcionas los permisos make . También puedes aprovisionar los contenedores / depósitos necesarios antes de la instalación y su información al instalador.

Requisitos de almacenamiento

Almacenamiento

Requisitos

Almacén de objetos

500 GB

El tamaño del almacén de objetos depende del tamaño de la automatización implementada y en ejecución. Por lo tanto, puede ser un desafío proporcionar una estimación precisa del almacén de objetos inicialmente durante la instalación. Puedes empezar con un tamaño de almacén de objetos de 350 GB a 500 GB. Para comprender el uso del almacén de objetos, consulta Estimación de almacenamiento para cada componente de Automation Suite.

Nota:
  • A medida que tu automatización escala, es posible que debas tener en cuenta el aumento del tamaño de tu almacén de objetos.

  • Si utilizas depósitos creados en OpenShift Data Foundation, debes aprovisionar explícitamente los depósitos y proporcionar los detalles de cada producto en el archivo input.json .
    Para obtener más información sobre cómo proporcionar información del depósito de forma explícita en el archivo input.json , consulta la sección Configuración específica del producto .

Bloquear almacenamiento

El almacenamiento en bloque debe tener controladores CSI configurados con las clases de almacenamiento de Kubernetes.

La siguiente tabla proporciona detalles del almacenamiento en bloque, la clase de almacenamiento y el aprovisionador:

Nube/Kubernetes

Almacenamiento

ClaseDeAlmacenamiento

Aprovisionador

AWS

Volúmenes de EBS

ebs-sc

ebs.csi.aws.com

Azure

Administración de disco de Azure

managed-premium

Disco LRS premium

disk.csi.azure.com

OpenShift

Infraestructura de datos de OpenShift

ocs-storagecluster-ceph-rbd

openshift-storage.rbd.csi.ceph.com

Nota:
No es obligatorio utilizar las soluciones de almacenamiento mencionadas en esta sección. Si utilizas una solución de almacenamiento diferente, debes utilizar el StorageClass correspondiente que te proporcione tu proveedor de almacenamiento.

Configuración

Puedes seguir la guía oficial de Red Hat para crear una clase de almacenamiento en tu clúster de OpenShift.

Debes pasar el nombre de la clase de almacenamiento que creaste para tu clúster al parámetro storage_class en el archivo input.json .
Nota:
  • En OpenShift, los controladores CSI se instalan automáticamente y la clase de almacenamiento se crea al instalar OpenShift Data Foundation. Si estas clases de almacenamiento no están configuradas, debes configurarlas antes de la instalación de Automation Suite.

  • Debe hacer que la clase de almacenamiento para el almacenamiento en bloque sea la predeterminada, como se muestra en el siguiente ejemplo.

Ejemplo
El siguiente ejemplo muestra cómo configurar la clase de almacenamiento y cómo proporcionarla al archivo input.json durante la instalación:

Configuración

input.jsonStorageClass

Azure

{
  "storage_class": "managed_premium"
}{
  "storage_class": "managed_premium"
}
allowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  creationTimestamp: "2023-06-15T09:34:17Z"
  labels:
    addonmanager.kubernetes.io/mode: EnsureExists
    kubernetes.io/cluster-service: "true"
    storageclass.kubernetes.io/is-default-class: "true"
  name: managed-premium
parameters:
  cachingmode: ReadOnly
  kind: Managed
  storageaccounttype: Premium_LRS
provisioner: disk.csi.azure.com
reclaimPolicy: Delete
volumeBindingMode: WaitForFirstConsumerallowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  creationTimestamp: "2023-06-15T09:34:17Z"
  labels:
    addonmanager.kubernetes.io/mode: EnsureExists
    kubernetes.io/cluster-service: "true"
    storageclass.kubernetes.io/is-default-class: "true"
  name: managed-premium
parameters:
  cachingmode: ReadOnly
  kind: Managed
  storageaccounttype: Premium_LRS
provisioner: disk.csi.azure.com
reclaimPolicy: Delete
volumeBindingMode: WaitForFirstConsumer

AWS

{
  "storage_class": "ebs-sc"
}{
  "storage_class": "ebs-sc"
}
allowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: ebs-sc
  annotations:
   storageclass.kubernetes.io/is-default-class: "true"
provisioner: ebs.csi.aws.com
reclaimPolicy: Delete
volumeBindingMode: WaitForFirstConsumerallowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: ebs-sc
  annotations:
   storageclass.kubernetes.io/is-default-class: "true"
provisioner: ebs.csi.aws.com
reclaimPolicy: Delete
volumeBindingMode: WaitForFirstConsumer

OpenShift

{
  "storage_class": "ocs-storagecluster-ceph-rbd"
}{
  "storage_class": "ocs-storagecluster-ceph-rbd"
}
kind: StorageClass
apiVersion: storage.k8s.io/v1
metadata:
  name: ocs-storagecluster-ceph-rbd
  annotations:
    description: 'Provides RWO Filesystem volumes, and RWO and RWX Block volumes'
    storageclass.kubernetes.io/is-default-class: "true"
provisioner: openshift-storage.rbd.csi.ceph.com
parameters:
  csi.storage.k8s.io/fstype: ext4
  csi.storage.k8s.io/provisioner-secret-namespace: openshift-storage
  csi.storage.k8s.io/provisioner-secret-name: rook-csi-rbd-provisioner
  csi.storage.k8s.io/node-stage-secret-name: rook-csi-rbd-node
  csi.storage.k8s.io/controller-expand-secret-name: rook-csi-rbd-provisioner
  csi.storage.k8s.io/controller-expand-secret-namespace: openshift-storage
  pool: ocs-storagecluster-cephblockpool
  csi.storage.k8s.io/node-stage-secret-namespace: openshift-storage
reclaimPolicy: Delete
allowVolumeExpansion: true
volumeBindingMode: Immediatekind: StorageClass
apiVersion: storage.k8s.io/v1
metadata:
  name: ocs-storagecluster-ceph-rbd
  annotations:
    description: 'Provides RWO Filesystem volumes, and RWO and RWX Block volumes'
    storageclass.kubernetes.io/is-default-class: "true"
provisioner: openshift-storage.rbd.csi.ceph.com
parameters:
  csi.storage.k8s.io/fstype: ext4
  csi.storage.k8s.io/provisioner-secret-namespace: openshift-storage
  csi.storage.k8s.io/provisioner-secret-name: rook-csi-rbd-provisioner
  csi.storage.k8s.io/node-stage-secret-name: rook-csi-rbd-node
  csi.storage.k8s.io/controller-expand-secret-name: rook-csi-rbd-provisioner
  csi.storage.k8s.io/controller-expand-secret-namespace: openshift-storage
  pool: ocs-storagecluster-cephblockpool
  csi.storage.k8s.io/node-stage-secret-namespace: openshift-storage
reclaimPolicy: Delete
allowVolumeExpansion: true
volumeBindingMode: Immediate

Requisitos de almacenamiento

Configuración

Requisitos

Bloquear almacenamiento

50 GB

El tamaño del almacén de bloques depende del tamaño de la automatización implementada y en ejecución. Por lo tanto, puede ser un desafío proporcionar una estimación precisa inicialmente durante la instalación. Puedes empezar con un tamaño de almacenamiento en bloque de 50 GB. Para comprender el uso del almacén de bloques, consulta Estimación de almacenamiento para cada componente de Automation Suite.

Nota: A medida que tu automatización escala, es posible que debas tener en cuenta el aumento en el tamaño de tu almacenamiento en bloque.

Almacenamiento de archivos

El almacenamiento de archivos debe tener controladores CSI configurados con las clases de almacenamiento de Kubernetes.

El almacenamiento de archivos es necesario para los componentes que no requieren ninguna replicación. Sin embargo, si no tienes un sistema de archivos, puedes reemplazar el almacenamiento de archivos por almacenamiento en bloque.

Nube/Kubernetes

Almacenamiento

ClaseDeAlmacenamiento

Aprovisionador

AWS

EFS

efs-sc

efs.csi.aws.com

Azure

Archivos Azure

azurefile-csi-premium*

file.csi.azure.com

OpenShift

Infraestructura de datos de OpenShift

ocs-storagecluster-cephfs

openshift-storage.cephfs.csi.ceph.com

* Utiliza la clase de almacenamiento azurefile-csi-premium para Studio Web en AKS.

* Se recomienda configurar ZRS (o replicación) para el almacenamiento de Studio Web para garantizar una alta disponibilidad.

Nota:
No es obligatorio utilizar las soluciones de almacenamiento mencionadas en esta sección. Si utilizas una solución de almacenamiento diferente, debes utilizar el StorageClass correspondiente que te proporcione tu proveedor de almacenamiento.

Configuración

Puedes seguir la guía oficial de Red Hat para crear una clase de almacenamiento en tu clúster de OpenShift.

Debes pasar el nombre de la clase de almacenamiento que creaste para tu clúster al parámetro storage_class_single_replica en el archivo input.json .
Nota:

En OpenShift, los controladores CSI se instalan automáticamente y la clase de almacenamiento se crea al instalar OpenShift Data Foundation. Si la clase de almacenamiento no está configurada, debes configurarla antes de la instalación de Automation Suite.

Ejemplo
El siguiente ejemplo muestra cómo configurar la clase de almacenamiento y cómo proporcionarla a input.json durante la instalación:

Configuración

input.json

StorageClass

Azure

{
  "storage_class_single_replica": "azurefile-csi-premium"
}{
  "storage_class_single_replica": "azurefile-csi-premium"
}
allowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  labels:
    addonmanager.kubernetes.io/mode: EnsureExists
    kubernetes.io/cluster-service: "true"
  name: azurefile-csi
mountOptions:
- mfsymlinks
- actimeo=30
- nosharesock
- dir_mode=0700
- file_mode=0700
- uid=1000
- gid=1000
- nobrl
- cache=none
parameters:
  skuName: Standard_LRS
provisioner: file.csi.azure.com
reclaimPolicy: Delete
volumeBindingMode: ImmediateallowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  labels:
    addonmanager.kubernetes.io/mode: EnsureExists
    kubernetes.io/cluster-service: "true"
  name: azurefile-csi
mountOptions:
- mfsymlinks
- actimeo=30
- nosharesock
- dir_mode=0700
- file_mode=0700
- uid=1000
- gid=1000
- nobrl
- cache=none
parameters:
  skuName: Standard_LRS
provisioner: file.csi.azure.com
reclaimPolicy: Delete
volumeBindingMode: Immediate

AWS

{
  "storage_class_single_replica": "efs-sc"
}{
  "storage_class_single_replica": "efs-sc"
}
allowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: efs-sc
parameters:
  basePath: /dynamic_provisioning
  directoryPerms: "700"
  fileSystemId: $(EFS_ID)
  gidRangeEnd: "2000"
  gidRangeStart: "1000"
  provisioningMode: efs-ap
provisioner: efs.csi.aws.com
reclaimPolicy: Delete
volumeBindingMode: ImmediateallowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: efs-sc
parameters:
  basePath: /dynamic_provisioning
  directoryPerms: "700"
  fileSystemId: $(EFS_ID)
  gidRangeEnd: "2000"
  gidRangeStart: "1000"
  provisioningMode: efs-ap
provisioner: efs.csi.aws.com
reclaimPolicy: Delete
volumeBindingMode: Immediate
Nota:
Reemplaza $(EFS_ID) con el ID del recurso compartido de archivos real que creaste durante el aprovisionamiento de la infraestructura.

OpenShift

{
  "storage_class_single_replica": "ocs-storagecluster-cephfs"
}{
  "storage_class_single_replica": "ocs-storagecluster-cephfs"
}
kind: StorageClass
apiVersion: storage.k8s.io/v1
metadata:
  name: ocs-storagecluster-cephfs
  annotations:
    description: Provides RWO and RWX Filesystem volumes
provisioner: openshift-storage.cephfs.csi.ceph.com
parameters:
  clusterID: openshift-storage
  csi.storage.k8s.io/controller-expand-secret-name: rook-csi-cephfs-provisioner
  csi.storage.k8s.io/controller-expand-secret-namespace: openshift-storage
  csi.storage.k8s.io/node-stage-secret-name: rook-csi-cephfs-node
  csi.storage.k8s.io/node-stage-secret-namespace: openshift-storage
  csi.storage.k8s.io/provisioner-secret-name: rook-csi-cephfs-provisioner
  csi.storage.k8s.io/provisioner-secret-namespace: openshift-storage
  fsName: ocs-storagecluster-cephfilesystem
reclaimPolicy: Delete
allowVolumeExpansion: true
volumeBindingMode: Immediatekind: StorageClass
apiVersion: storage.k8s.io/v1
metadata:
  name: ocs-storagecluster-cephfs
  annotations:
    description: Provides RWO and RWX Filesystem volumes
provisioner: openshift-storage.cephfs.csi.ceph.com
parameters:
  clusterID: openshift-storage
  csi.storage.k8s.io/controller-expand-secret-name: rook-csi-cephfs-provisioner
  csi.storage.k8s.io/controller-expand-secret-namespace: openshift-storage
  csi.storage.k8s.io/node-stage-secret-name: rook-csi-cephfs-node
  csi.storage.k8s.io/node-stage-secret-namespace: openshift-storage
  csi.storage.k8s.io/provisioner-secret-name: rook-csi-cephfs-provisioner
  csi.storage.k8s.io/provisioner-secret-namespace: openshift-storage
  fsName: ocs-storagecluster-cephfilesystem
reclaimPolicy: Delete
allowVolumeExpansion: true
volumeBindingMode: Immediate
Nota:

La clase de almacenamiento para el recurso compartido de archivos debe tener los permisos necesarios establecidos en 700 para el directorio y los archivos.

Además, UID y GID deben establecerse en 1000 en Azure, y gidRangeStart y gidRangeEnd en 1000 y 2000, respectivamente, en AWS.

Requisitos de almacenamiento

Almacenamiento

Requisitos

Almacenamiento de archivos

512 GB

El tamaño del almacén de archivos depende del tamaño de la automatización implementada y en ejecución. Por lo tanto, puede ser un desafío proporcionar una estimación real inicialmente, durante la instalación. Sin embargo, debe esperar que aproximadamente 510 GB de tamaño de almacenamiento sean suficientes para ejecutar diez procesos de entrenamiento simultáneos y para Automation Suite Robots. Para comprender el uso del almacén de archivos, consulta Estimación de almacenamiento para cada componente de Automation Suite.

Nota:

A medida que tu automatización escala, es posible que debas tener en cuenta un aumento en el tamaño de tu almacenamiento de archivos.

¿Te ha resultado útil esta página?

Obtén la ayuda que necesitas
RPA para el aprendizaje - Cursos de automatización
Foro de la comunidad UiPath
Uipath Logo
Confianza y seguridad
© 2005-2025 UiPath. Todos los derechos reservados.