automation-suite
2024.10
true
Importante :
Este contenido se ha localizado parcialmente a partir de un sistema de traducción automática. La localización de contenidos recién publicados puede tardar entre una y dos semanas en estar disponible.
UiPath logo, featuring letters U and I in white

Guía de instalación de Automation Suite en EKS/AKS

Última actualización 6 de nov. de 2025

Clúster y nodos de Kubernetes

Clúster y permisos

Puedes traer tu propio clúster de Kubernetes y seguir tus prácticas estándar para aprovisionarlo y gestionarlo.

Si concedes privilegios de administrador al instalador de Automation Suite, UiPath® instala y gestiona todos los componentes necesarios para ejecutar Automation Suite. Sin embargo, si no puedes otorgar al instalador privilegios de administrador en el clúster, la instalación de algunos componentes necesarios será imposible. Por lo tanto, antes de instalar Automation Suite en un clúster en el que no hayas concedido privilegios de administrador al instalador, un usuario administrador debe instalar los componentes específicos necesarios por separado, antes de la instalación de la plataforma de Automation Suite. Estos son los pasos principales que debes realizar si no puedes otorgar privilegios de administrador al instalador de Automation Suite:

Después de instalar los componentes necesarios, puedes ejecutar el instalador con permisos inferiores. Para obtener la lista de permisos necesarios, consulta Conceder permisos de instalación.

Versiones de EKS / AKS compatibles

Cada versión de soporte a largo plazo de Automation Suite viene con una matriz de compatibilidad. Para versiones de EKS o AKS compatibles, consulta Matriz de compatibilidad.

Probamos la compatibilidad de Automation Suite con los siguientes sistemas operativos Linux:

Proveedor de la nubeSO
AKS
  • Ubuntu 22.04
EKS
  • Amazon Linux 2 y Amazon Linux 2023 para todas las versiones de EKS
  • RHEL 8.8 para EKS 1.27
  • Bottlerocket 1.19.2
Automation Suite en EKS/AKS solo admite la arquitectura x86 EKS/AKS y no admite ARM64.

Capacidad de nodo

Para estimar la capacidad del nodo en función de tu producto y los requisitos de tu escala, usa la calculadora de tamaño de instalación de UiPath Automation Suite .

El requisito de volumen raíz para los nodos agente (trabajador) es de 256 GB.

Como mínimo, para comenzar con los servicios obligatorios de la plataforma (identidad, licencias y enrutamiento) y Orchestrator, debes aprovisionar 8 vCPU y 16 GB de RAM por nodo.

Nota:

No recomendamos utilizar instancias puntuales en Automation Suite en escenarios de producción, debido a problemas de estabilidad y rendimiento.

Intercambiar memoria

Debes deshabilitar el intercambio de memoria antes de instalar Automation Suite. Se sabe que la memoria de intercambio causa problemas con las cargas de trabajo del contenedor. Además, las cargas de trabajo de Automation Suite no se benefician de utilizar la memoria de intercambio y Kubernetes ya optimiza el uso de la memoria.

Ajuste de escala automático

Recomendamos habilitar el escalado automático en el clúster para garantizar una alta fiabilidad y evitar interrupciones comerciales.

Requisitos adicionales de Task Mining

Si instalas Task Mining, debes aprovisionar nodos de trabajo adicionales con 20 CPU virtuales y 60 GB de RAM. Este nodo debe estar corrupto para garantizar que solo se ejecuten en él las cargas de trabajo de Task Mining. Para obtener más información, consulta la sección Programación de nodos .

Requisitos adicionales de Automation Suite Robots

Automation Suite Robot requieren nodos de trabajo adicionales.

Los requisitos de hardware para el nodo Robots de Automation Suite dependen de la forma en que planees utilizar tus recursos. Además de los requisitos adicionales del nodo agente, también necesitas un mínimo de 10 GB de almacenamiento de archivos para habilitar el almacenamiento en caché de paquetes.

Para obtener más información, consulta Documentación de almacenamiento .

Las siguientes secciones describen los factores que afectan la cantidad de hardware que requiere el nodo de Automation Suite Robots.

Tamaño del robot

La siguiente tabla describe la CPU, la memoria y el almacenamiento necesarios para todos los tamaños de robots.

Tamaño

CPU

Memoria

Almacenamiento

Pequeño

0.5

1 GB

1 GB

Estándar

1

2 GB

2 GB

Medio

2

4 GB

4 GB

Grande

6

10 GB

10 GB

Tamaño del nodo del agente

Los recursos del nodo agente de Automation Suite Robots influyen en el número de trabajos que se pueden ejecutar de forma concurrente. La razón es que el número de núcleos de CPU y la cantidad de capacidad de RAM se dividen entre los requisitos de CPU / memoria del trabajo.

Por ejemplo, un nodo con 16 CPU y 32 GB de RAM podría ejecutar cualquiera de las siguientes opciones:

  • 32 Pequeños trabajos
  • 16 trabajos estándar
  • 8 trabajos medios
  • 2 trabajos grandes

Los tamaños de trabajo pueden combinarse, por lo que, en cualquier momento, el mismo nodo podría ejecutar una combinación de trabajos como el siguiente:

  • 10 trabajos pequeños (que consumen 5 CPU y 10 GB de memoria)
  • 4 trabajos estándar (que consumen 4 CPU y 8 GB de memoria)
  • 3 trabajos medianos (que consumen 6 CPU y 12 GB de memoria)

Consumo de recursos de Kubernetes

Dado que el nodo forma parte de un clúster de Kubernetes, el agente de Kubernetes presente en el servidor (kubelet) consume una pequeña cantidad de recursos. Según nuestras mediciones, el kubelet consume los siguientes recursos:

  • 0,6 CPU
  • 0,4 GB de RAM

Un nodo similar al descrito anteriormente tendría aproximadamente 15.4 CPU y 31.6 GB de RAM.

Selección automática del tamaño de la máquina

Todos sus procesos multiplataforma tienen la opción Robots de Automation Suite establecida como Automático de forma predeterminada. Este ajuste selecciona el tamaño de máquina adecuado para ejecutar el proceso usando robots sin servidor.

Al elegir automáticamente el tamaño, los criterios enumerados en la tabla siguiente se evalúan por orden. Tan pronto como se satisface un criterio se elige el tamaño de máquina correspondiente y no se evalúan los criterios restantes.

Orden

Criterio

Tamaño de la máquina

1

Trabajo de depuración remota

Medio

2

Proceso dependiente de Automatización de IU

O

Proceso dependiente de las actividades de Document Understanding de UiPath

Estándar

3

Otro proceso desatendido

Pequeño

Recomendaciones adicionales de Document Understanding

Para aumentar el rendimiento, puedes instalar Document Understanding en un nodo agente adicional compatible con GPU. Sin embargo, ten en cuenta que los proyectos basados en AI Center en Document Understanding son totalmente funcionales sin el nodo GPU. En realidad, Document Understanding utiliza máquinas virtuales de CPU para todas sus tareas de extracción y clasificación, mientras que para OCR recomendamos encarecidamente el uso de una máquina virtual de GPU.

Para obtener más información sobre el uso de CPU/GPU dentro del marco de Document Understanding, consulta Uso de CPU y GPU.

Si quieres utilizar un nodo adicional compatible con GPU, debes cumplir los siguientes requisitos:

Hardware

Requisitos mínimos

Procesador

8 (v)CPU/núcleos

RAM

52 GB

Disco del sistema operativo

SSD de 256 GB

E/S mínima por segundo: 1100

DiscoDeDatos

N/D

RAM de GPU

11 GB

Al añadir el grupo de nodos de la GPU, es importante que utilices --node-taints nvidia.com/gpu=present:NoSchedule en lugar de --node-taints sku=gpu:NoSchedule.
Importante: Para garantizar la programación adecuada de las cargas de trabajo de la GPU, asegúrate de que tu configuración YAML de DaemonSet (NFD o Nvidia GPU Operador) incluya un bloque tolerations coincidente. Puedes utilizar el siguiente ejemplo:
tolerations:
  - key: "nvidia.com/gpu"
    operator: "Equal"
    value: "present"
    effect: "NoSchedule"tolerations:
  - key: "nvidia.com/gpu"
    operator: "Equal"
    value: "present"
    effect: "NoSchedule"

Automation Suite es compatible con las GPU de NVIDIA. Para obtener más información sobre cómo configurar las GPU NVDIA (como los controladores), consulta los documentos respectivos de Azure o AWS.

Documento adicional Comprender los requisitos de los proyectos modernos

Se requiere un mínimo de 5 GPU para los proyectos modernos de Document Understanding. El escenario de ejemplo de la siguiente tabla demuestra cómo 5 GPU son suficientes para procesar 300 páginas.

Nota: para los proyectos modernos de Document Understanding, la GPU mínima recomendada es NVIDIA T4.
FunciónNúmero
Páginas de modelo personalizadas procesadas por hora300
Páginas de modelo listas para usar procesadas por hora0
Entrenamiento de modelos en paralelo1
Número de páginas en todos los proyectos: tiempo de diseño200
Número de tipos de documentos por versión del proyecto3

Las 5 GPU se distribuyen entre diferentes funciones, como se detalla en la siguiente tabla:

ServicioNúmero de GPU
Réplicas de OCR1
Réplicas de entrenamiento de modelos personalizados1
Réplicas de modelos personalizados2
Réplicas de modelos listas para usar1
Total5

Para obtener más información sobre cómo asignar GPU a cada servicio, consulta la página Asignar recursos de GPU para proyectos modernos de Document Understanding .

Además de las demandas de la GPU, los proyectos modernos de Document Understanding también requieren recursos específicos de la CPU para un rendimiento óptimo. Para un rendimiento óptimo, se requiere un mínimo de 18 vCPU .

Con el proyecto moderno de Document Understanding, se requieren 4 TB adicionales de objectstore para realizar las actividades de los ejemplos proporcionados de forma continua durante un año. Puedes comenzar con un número más pequeño, pero la actividad fallará una vez que se complete el almacenamiento, a menos que la escales explícitamente.

Si estás aprovisionando un año de procesamiento continuo, necesitarás 4 TB para los proyectos modernos de Document Understanding y 512 GB para los demás productos. El total será de 4,5 TB de almacenamiento. Del mismo modo, si comienzas con seis meses de procesamiento, necesitarás 2 TB para los proyectos modernos de Document Understanding y 512 GB para los demás productos. En este caso, el total será de 2,5 TB.

Nota: Para obtener cálculos más detallados y la capacidad necesaria para tus necesidades, consulta la Calculadora de tamaño de instalación de UiPath Automation Suite.

Aprovisionamiento de GPU habilitadas para MIG

Las cargas de trabajo de Automation Suite Document Understanding admiten la ejecución en GPU virtuales (VGPU) creadas con la tecnología NVIDIA MIG (GPU de instancias múltiples).

Para ejecutar Document Understanding en estas condiciones, ten en cuenta los siguientes requisitos:

  • Memoria de la GPU (VRAM): al menos 16 GB por VGPU

    Nota: UiPath solo admite la estrategia única, lo que significa que todas las VGPU serán exactamente iguales.
  • Almacenamiento: al menos 80 GB por VGPU

Habilitar GPU habilitadas para MIG en Kubernetes

Después de aprovisionar las GPU habilitadas para MIG en tu clúster con perfiles que coincidan o superen los requisitos mínimos anteriores, asegúrate de que las GPU sean Kubernetes programables. El nodo debe informar de un número de GPU distinto de cero antes de que se puedan programar cargas de trabajo en él.

Para hacer que las GPU sean programables, tienes dos opciones:

  • Opción A: sigue la documentación oficial de configuración de la GPU de tu proveedor de la nube:
  • Opción B (alternativa): implementa el complemento del dispositivo NVIDIA directamente:
    1. Crea un nuevo espacio de nombres:
      kubectl create namespace gpu-resourceskubectl create namespace gpu-resources
    2. Aplica la siguiente configuración, reemplazando migEnabledPoolName por la etiqueta que coincida con tu nodo de GPU:
      apiVersion: v1
      kind: Pod
      metadata:
        name: nvidia-device-plugin-pod
        namespace: gpu-resources
      spec:
       affinity:
          nodeAffinity:
            requiredDuringSchedulingIgnoredDuringExecution:
              nodeSelectorTerms:
              - matchExpressions:
                - key: agentpool
                  operator: In
                  values:
                  # To be changed to a selector that matches the GPU nodes
                  - migEnabledPoolName
       containers:
       - args:
         - --fail-on-init-error=false
         env:
         - name: MPS_ROOT
           value: /run/nvidia/mps
         - name: MIG_STRATEGY
            # We only support the single strategy for now
           value: single
         - name: NVIDIA_MIG_MONITOR_DEVICES
           value: all
         - name: NVIDIA_VISIBLE_DEVICES
           value: all
         - name: NVIDIA_DRIVER_CAPABILITIES
           value: compute,utility
         image: nvcr.io/nvidia/k8s-device-plugin:v0.17.3
         imagePullPolicy: IfNotPresent
         name: nvidia-device-plugin-ctr
         securityContext:
           allowPrivilegeEscalation: true
           capabilities:
             add:
             - SYS_ADMIN
         terminationMessagePath: /dev/termination-log
         terminationMessagePolicy: File
         volumeMounts:
         - mountPath: /var/lib/kubelet/device-plugins
           name: device-plugin
       tolerations:
       - key: CriticalAddonsOnly
         operator: Exists
       - effect: NoSchedule
         key: nvidia.com/gpu
         operator: Exists
       terminationGracePeriodSeconds: 30
       volumes:
       - hostPath:
           path: /var/lib/kubelet/device-plugins
           type: ""
         name: device-pluginapiVersion: v1
      kind: Pod
      metadata:
        name: nvidia-device-plugin-pod
        namespace: gpu-resources
      spec:
       affinity:
          nodeAffinity:
            requiredDuringSchedulingIgnoredDuringExecution:
              nodeSelectorTerms:
              - matchExpressions:
                - key: agentpool
                  operator: In
                  values:
                  # To be changed to a selector that matches the GPU nodes
                  - migEnabledPoolName
       containers:
       - args:
         - --fail-on-init-error=false
         env:
         - name: MPS_ROOT
           value: /run/nvidia/mps
         - name: MIG_STRATEGY
            # We only support the single strategy for now
           value: single
         - name: NVIDIA_MIG_MONITOR_DEVICES
           value: all
         - name: NVIDIA_VISIBLE_DEVICES
           value: all
         - name: NVIDIA_DRIVER_CAPABILITIES
           value: compute,utility
         image: nvcr.io/nvidia/k8s-device-plugin:v0.17.3
         imagePullPolicy: IfNotPresent
         name: nvidia-device-plugin-ctr
         securityContext:
           allowPrivilegeEscalation: true
           capabilities:
             add:
             - SYS_ADMIN
         terminationMessagePath: /dev/termination-log
         terminationMessagePolicy: File
         volumeMounts:
         - mountPath: /var/lib/kubelet/device-plugins
           name: device-plugin
       tolerations:
       - key: CriticalAddonsOnly
         operator: Exists
       - effect: NoSchedule
         key: nvidia.com/gpu
         operator: Exists
       terminationGracePeriodSeconds: 30
       volumes:
       - hostPath:
           path: /var/lib/kubelet/device-plugins
           type: ""
         name: device-plugin
Después de implementar el complemento, la sección Asignable del nodo debe mostrar el número correcto de VGPU en nvidia.com/gpu, en función del perfil MIG que hayas configurado. El nodo debería ser ahora programable y estar listo para ejecutar cargas de trabajo de Document Understanding.

Programación de nodos

Recomendamos habilitar las corrupciones de nodo en nodos trabajadores dedicados para Task Mining, Automation Suite Roboty Document Understanding.

Ejemplo de AI Center y DU:

  • Para la CPU:

    kubectl taint node <node_name> aic.ml/cpu=present:NoSchedulekubectl taint node <node_name> aic.ml/cpu=present:NoSchedule
  • Para GPU:

    kubectl taint node <node_name> nvidia.com/gpu=present:NoSchedulekubectl taint node <node_name> nvidia.com/gpu=present:NoSchedule

Ejemplo de Task Mining:

kubectl taint node <node_name> task.mining/cpu=present:NoSchedulekubectl taint node <node_name> task.mining/cpu=present:NoSchedule

EjemploAutomation Suite Robot :

  • añade un taint para los robots sin servidor utilizando el siguiente comando:

    kubectl taint node <node_name> serverless.robot=present:NoSchedulekubectl taint node <node_name> serverless.robot=present:NoSchedule
  • añade las etiquetas para los robots sin servidor utilizando el siguiente comando:

    kubectl label node <node_name> serverless.robot=true serverless.daemon=truekubectl label node <node_name> serverless.robot=true serverless.daemon=true
Importante:

Si tienes corrupciones de nodo personalizadas que se aplican mediante la política de controlador de acceso, como roles específicos para nodos de trabajo o etiquetas, no se pasarán a Automation Suite y pueden interrumpir el proceso de instalación.

Para obtener información sobre corrupciones y toleraciones, consulta la documentación de Kubernetes.

¿Te ha resultado útil esta página?

Obtén la ayuda que necesitas
RPA para el aprendizaje - Cursos de automatización
Foro de la comunidad UiPath
Uipath Logo
Confianza y seguridad
© 2005-2025 UiPath. Todos los derechos reservados.