- Información general
- Requisitos
- Preinstalación
- Preparar la instalación
- Instalar y configurar la malla de servicio
- Descarga de los paquetes de instalación
- Configurar el registro compatible con OCI
- Conceder permisos de instalación
- Instalar y configurar la herramienta GitOps
- Implementar Redis a través de OperatorHub
- Aplicar configuraciones varias
- Ejecutar uipathctl
- Instalación
- Después de la instalación
- Migración y actualización
- Actualizar Automation Suite
- Migrar productos independientes a Automation Suite
- Paso 1: restaurar la base de datos del producto independiente
- Paso 2: actualizar el esquema de la base de datos del producto restaurada
- Paso 3: mover los datos de la organización de Identity de independiente a Automation Suite
- Paso 4: Realizar una copia de seguridad de la base de datos de la plataforma en Automation Suite
- Paso 5: Fusionar organizaciones en Automation Suite
- Paso 6: actualizar las cadenas de conexión del producto migradas
- Paso 7: migrar Orchestrator independiente
- Paso 8: migrar Insights independiente
- Paso 9: eliminar el tenant predeterminado
- Realizar una migración de un solo tenant
- Migrar entre clústeres de Automation Suite
- Supervisión y alertas
- Administración de clústeres
- Configuración específica del producto
- Configurar parámetros de Orchestrator
- Configurar AppSettings
- Configurar el tamaño máximo de la solicitud
- Anular la configuración de almacenamiento a nivel de clúster
- Configurar NLog
- Guardar los registros del robot en Elasticsearch
- Configurar almacenes de credenciales
- Configurar clave de cifrado por tenant
- Limpiar la base de datos de Orchestrator
- Solución de problemas

Guía de instalación de Automation Suite en OpenShift
Puedes traer tu propio clúster de Kubernetes y seguir tus prácticas estándar para aprovisionarlo y gestionarlo.
Un usuario administrador debe instalar los componentes necesarios específicos por separado, antes de la instalación de la plataforma de Automation Suite. Después de instalar los componentes necesarios, puedes ejecutar el instalador. Para obtener la lista de permisos necesarios, consulta Conceder permisos de instalación.
Para estimar la capacidad del nodo en función de tu producto y los requisitos de tu escala, usa la calculadora de tamaño de instalación de UiPath Automation Suite .
El requisito de volumen raíz para los nodos agente (trabajador) es de 256 GB.
Como mínimo, para comenzar con los servicios obligatorios de la plataforma (identidad, licencias y enrutamiento) y Orchestrator, debes aprovisionar 8 vCPU y 16 GB de RAM por nodo.
No recomendamos utilizar instancias puntuales en Automation Suite en escenarios de producción, debido a problemas de estabilidad y rendimiento.
Recomendamos habilitar el escalado automático en el clúster para garantizar una alta fiabilidad y evitar interrupciones comerciales.
Automation Suite Robot requieren nodos de trabajo adicionales.
Los requisitos de hardware para el nodo Robots de Automation Suite dependen de la forma en que planees utilizar tus recursos. Además de los requisitos adicionales del nodo agente, también necesitas un mínimo de 10 GB de almacenamiento de archivos para habilitar el almacenamiento en caché de paquetes.
Para obtener más información, consulta Documentación de almacenamiento .
Las siguientes secciones describen los factores que afectan la cantidad de hardware que requiere el nodo de Automation Suite Robots.
Tamaño del robot
La siguiente tabla describe la CPU, la memoria y el almacenamiento necesarios para todos los tamaños de robots.
|
Tamaño |
CPU |
Memoria |
Almacenamiento |
|---|---|---|---|
|
Pequeño |
0.5 |
1 GB |
1 GB |
|
Estándar |
1 |
2 GB |
2 GB |
|
Medio |
2 |
4 GB |
4 GB |
|
Grande |
6 |
10 GB |
10 GB |
Tamaño del nodo del agente
Los recursos del nodo agente de Automation Suite Robots influyen en el número de trabajos que se pueden ejecutar de forma concurrente. La razón es que el número de núcleos de CPU y la cantidad de capacidad de RAM se dividen entre los requisitos de CPU / memoria del trabajo.
Por ejemplo, un nodo con 16 CPU y 32 GB de RAM podría ejecutar cualquiera de las siguientes opciones:
- 32 Pequeños trabajos
- 16 trabajos estándar
- 8 trabajos medios
- 2 trabajos grandes
Los tamaños de trabajo pueden combinarse, por lo que, en cualquier momento, el mismo nodo podría ejecutar una combinación de trabajos como el siguiente:
- 10 trabajos pequeños (que consumen 5 CPU y 10 GB de memoria)
- 4 trabajos estándar (que consumen 4 CPU y 8 GB de memoria)
- 3 trabajos medianos (que consumen 6 CPU y 12 GB de memoria)
Consumo de recursos de Kubernetes
Dado que el nodo forma parte de un clúster de Kubernetes, el agente de Kubernetes presente en el servidor (kubelet) consume una pequeña cantidad de recursos. Según nuestras mediciones, el kubelet consume los siguientes recursos:
- 0,6 CPU
- 0,4 GB de RAM
Un nodo similar al descrito anteriormente tendría aproximadamente 15.4 CPU y 31.6 GB de RAM.
Selección automática del tamaño de la máquina
Todos sus procesos multiplataforma tienen la opción Robots de Automation Suite establecida como Automático de forma predeterminada. Este ajuste selecciona el tamaño de máquina adecuado para ejecutar el proceso usando robots sin servidor.
Al elegir automáticamente el tamaño, los criterios enumerados en la tabla siguiente se evalúan por orden. Tan pronto como se satisface un criterio se elige el tamaño de máquina correspondiente y no se evalúan los criterios restantes.
|
Orden |
Criterio |
Tamaño de la máquina |
|---|---|---|
|
1 |
Trabajo de depuración remota |
Medio |
|
2 |
Proceso dependiente de Automatización de IU O Proceso dependiente de las actividades de Document Understanding de UiPath |
Estándar |
|
3 |
Otro proceso desatendido |
Pequeño |
Para aumentar el rendimiento, puedes instalar Document Understanding en un nodo agente adicional compatible con GPU. Sin embargo, ten en cuenta que los proyectos basados en AI Center en Document Understanding son totalmente funcionales sin el nodo GPU. En realidad, Document Understanding utiliza máquinas virtuales de CPU para todas sus tareas de extracción y clasificación, mientras que para OCR recomendamos encarecidamente el uso de una máquina virtual de GPU.
Para obtener más información sobre el uso de CPU/GPU dentro del marco de Document Understanding, consulta Uso de CPU y GPU.
Si quieres utilizar un nodo adicional compatible con GPU, debes cumplir los siguientes requisitos:
|
Hardware |
Requisitos mínimos |
|---|---|
|
Procesador |
8 (v)CPU/núcleos |
|
RAM |
52 GB |
|
Disco del sistema operativo |
SSD de 256 GB E/S mínima por segundo: 1100 |
|
DiscoDeDatos |
N/D |
|
RAM de GPU |
11 GB |
--node-taints nvidia.com/gpu=present:NoSchedule en lugar de --node-taints sku=gpu:NoSchedule.
tolerations coincidente. Puedes utilizar el siguiente ejemplo:tolerations:
- key: "nvidia.com/gpu"
operator: "Equal"
value: "present"
effect: "NoSchedule"tolerations:
- key: "nvidia.com/gpu"
operator: "Equal"
value: "present"
effect: "NoSchedule"Automation Suite es compatible con las GPU de NVIDIA. Para obtener más información sobre cómo configurar las GPU NVDIA (como los controladores), consulta la documentación de OpenShift.
Documento adicional Comprender los requisitos de los proyectos modernos
enable_cpu_inference en true, como se indica en la sección Habilitar o deshabilitar Document Understanding .
- La inferencia puede ser hasta 10 veces más lenta.
- Recomendamos utilizarlo para documentos con un máximo de 125 páginas. No hay ninguna limitación activa. Sin embargo, la inferencia puede fallar para documentos de más de 125 páginas.
Sin la inferencia de la CPU, se requiere un mínimo de 5 GPU para los proyectos modernos de Document Understanding. El escenario de ejemplo de la siguiente tabla demuestra cómo 5 GPU son suficientes para procesar 300 páginas.
| Función | Número |
|---|---|
| Páginas de modelo personalizadas procesadas por hora | 300 |
| Páginas de modelo listas para usar procesadas por hora | 0 |
| Entrenamiento de modelos en paralelo | 1 |
| Número de páginas en todos los proyectos: tiempo de diseño | 200 |
| Número de tipos de documentos por versión del proyecto | 3 |
Las 5 GPU se distribuyen entre diferentes funciones, como se detalla en la siguiente tabla:
| Servicio | Número de GPU |
|---|---|
| Réplicas de OCR | 1 |
| Réplicas de entrenamiento de modelos personalizados | 1 |
| Réplicas de modelos personalizados | 2 |
| Réplicas de modelos listas para usar | 1 |
| Total | 5 |
Para obtener más información sobre cómo asignar GPU a cada servicio, consulta la página.
Además de las demandas de la GPU, los proyectos modernos de Document Understanding también requieren recursos específicos de la CPU para un rendimiento óptimo. Para un rendimiento óptimo, se requiere un mínimo de 18 vCPU .
objectstore para realizar las actividades de los ejemplos proporcionados de forma continua durante un año. Puedes comenzar con un número más pequeño, pero la actividad fallará una vez que se complete el almacenamiento, a menos que la escales explícitamente.
Si estás aprovisionando un año de procesamiento continuo, necesitarás 4 TB para los proyectos modernos de Document Understanding y 512 GB para los demás productos. El total será de 4,5 TB de almacenamiento. Del mismo modo, si comienzas con seis meses de procesamiento, necesitarás 2 TB para los proyectos modernos de Document Understanding y 512 GB para los demás productos. En este caso, el total será de 2,5 TB.
Aprovisionamiento de GPU habilitadas para MIG
Las cargas de trabajo de Automation Suite Document Understanding admiten la ejecución en GPU virtuales (VGPU) creadas con la tecnología NVIDIA MIG (GPU de instancias múltiples).
Para ejecutar Document Understanding en estas condiciones, ten en cuenta los siguientes requisitos:
-
Memoria de la GPU (VRAM): al menos 16 GB por VGPU
Nota: UiPath solo admite la estrategia única, lo que significa que todas las VGPU serán exactamente iguales. -
Almacenamiento: al menos 80 GB por VGPU
Habilitar GPU habilitadas para MIG en Kubernetes
Después de aprovisionar las GPU habilitadas para MIG en tu clúster con perfiles que coincidan o superen los requisitos mínimos anteriores, asegúrate de que las GPU sean Kubernetes programables. El nodo debe informar de un número de GPU distinto de cero antes de que se puedan programar cargas de trabajo en él.
Para hacer que las GPU sean programables, tienes dos opciones:
- Opción A: sigue la documentación oficial de configuración de la GPU de tu proveedor de la nube, o la del sitio web de NVIDIA:
- Documentación de NVIDIA: compatibilidad con MIG en la plataforma de contenedores OpenShift
- Documentación de IBM Developer: Implementar NVIDIA MIG en Red Hat OpenShift
- Opción B (alternativa): implementa el complemento del dispositivo NVIDIA directamente:
- Crea un nuevo espacio de nombres:
kubectl create namespace gpu-resourceskubectl create namespace gpu-resources - Aplica la siguiente configuración, reemplazando
migEnabledPoolNamepor la etiqueta que coincida con tu nodo de GPU:apiVersion: v1 kind: Pod metadata: name: nvidia-device-plugin-pod namespace: gpu-resources spec: affinity: nodeAffinity: requiredDuringSchedulingIgnoredDuringExecution: nodeSelectorTerms: - matchExpressions: - key: agentpool operator: In values: # To be changed to a selector that matches the GPU nodes - migEnabledPoolName containers: - args: - --fail-on-init-error=false env: - name: MPS_ROOT value: /run/nvidia/mps - name: MIG_STRATEGY # We only support the single strategy for now value: single - name: NVIDIA_MIG_MONITOR_DEVICES value: all - name: NVIDIA_VISIBLE_DEVICES value: all - name: NVIDIA_DRIVER_CAPABILITIES value: compute,utility image: nvcr.io/nvidia/k8s-device-plugin:v0.17.3 imagePullPolicy: IfNotPresent name: nvidia-device-plugin-ctr securityContext: allowPrivilegeEscalation: true capabilities: add: - SYS_ADMIN terminationMessagePath: /dev/termination-log terminationMessagePolicy: File volumeMounts: - mountPath: /var/lib/kubelet/device-plugins name: device-plugin tolerations: - key: CriticalAddonsOnly operator: Exists - effect: NoSchedule key: nvidia.com/gpu operator: Exists terminationGracePeriodSeconds: 30 volumes: - hostPath: path: /var/lib/kubelet/device-plugins type: "" name: device-pluginapiVersion: v1 kind: Pod metadata: name: nvidia-device-plugin-pod namespace: gpu-resources spec: affinity: nodeAffinity: requiredDuringSchedulingIgnoredDuringExecution: nodeSelectorTerms: - matchExpressions: - key: agentpool operator: In values: # To be changed to a selector that matches the GPU nodes - migEnabledPoolName containers: - args: - --fail-on-init-error=false env: - name: MPS_ROOT value: /run/nvidia/mps - name: MIG_STRATEGY # We only support the single strategy for now value: single - name: NVIDIA_MIG_MONITOR_DEVICES value: all - name: NVIDIA_VISIBLE_DEVICES value: all - name: NVIDIA_DRIVER_CAPABILITIES value: compute,utility image: nvcr.io/nvidia/k8s-device-plugin:v0.17.3 imagePullPolicy: IfNotPresent name: nvidia-device-plugin-ctr securityContext: allowPrivilegeEscalation: true capabilities: add: - SYS_ADMIN terminationMessagePath: /dev/termination-log terminationMessagePolicy: File volumeMounts: - mountPath: /var/lib/kubelet/device-plugins name: device-plugin tolerations: - key: CriticalAddonsOnly operator: Exists - effect: NoSchedule key: nvidia.com/gpu operator: Exists terminationGracePeriodSeconds: 30 volumes: - hostPath: path: /var/lib/kubelet/device-plugins type: "" name: device-plugin
- Crea un nuevo espacio de nombres:
nvidia.com/gpu, en función del perfil MIG que hayas configurado. El nodo debería ser ahora programable y estar listo para ejecutar cargas de trabajo de Document Understanding.
Recomendamos habilitar los taints de nodo en nodos trabajadores dedicados para Robots de Automation Suite y Document Understanding.
Ejemplo de AI Center y DU:
-
Para la CPU:
oc taint node <node_name> aic.ml/cpu=present:NoScheduleoc taint node <node_name> aic.ml/cpu=present:NoSchedule
-
Para GPU:
oc taint node <node_name> nvidia.com/gpu=present:NoScheduleoc taint node <node_name> nvidia.com/gpu=present:NoSchedule
EjemploAutomation Suite Robot :
-
añade un taint para los robots sin servidor utilizando el siguiente comando:
oc taint node <node_name> serverless.robot=present:NoScheduleoc taint node <node_name> serverless.robot=present:NoSchedule -
añade las etiquetas para los robots sin servidor utilizando el siguiente comando:
oc label node <node_name> serverless.robot=true serverless.daemon=trueoc label node <node_name> serverless.robot=true serverless.daemon=true
Si tienes corrupciones de nodo personalizadas que se aplican mediante la política de controlador de acceso, como roles específicos para nodos de trabajo o etiquetas, no se pasarán a Automation Suite y pueden interrumpir el proceso de instalación.
Para obtener información sobre corrupciones y toleraciones, consulta la documentación de Kubernetes.
- Clúster y permisos
- Capacidad de nodo
- Ajuste de escala automático
- Requisitos adicionales de Automation Suite Robots
- Tamaño del robot
- Tamaño del nodo del agente
- Consumo de recursos de Kubernetes
- Selección automática del tamaño de la máquina
- Recomendaciones adicionales de Document Understanding
- Documento adicional Comprender los requisitos de los proyectos modernos
- Aprovisionamiento de GPU habilitadas para MIG
- Programación de nodos