- Información general
- Requisitos
- Preinstalación
- Instalación
- Después de la instalación
- Migración y actualización
- Actualizar Automation Suite
- Migrar productos independientes a Automation Suite
- Paso 1: restaurar la base de datos del producto independiente
- Paso 2: actualizar el esquema de la base de datos del producto restaurada
- Paso 3: mover los datos de la organización de Identity de independiente a Automation Suite
- Paso 4: Realizar una copia de seguridad de la base de datos de la plataforma en Automation Suite
- Paso 5: Fusionar organizaciones en Automation Suite
- Paso 6: actualizar las cadenas de conexión del producto migradas
- Paso 7: migrar Orchestrator independiente
- Paso 8: migrar Insights independiente
- Paso 9: eliminar el tenant predeterminado
- Realizar una migración de un solo tenant
- Migrar entre clústeres de Automation Suite
- Migrar de Automation Suite en EKS/AKS a Automation Suite en OpenShift
- Supervisión y alertas
- Administración de clústeres
- Configuración específica del producto
- Configurar parámetros de Orchestrator
- Configurar AppSettings
- Configurar el tamaño máximo de la solicitud
- Anular la configuración de almacenamiento a nivel de clúster
- Configurar NLog
- Guardar los registros del robot en Elasticsearch
- Configurar almacenes de credenciales
- Configurar clave de cifrado por tenant
- Limpiar la base de datos de Orchestrator
- Solución de problemas
- No se puede acceder a Automation Hub tras la actualización a Automation Suite 2024.10.0
- Error de aprovisionamiento de AI Center después de actualizar a 2023.10 o posterior
- Volúmenes de Insights creados en dos zonas diferentes después de la migración
- La actualización falla debido a los tamaños de PVC de Insights anulados
- La configuración de la copia de seguridad no funciona debido a un fallo en la conexión a Azure Government
- Los pods en el espacio de nombres de UiPath se atascaban al habilitar los taints de nodo personalizados
- No se puede iniciar Automation Hub y Apps con la configuración de proxy
- El robot no puede conectarse a una instancia de Automation Suite Orchestrator
- La transmisión de registros no funciona en las configuraciones de proxy
- La copia de seguridad de Velero falla con el error de validación fallida
- El acceso a FQDN devuelve RBAC: error de acceso denegado

Guía de instalación de Automation Suite en EKS/AKS
Puedes traer tu propio clúster de Kubernetes y seguir tus prácticas estándar para aprovisionarlo y gestionarlo.
-
Instala y configura la malla de servicios de Istio. Para obtener más información, consulta Instalar y configurar la malla de servicio.
-
Traiga su propio ArgoCD. Para obtener más información, consulta Instalar y configurar la herramienta GitOps.
-
Si instalas Process Mining, debes instalar cert-manager y Dapr tú mismo. Para obtener más información, consulta Cumplir los requisitos previos de Process Mining.
-
Crea y gestiona certificados tú mismo. Para obtener más información, consulta Certificados generados durante la instalación.
-
Crea una cuenta de servicio y concede los permisos necesarios para la instalación de Automation Suite. Para obtener más información, consulta Conceder permisos de instalación.
Después de instalar los componentes necesarios, puedes ejecutar el instalador con permisos inferiores. Para obtener la lista de permisos necesarios, consulta Conceder permisos de instalación.
Cada versión de soporte a largo plazo de Automation Suite viene con una matriz de compatibilidad. Para versiones de EKS o AKS compatibles, consulta Matriz de compatibilidad.
Probamos la compatibilidad de Automation Suite con los siguientes sistemas operativos Linux:
| Proveedor de la nube | SO |
|---|---|
| AKS |
|
| EKS |
|
Para estimar la capacidad del nodo en función de tu producto y los requisitos de tu escala, usa la calculadora de tamaño de instalación de UiPath Automation Suite .
El requisito de volumen raíz para los nodos agente (trabajador) es de 256 GB.
Como mínimo, para comenzar con los servicios obligatorios de la plataforma (identidad, licencias y enrutamiento) y Orchestrator, debes aprovisionar 8 vCPU y 16 GB de RAM por nodo.
No recomendamos utilizar instancias puntuales en Automation Suite en escenarios de producción, debido a problemas de estabilidad y rendimiento.
Debes deshabilitar el intercambio de memoria antes de instalar Automation Suite. Se sabe que la memoria de intercambio causa problemas con las cargas de trabajo del contenedor. Además, las cargas de trabajo de Automation Suite no se benefician de utilizar la memoria de intercambio y Kubernetes ya optimiza el uso de la memoria.
Recomendamos habilitar el escalado automático en el clúster para garantizar una alta fiabilidad y evitar interrupciones comerciales.
Si instalas Task Mining, debes aprovisionar nodos de trabajo adicionales con 20 CPU virtuales y 60 GB de RAM. Este nodo debe estar corrupto para garantizar que solo se ejecuten en él las cargas de trabajo de Task Mining. Para obtener más información, consulta la sección Programación de nodos .
Automation Suite Robot requieren nodos de trabajo adicionales.
Los requisitos de hardware para el nodo Robots de Automation Suite dependen de la forma en que planees utilizar tus recursos. Además de los requisitos adicionales del nodo agente, también necesitas un mínimo de 10 GB de almacenamiento de archivos para habilitar el almacenamiento en caché de paquetes.
Para obtener más información, consulta Documentación de almacenamiento .
Las siguientes secciones describen los factores que afectan la cantidad de hardware que requiere el nodo de Automation Suite Robots.
Tamaño del robot
La siguiente tabla describe la CPU, la memoria y el almacenamiento necesarios para todos los tamaños de robots.
|
Tamaño |
CPU |
Memoria |
Almacenamiento |
|---|---|---|---|
|
Pequeño |
0.5 |
1 GB |
1 GB |
|
Estándar |
1 |
2 GB |
2 GB |
|
Medio |
2 |
4 GB |
4 GB |
|
Grande |
6 |
10 GB |
10 GB |
Tamaño del nodo del agente
Los recursos del nodo agente de Automation Suite Robots influyen en el número de trabajos que se pueden ejecutar de forma concurrente. La razón es que el número de núcleos de CPU y la cantidad de capacidad de RAM se dividen entre los requisitos de CPU / memoria del trabajo.
Por ejemplo, un nodo con 16 CPU y 32 GB de RAM podría ejecutar cualquiera de las siguientes opciones:
- 32 Pequeños trabajos
- 16 trabajos estándar
- 8 trabajos medios
- 2 trabajos grandes
Los tamaños de trabajo pueden combinarse, por lo que, en cualquier momento, el mismo nodo podría ejecutar una combinación de trabajos como el siguiente:
- 10 trabajos pequeños (que consumen 5 CPU y 10 GB de memoria)
- 4 trabajos estándar (que consumen 4 CPU y 8 GB de memoria)
- 3 trabajos medianos (que consumen 6 CPU y 12 GB de memoria)
Consumo de recursos de Kubernetes
Dado que el nodo forma parte de un clúster de Kubernetes, el agente de Kubernetes presente en el servidor (kubelet) consume una pequeña cantidad de recursos. Según nuestras mediciones, el kubelet consume los siguientes recursos:
- 0,6 CPU
- 0,4 GB de RAM
Un nodo similar al descrito anteriormente tendría aproximadamente 15.4 CPU y 31.6 GB de RAM.
Selección automática del tamaño de la máquina
Todos sus procesos multiplataforma tienen la opción Robots de Automation Suite establecida como Automático de forma predeterminada. Este ajuste selecciona el tamaño de máquina adecuado para ejecutar el proceso usando robots sin servidor.
Al elegir automáticamente el tamaño, los criterios enumerados en la tabla siguiente se evalúan por orden. Tan pronto como se satisface un criterio se elige el tamaño de máquina correspondiente y no se evalúan los criterios restantes.
|
Orden |
Criterio |
Tamaño de la máquina |
|---|---|---|
|
1 |
Trabajo de depuración remota |
Medio |
|
2 |
Proceso dependiente de Automatización de IU O Proceso dependiente de las actividades de Document Understanding de UiPath |
Estándar |
|
3 |
Otro proceso desatendido |
Pequeño |
Para aumentar el rendimiento, puedes instalar Document Understanding en un nodo agente adicional compatible con GPU. Sin embargo, ten en cuenta que los proyectos basados en AI Center en Document Understanding son totalmente funcionales sin el nodo GPU. En realidad, Document Understanding utiliza máquinas virtuales de CPU para todas sus tareas de extracción y clasificación, mientras que para OCR recomendamos encarecidamente el uso de una máquina virtual de GPU.
Para obtener más información sobre el uso de CPU/GPU dentro del marco de Document Understanding, consulta Uso de CPU y GPU.
Si quieres utilizar un nodo adicional compatible con GPU, debes cumplir los siguientes requisitos:
|
Hardware |
Requisitos mínimos |
|---|---|
|
Procesador |
8 (v)CPU/núcleos |
|
RAM |
52 GB |
|
Disco del sistema operativo |
SSD de 256 GB E/S mínima por segundo: 1100 |
|
DiscoDeDatos |
N/D |
|
RAM de GPU |
11 GB |
--node-taints nvidia.com/gpu=present:NoSchedule en lugar de --node-taints sku=gpu:NoSchedule.
tolerations coincidente. Puedes utilizar el siguiente ejemplo:tolerations:
- key: "nvidia.com/gpu"
operator: "Equal"
value: "present"
effect: "NoSchedule"tolerations:
- key: "nvidia.com/gpu"
operator: "Equal"
value: "present"
effect: "NoSchedule"Automation Suite es compatible con las GPU de NVIDIA. Para obtener más información sobre cómo configurar las GPU NVDIA (como los controladores), consulta los documentos respectivos de Azure o AWS.
Documento adicional Comprender los requisitos de los proyectos modernos
Se requiere un mínimo de 5 GPU para los proyectos modernos de Document Understanding. El escenario de ejemplo de la siguiente tabla demuestra cómo 5 GPU son suficientes para procesar 300 páginas.
| Función | Número |
|---|---|
| Páginas de modelo personalizadas procesadas por hora | 300 |
| Páginas de modelo listas para usar procesadas por hora | 0 |
| Entrenamiento de modelos en paralelo | 1 |
| Número de páginas en todos los proyectos: tiempo de diseño | 200 |
| Número de tipos de documentos por versión del proyecto | 3 |
Las 5 GPU se distribuyen entre diferentes funciones, como se detalla en la siguiente tabla:
| Servicio | Número de GPU |
|---|---|
| Réplicas de OCR | 1 |
| Réplicas de entrenamiento de modelos personalizados | 1 |
| Réplicas de modelos personalizados | 2 |
| Réplicas de modelos listas para usar | 1 |
| Total | 5 |
Para obtener más información sobre cómo asignar GPU a cada servicio, consulta la página Asignar recursos de GPU para proyectos modernos de Document Understanding .
Además de las demandas de la GPU, los proyectos modernos de Document Understanding también requieren recursos específicos de la CPU para un rendimiento óptimo. Para un rendimiento óptimo, se requiere un mínimo de 18 vCPU .
objectstore para realizar las actividades de los ejemplos proporcionados de forma continua durante un año. Puedes comenzar con un número más pequeño, pero la actividad fallará una vez que se complete el almacenamiento, a menos que la escales explícitamente.
Si estás aprovisionando un año de procesamiento continuo, necesitarás 4 TB para los proyectos modernos de Document Understanding y 512 GB para los demás productos. El total será de 4,5 TB de almacenamiento. Del mismo modo, si comienzas con seis meses de procesamiento, necesitarás 2 TB para los proyectos modernos de Document Understanding y 512 GB para los demás productos. En este caso, el total será de 2,5 TB.
Aprovisionamiento de GPU habilitadas para MIG
Las cargas de trabajo de Automation Suite Document Understanding admiten la ejecución en GPU virtuales (VGPU) creadas con la tecnología NVIDIA MIG (GPU de instancias múltiples).
Para ejecutar Document Understanding en estas condiciones, ten en cuenta los siguientes requisitos:
-
Memoria de la GPU (VRAM): al menos 16 GB por VGPU
Nota: UiPath solo admite la estrategia única, lo que significa que todas las VGPU serán exactamente iguales. -
Almacenamiento: al menos 80 GB por VGPU
Habilitar GPU habilitadas para MIG en Kubernetes
Después de aprovisionar las GPU habilitadas para MIG en tu clúster con perfiles que coincidan o superen los requisitos mínimos anteriores, asegúrate de que las GPU sean Kubernetes programables. El nodo debe informar de un número de GPU distinto de cero antes de que se puedan programar cargas de trabajo en él.
Para hacer que las GPU sean programables, tienes dos opciones:
- Opción A: sigue la documentación oficial de configuración de la GPU de tu proveedor de la nube:
- Opción B (alternativa): implementa el complemento del dispositivo NVIDIA directamente:
- Crea un nuevo espacio de nombres:
kubectl create namespace gpu-resourceskubectl create namespace gpu-resources - Aplica la siguiente configuración, reemplazando
migEnabledPoolNamepor la etiqueta que coincida con tu nodo de GPU:apiVersion: v1 kind: Pod metadata: name: nvidia-device-plugin-pod namespace: gpu-resources spec: affinity: nodeAffinity: requiredDuringSchedulingIgnoredDuringExecution: nodeSelectorTerms: - matchExpressions: - key: agentpool operator: In values: # To be changed to a selector that matches the GPU nodes - migEnabledPoolName containers: - args: - --fail-on-init-error=false env: - name: MPS_ROOT value: /run/nvidia/mps - name: MIG_STRATEGY # We only support the single strategy for now value: single - name: NVIDIA_MIG_MONITOR_DEVICES value: all - name: NVIDIA_VISIBLE_DEVICES value: all - name: NVIDIA_DRIVER_CAPABILITIES value: compute,utility image: nvcr.io/nvidia/k8s-device-plugin:v0.17.3 imagePullPolicy: IfNotPresent name: nvidia-device-plugin-ctr securityContext: allowPrivilegeEscalation: true capabilities: add: - SYS_ADMIN terminationMessagePath: /dev/termination-log terminationMessagePolicy: File volumeMounts: - mountPath: /var/lib/kubelet/device-plugins name: device-plugin tolerations: - key: CriticalAddonsOnly operator: Exists - effect: NoSchedule key: nvidia.com/gpu operator: Exists terminationGracePeriodSeconds: 30 volumes: - hostPath: path: /var/lib/kubelet/device-plugins type: "" name: device-pluginapiVersion: v1 kind: Pod metadata: name: nvidia-device-plugin-pod namespace: gpu-resources spec: affinity: nodeAffinity: requiredDuringSchedulingIgnoredDuringExecution: nodeSelectorTerms: - matchExpressions: - key: agentpool operator: In values: # To be changed to a selector that matches the GPU nodes - migEnabledPoolName containers: - args: - --fail-on-init-error=false env: - name: MPS_ROOT value: /run/nvidia/mps - name: MIG_STRATEGY # We only support the single strategy for now value: single - name: NVIDIA_MIG_MONITOR_DEVICES value: all - name: NVIDIA_VISIBLE_DEVICES value: all - name: NVIDIA_DRIVER_CAPABILITIES value: compute,utility image: nvcr.io/nvidia/k8s-device-plugin:v0.17.3 imagePullPolicy: IfNotPresent name: nvidia-device-plugin-ctr securityContext: allowPrivilegeEscalation: true capabilities: add: - SYS_ADMIN terminationMessagePath: /dev/termination-log terminationMessagePolicy: File volumeMounts: - mountPath: /var/lib/kubelet/device-plugins name: device-plugin tolerations: - key: CriticalAddonsOnly operator: Exists - effect: NoSchedule key: nvidia.com/gpu operator: Exists terminationGracePeriodSeconds: 30 volumes: - hostPath: path: /var/lib/kubelet/device-plugins type: "" name: device-plugin
- Crea un nuevo espacio de nombres:
nvidia.com/gpu, en función del perfil MIG que hayas configurado. El nodo debería ser ahora programable y estar listo para ejecutar cargas de trabajo de Document Understanding.
Recomendamos habilitar las corrupciones de nodo en nodos trabajadores dedicados para Task Mining, Automation Suite Roboty Document Understanding.
Ejemplo de AI Center y DU:
-
Para la CPU:
kubectl taint node <node_name> aic.ml/cpu=present:NoSchedulekubectl taint node <node_name> aic.ml/cpu=present:NoSchedule
-
Para GPU:
kubectl taint node <node_name> nvidia.com/gpu=present:NoSchedulekubectl taint node <node_name> nvidia.com/gpu=present:NoSchedule
Ejemplo de Task Mining:
kubectl taint node <node_name> task.mining/cpu=present:NoSchedulekubectl taint node <node_name> task.mining/cpu=present:NoScheduleEjemploAutomation Suite Robot :
-
añade un taint para los robots sin servidor utilizando el siguiente comando:
kubectl taint node <node_name> serverless.robot=present:NoSchedulekubectl taint node <node_name> serverless.robot=present:NoSchedule -
añade las etiquetas para los robots sin servidor utilizando el siguiente comando:
kubectl label node <node_name> serverless.robot=true serverless.daemon=truekubectl label node <node_name> serverless.robot=true serverless.daemon=true
Si tienes corrupciones de nodo personalizadas que se aplican mediante la política de controlador de acceso, como roles específicos para nodos de trabajo o etiquetas, no se pasarán a Automation Suite y pueden interrumpir el proceso de instalación.
Para obtener información sobre corrupciones y toleraciones, consulta la documentación de Kubernetes.
- Clúster y permisos
- Versiones de EKS / AKS compatibles
- Capacidad de nodo
- Intercambiar memoria
- Ajuste de escala automático
- Requisitos adicionales de Task Mining
- Requisitos adicionales de Automation Suite Robots
- Tamaño del robot
- Tamaño del nodo del agente
- Consumo de recursos de Kubernetes
- Selección automática del tamaño de la máquina
- Recomendaciones adicionales de Document Understanding
- Documento adicional Comprender los requisitos de los proyectos modernos
- Aprovisionamiento de GPU habilitadas para MIG
- Programación de nodos