- Información general
- Requisitos
- Plantillas de implementación
- Manual: preparar la instalación
- Manual: preparar la instalación
- Paso 2: configurar el registro compatible con OCI para las instalaciones sin conexión
- Paso 3: configurar el almacén de objetos externo
- Paso 4: configurar High Availability Add-on
- Paso 5: configurar las bases de datos SQL
- Paso 7: configurar el DNS
- Paso 8: configurar los discos
- Paso 9: configurar los ajustes a nivel de kernel y sistema operativo
- Paso 10: configurar los puertos de nodo
- Paso 11: aplicar ajustes varios
- Paso 12: Validar e instalar los paquetes RPM necesarios
- Ejemplo de Clúster_config.json
- Configuración general
- Configuración del perfil
- Configuración de certificados
- Configuración de la base de datos
- Configuración del almacén de objetos externo
- Configuración de URL prefirmada
- Configuración de ArgoCD
- Configuración de la autenticación Kerberos
- Configuración de registro externo compatible con OCI
- Disaster recovery: configuraciones activas/pasivas y activas/activas
- Configuración de High Availability Add-on
- Configuración específica de Orchestrator
- Configuración específica de Insights
- Process Mining-specific configuration
- Configuración específica de Document Understanding
- Automation Suite Robots-specific configuration
- Configuración específica de AI Center
- Configuración de la supervisión
- Opcional: configurar el servidor proxy
- Opcional: habilitación de la resistencia a fallos de zona en un clúster multinodo de producción preparada para alta disponibilidad
- Opcional: pasar resolv.conf personalizado
- Optional: Increasing fault tolerance
- Inclusión de un nodo agente dedicado compatible con GPU
- Añadir un nodo agente dedicado a Automation Suite Robots
- Paso 15: configurar el registro temporal de Docker para las instalaciones sin conexión
- Paso 16: validar los requisitos previos para la instalación
- Manual: realizar la instalación
- Después de la instalación
- Administración de clústeres
- Gestionar los productos
- Primeros pasos con el Portal de administración del clúster
- Migración de Redis desde un clúster a un High Availability Add-on externo
- Migrating data between objectstores
- Migrating in-cluster objectstore to external objectstore
- Migrar del registro en clúster a un registro externo compatible con OCI
- Cambiar manualmente al clúster secundario en una configuración activa/pasiva
- Disaster Recovery: realizar operaciones posteriores a la instalación
- Convertir una instalación existente en una configuración en varios sitios
- Directrices sobre la actualización de una implementación activa/pasiva o activa/activa
- Directrices sobre la copia de seguridad y restauración de una implementación activa/pasiva o activa/activa
- Escalar una implementación de nodo único (evaluación) a una implementación multinodo (HA)
- Supervisión y alertas
- Migración y actualización
- Migrar entre clústeres de Automation Suite
- Actualizar Automation Suite
- Descargar los paquetes de instalación y obtener todos los archivos del primer nodo del servidor
- Recuperar la última configuración aplicada del clúster
- Actualizar la configuración del clúster
- Configurar el registro compatible con OCI para las instalaciones sin conexión
- Ejecutar la actualización
- Realizar operaciones posteriores a la actualización
- Configuración específica del producto
- Configurar parámetros de Orchestrator
- Configurar AppSettings
- Configurar el tamaño máximo de la solicitud
- Anular la configuración de almacenamiento a nivel de clúster
- Configurar NLog
- Guardar los registros del robot en Elasticsearch
- Configurar almacenes de credenciales
- Configurar clave de cifrado por tenant
- Limpiar la base de datos de Orchestrator
- Buenas prácticas y mantenimiento
- Solución de problemas
- Cómo solucionar los problemas de los servicios durante la instalación
- Cómo desinstalar el clúster
- Cómo limpiar los artefactos sin conexión para mejorar el espacio en disco
- Cómo borrar datos de Redis
- Cómo habilitar el registro de Istio
- Cómo limpiar manualmente los registros
- Cómo limpiar los registros antiguos almacenados en el depósito sf-logs
- Cómo deshabilitar los registros de transmisión para AI Center
- Cómo depurar instalaciones de Automation Suite fallidas
- Cómo eliminar imágenes del instalador antiguo después de la actualización
- Cómo deshabilitar la descarga de la suma de comprobación TX
- Cómo establecer manualmente el nivel de registro de ArgoCD en Info
- Cómo expandir el almacenamiento de AI Center
- Cómo generar el pull_secret_value codificado para registros externos
- Cómo abordar los cifrados débiles en TLS 1.2
- Cómo comprobar la versión de TLS
- Cómo trabajar con certificados
- Cómo programar la copia de seguridad y la restauración de datos de Ceph
- Cómo recopilar datos de uso de DU con el almacén de objetos en el clúster (Ceph)
- Cómo instalar RKE2 SELinux en entornos aislados
- How to clean up old differential backups on an NFS server
- Error al descargar el paquete
- La instalación sin conexión falla porque falta un binario
- Problema de certificado en la instalación sin conexión
- Error de validación de la cadena de conexión SQL
- Azure disk not marked as SSD
- Fallo tras la actualización del certificado
- El antivirus causa problemas de instalación
- Automation Suite not working after OS upgrade
- Automation Suite requiere que backlog_wait_time se establezca en 0
- La instalación del registro temporal falla en RHEL 8.9
- Problema de reinicio frecuente en las implementaciones del espacio de nombres de uipath durante las instalaciones sin conexión
- Configuración de DNS no respetada por CoreDNS
- Upgrade fails due to unhealthy Ceph
- RKE2 no se inicia debido a un problema de espacio
- La actualización falla debido a objetos clásicos en la base de datos de Orchestrator
- El clúster de Ceph se encuentra en un estado degradado tras una actualización en paralelo.
- La actualización del servicio falla para Apps
- Tiempos de actualización in situ
- La actualización falla en entornos sin conexión
- pod de snapshot-controller-crds en estado CrashLoopBackOff después de la actualización
- La actualización falla debido a los tamaños de PVC de Insights anulados
- Establecer un intervalo de tiempo de espera para los portales de gestión
- La autenticación no funciona tras la migración
- kinit: no se puede encontrar la KDC para el territorio <AD Domain> mientras se obtienen las credenciales iniciales
- kinit: keytab no contiene claves adecuadas para *** mientras se obtienen las credenciales iniciales
- Error en la operación GSSAPI debido a un código de estado no válido
- Alarma recibida por un error en el trabajo de Kerberos-tgt-update
- Proveedor de SSPI: servidor no encontrado en la base de datos de Kerberos
- Error en inicio de sesión de un usuario AD debido a una cuenta deshabilitada
- ArgoCD login failed
- Actualizar las conexiones del directorio subyacente
- Fallo en la obtención de la imagen de Sandbox
- Los pods no se muestran en la interfaz de usuario de ArgoCD
- Fallo de la sonda Redis
- El servidor RKE2 no se inicia
- Secreto no encontrado en el espacio de nombres UiPath
- ArgoCD entra en estado de progreso tras la primera instalación
- Faltan métricas de Ceph-rook en los paneles de supervisión
- Falta de coincidencia en los errores informados durante las comprobaciones de estado de diagnóstico
- No hay problema ascendente en buen estado
- Inicio de Redis bloqueado por antivirus
- Document Understanding no se encuentra en la barra izquierda de Automation Suite
- Estado fallido al crear una sesión de etiquetado de datos
- Estado fallido al intentar implementar una habilidad ML
- El trabajo de migración falla en ArgoCD
- El reconocimiento de la escritura manual con el extractor de formularios inteligente no funciona
- Ejecutar alta disponibilidad con Process Mining
- La ingestión de Process Mining falló al iniciar sesión con Kerberos
- No se puede conectar a la base de datos AutomationSuite_ProcessMining_Warehouse utilizando una cadena de conexión en formato pyodbc
- La instalación de Airflow falla con sqlalchemy.exc.ArgumentError: no se pudo analizar la URL rfc1738 de la cadena ''
- Cómo añadir una regla de tabla de IP para utilizar el puerto 1433 de SQL Server
- El certificado de Automation Suite no es de confianza desde el servidor donde se ejecuta CData Sync
- Ejecutar la herramienta de diagnóstico
- Uso del paquete de soporte de Automation Suite
- Explorar registros
- Explorar la telemetría resumida

Guía de instalación de Automation Suite en Linux
Para obtener más información sobre los conceptos básicos utilizados en la implementación de Automation Suite, consulta Glosario.
La experiencia de instalación predeterminada incluye dos opciones de productos:
- Completa (todos los productos): instala la lista completa de productos disponibles en Automation Suite. Para obtener más detalles, consulta Productos de Automation Suite.
-
Seleccionar productos: te permite seleccionar e instalar solo los productos en los que estás interesado. No obstante, recuerda que el instalador tiene en cuenta las dependencias entre productos. Eso significa que, si un producto requiere la instalación de otro producto, deberás instalar ambos. Para obtener más detalles, consulta .
Nota:Puedes activar más productos con posterioridad en la misma implementación, después de la instalación inicial y sin tener que volver a llevar a cabo ninguna reinstalación. Para obtener más información, consulta la sección Gestión de productos.
Recomendamos validar los requisitos de hardware según el uso esperado y asegurarse de que la implementación tenga capacidad suficiente antes de agregar productos adicionales. Para obtener más información, consulta Planificación de la capacidad.
Puedes implementar Automation Suite en modo de evaluación de nodo único, modo lite o modo de producción multinodo preparado para alta disponibilidad. Aunque la mayoría de los requisitos previos para los perfiles son idénticos, el modo de producción multinodo preparado para alta disponibilidad requiere recursos adicionales.
Una vez que se inicia la implementación, no se puede cambiar o actualizar de un perfil de implementación a otro, excepto del modo básico al multinodo preparado para alta disponibilidad y viceversa. Antes de elegir tu perfil de implementación, consulta .
|
Tipo de requisito previo |
Requisito previo |
|---|---|
|
Hardware |
Nota:
Para evitar posibles problemas de instalación, asegúrate de que todos los nodos utilizados en la implementación estén configurados en la misma zona horaria. |
|
Requisitos generales de la máquina | |
|
Requisitos específicos para los siguientes productos:
| |
|
Versión de RHEL compatible y herramienta ipcalc instalada en todas las máquinas Linux. Para obtener más información sobre la compatibilidad de RHEL con versiones anteriores de Automation Suite, consulta Matriz de compatibilidad de RHEL. Nota:
Admitimos nuevas versiones secundarias de RHEL en un plazo de 90 días tras su lanzamiento. Admitimos SELinux con políticas predeterminadas.* | |
|
FIPS 140-2 | |
|
Equilibrador de carga L4 / Equilibrador de carga de red | |
|
Requisitos del servidor NFS (servidor NFS local o gestionado en la nube con la versión NFSv3/NFSv4 en Linux)
| |
|
Puertos de nodo | |
|
Software |
Paquetes RPM en cada máquina |
|
Servidor SQL | |
|
Almacén de objetos (almacenamiento de Azure Blob, AWS S3, almacén de objetos compatible con S3) | |
|
Registro compatible con OCI | |
|
Dns | |
| TLS 1.2+ | |
| IPv4
(IPv6 no es compatible) | |
|
La memoria de intercambio debe estar deshabilitada. | |
|
rke2-selinux no se instala automáticamente. Si experimentas problemas relacionados con SELinux, debes instalar el paquete de políticas de SELinux manualmente. Para obtener más información, consulta la sección Cómo....
- Necesitas permisos de administrador (root) para instalar e implementar Automation Suite. Para obtener más información sobre los componentes concretos que requieren acceso de administrador, consulta Requisito de privilegios de acceso de administrador (root).
-
Cilium requiere permisos CAP_SYS_ADMIN para funcionar correctamente. Asegúrate de que se concedan estos permisos.
- Tener agentes de escaneo ejecutándose en su sistema puede causar fallas en la instalación o en tiempo de ejecución debido a los cambios que realizan en las IPTables. Para evitar este comportamiento, configure su agente de análisis para que no interfiera con la instalación de Automation Suite.
- UiPath® no prescribe configuraciones de firewall o herramientas de desarrollador específicas siempre que se cumplan los requisitos de Automation Suite. Según nuestras observaciones, un número limitado de herramientas externas puede interferir con el buen funcionamiento de Automation Suite. Si surgen tales problemas, ponte en contacto con el proveedor correspondiente para obtener ayuda. Para obtener orientación adicional, consulta la matriz de responsabilidad de Automation Suite.
Antes de comenzar, ten en cuenta lo siguiente:
- Automation Suite admite la norma federal de procesamiento de información 140-2 (FIPS 140-2). Puedes realizar una instalación limpia de Automation Suite en un host habilitado para FIPS 140-2. También puedes habilitar FIPS 140-2 en una máquina en la que previamente has realizado una instalación de Automation Suite. Para obtener más información, consulta Seguridad y cumplimiento.
Nota:
Insights no se admite actualmente en hosts habilitados para FIPS. Asegúrate de deshabilitar Insights al instalar Automation Suite en un host habilitado para FIPS.
- Los requisitos mínimos de hardware no protegen la implementación frente a fallos del nodo.
- El perfil de producción preparado para HA multinodo es resistente al fallo de un solo nodo. Esto significa que solo puedes perder un nodo servidor. Esta restricción no se aplica a los nodos agentes. Puedes perder tantos nodos agentes y seguir utilizando el clúster sin tiempo de inactividad, siempre que haya suficiente capacidad global de clúster.
- Puedes aumentar la tolerancia del nodo del servidor a fallos siguiendo las instrucciones de Experiencia de instalación avanzada.
Las siguientes secciones enumeran los requisitos de hardware tanto para la selección de productos completa como para los productos individuales.
Complete product selection: hardware requirements
Las siguientes secciones describen los requisitos estrictos para la selección de productos Completa.
Requisitos generales
|
Hardware para todos los productos |
Requisito mínimo de un solo nodo |
Requisitos mínimos de varios nodos |
|---|---|---|
|
Procesador por clúster |
32 (v)CPU/núcleos |
96 (v)CPU/núcleos |
|
Procesador mínimo por nodo |
N/D |
8 (v)CPU/núcleos |
|
RAM |
64 GB |
192 GB |
|
RAM mínima por nodo |
N/D |
16 GB |
|
Discos del clúster* |
SSD de 256 GB E/S mínima por segundo: 1100 |
SSD de 256 GB E/S mínima por segundo: 1100 |
|
DiscoDeDatos
|
SSD de 512 GB E/S mínima por segundo: 1100 |
SSD de 512 GB E/S mínima por segundo: 1100 |
|
Disco etcd
|
SSD de 16 GB E/S mínima por segundo: 240 |
SSD de 16 GB E/S mínima por segundo: 240 |
|
Disco de paquete de UiPath®
|
SSD de 512 GB E/S mínima por segundo: 1100 |
SSD de 512 GB E/S mínima por segundo: 1100 |
|
Almacén de objetos
|
SSD de 512 GB E/S mínima por segundo: 1100 |
SSD de 512 GB E/S mínima por segundo: 1100 |
|
Espacio adicional en disco para copias de seguridad de datos de Ceph
|
SSD de 512 GB E/S mínima por segundo: 1100 |
N/D |
|
AI Center | 51 GB mínimo
Se recomiendan 105 GB para 1 proceso de entrenamiento | 51 GB mínimo
Se recomiendan 105 GB para 1 proceso de entrenamiento |
- Es posible que tengas que aumentar la capacidad del disco del clúster en función de tus habilidades ML de AI Center y los requisitos de almacenamiento de entrenamiento.
- Si habilitas proyectos modernos de Document Understanding, la capacidad mínima del disco del clúster es de 512 GB.
Si instalas Automation Suite en modo de evaluación de nodo único y no tienes una máquina con 32 (v-)CPU/núcleos y 64 GB de RAM, puedes traer máquinas con un mínimo de 8 (v-)CPU/núcleos y 16 GB de RAM. Para obtener más información, consulta Calculadora de capacidad.
Si eliges esta opción, sigue las instrucciones de instalación y configuración multinodo.
Se recomienda llevar un objectstore externo siempre que sea posible. Esto ayuda a escalar el almacén de objetos independientemente del clúster y aporta estabilidad adicional. Se admiten las siguientes opciones de almacén de objetos:
- Cuenta de Azure Storage
- Depósito de almacenamiento de AWS S3
- Depósito de almacenamiento compatibles con S3
Individual products: hardware requirements
Para obtener más detalles sobre los requisitos de hardware que debes cumplir para instalar productos individuales o varias combinaciones de productos en Automation Suite, utiliza la Calculadora de tamaño de instalación de Automation Suite.
Requisitos adicionales de Automation Suite Robots
En entornos de producción multinodo preparados para alta disponibilidad, los robots de Automation Suite requieren un nodo agente adicional. En entornos de evaluación de un solo nodo, un nodo adicional de Automation Suite Robots es opcional.
Los requisitos de hardware para el nodo Robots de Automation Suite dependen de la forma en que planees utilizar tus recursos. Además de los requisitos adicionales del nodo agente, también necesitas un mínimo de 10 GB de almacenamiento de archivos para habilitar el almacenamiento en caché de paquetes.
Las siguientes secciones describen los factores que afectan la cantidad de hardware que requiere el nodo de Automation Suite Robots.
Tamaño del robot
La siguiente tabla describe la CPU, la memoria y el almacenamiento necesarios para todos los tamaños de robots.
|
Tamaño |
CPU |
Memoria |
Almacenamiento |
|---|---|---|---|
|
Pequeño |
0.5 |
1 GB |
1 GB |
|
Estándar |
1 |
2 GB |
2 GB |
|
Medio |
2 |
4 GB |
4 GB |
|
Grande |
6 |
10 GB |
10 GB |
Tamaño del nodo del agente
Los recursos del nodo agente de Automation Suite Robots influyen en el número de trabajos que se pueden ejecutar de forma concurrente. La razón es que el número de núcleos de CPU y la cantidad de capacidad de RAM se dividen entre los requisitos de CPU / memoria del trabajo.
Por ejemplo, un nodo con 16 CPU y 32 GB de RAM podría ejecutar cualquiera de las siguientes opciones:
- 32 Pequeños trabajos
- 16 trabajos estándar
- 8 trabajos medios
- 2 trabajos grandes
Los tamaños de trabajo pueden combinarse, por lo que, en cualquier momento, el mismo nodo podría ejecutar una combinación de trabajos como el siguiente:
- 10 trabajos pequeños (que consumen 5 CPU y 10 GB de memoria)
- 4 trabajos estándar (que consumen 4 CPU y 8 GB de memoria)
- 3 trabajos medianos (que consumen 6 CPU y 12 GB de memoria)
Consumo de recursos de Kubernetes
Dado que el nodo forma parte de un clúster de Kubernetes, el agente de Kubernetes presente en el servidor (kubelet) consume una pequeña cantidad de recursos. Según nuestras mediciones, el kubelet consume los siguientes recursos:
- 0,6 CPU
- 0,4 GB de RAM
Un nodo similar al descrito anteriormente tendría aproximadamente 15.4 CPU y 31.6 GB de RAM.
Selección automática del tamaño de la máquina
Todos sus procesos multiplataforma tienen la opción Robots de Automation Suite establecida como Automático de forma predeterminada. Este ajuste selecciona el tamaño de máquina adecuado para ejecutar el proceso usando robots sin servidor.
Al elegir automáticamente el tamaño, los criterios enumerados en la tabla siguiente se evalúan por orden. Tan pronto como se satisface un criterio se elige el tamaño de máquina correspondiente y no se evalúan los criterios restantes.
|
Orden |
Criterio |
Tamaño de la máquina |
|---|---|---|
|
1 |
Trabajo de depuración remota |
Medio |
|
2 |
Proceso dependiente de Automatización de IU O Proceso dependiente de las actividades de Document Understanding de UiPath |
Estándar |
|
3 |
Otro proceso desatendido |
Pequeño |
Requisitos adicionales de AI Center y Document Understanding
Además de los requisitos de servicio básico que forman parte de los requisitos completos de la plataforma, AI Center requiere recursos adicionales, dependiendo de los modelos que deseas ejecutar o entrenar. Para obtener más información sobre las generaciones de hardware de GPU necesarias y los controladores de NVIDIA compatibles, consulta Matriz de compatibilidad.
AI Center requiere el almacenamiento en disco en el tiempo de ejecución para las habilidades ML y para el proceso de formación, como se indica a continuación:
-
Las habilidades ML requieren espacio en disco en la partición
/var/lib/rancherpara almacenar el modelo entrenado para las predicciones. En el peor de los casos, el tamaño del modelo puede ser de hasta 20 GB. -
El proceso de entrenamiento consume el almacenamiento de la partición
/var/lib/rancherpara alojar el modelo. En el peor de los casos, el tamaño del modelo puede ser de hasta 20 GB y, además, puede requerir almacenamiento para el conjunto de datos. El tamaño mínimo del almacenamiento del conjunto de datos puede ser de 51 GB. El tamaño recomendado es de 105 GB. Debe estar en el disco dedicado para AI Center. El proceso de entrenamiento solo se programa en el nodo en el que está conectado el disco dedicado de AI Center.
En la siguiente tabla se describen los recursos adicionales que necesita AI Center. En la siguiente tabla, el Disco de datos es necesario en todos los nodos del servidor. El disco de datos no es necesario en los nodos de agente.
|
Usar |
CPU |
RAM (GB) |
GPU |
Disco (GB) |
|---|---|---|---|---|
|
Mínimo para servicio (habilidad ML, una réplica) |
0,6 |
2 |
0 |
|
|
Mínimo para entrenamiento (proceso) |
1 |
4 |
0 |
|
|
Servicio de modelo de DU (habilidad ML, una réplica) |
1 |
4 |
0 |
|
|
Entrenamiento de modelo de DU |
2 |
24 |
Se recomienda encarecidamente |
|
En la siguiente tabla, el Disco de datos es necesario en todos los nodos del servidor. El disco de datos no es necesario en los nodos de agente.
|
Usar |
CPU |
RAM (GB) |
GPU |
Disco (GB) |
|---|---|---|---|---|
|
Implementación pequeña:
|
4 |
32 |
0 |
|
|
Implementación media:
|
8 |
52 |
Se recomienda encarecidamente |
|
rancher = 80 GB en la partición rancher
2 1 proceso * 105GB = 105 Disco de datos
rancher = 160 GB en la partición rancher
4 (2 canalización + 1 canalización de DU) * 105GB = 315 Disco de datos
Requisitos adicionales de AI Computer Vision
Esta configuración funciona en las GPU en las instalaciones de Nvidia, pero también con proveedores en la nube como AWS, Azure y GCP. Los tipos de GPU sugeridos incluyen los de la familia de productos RTX, Tesla y Ampere, que tienen suficiente memoria GPU y capacidad de procesamiento.
La principal diferencia entre estos dos tipos de GPU es que las que cuentan con virtualización suelen tener más RAM de GPU y las ofrecen la mayoría de los proveedores de la nube. Tener más RAM en la GPU aumenta el tamaño máximo de la imagen que puedes introducir en el modelo. En conclusión, las GPU de virtualización no son significativamente más rápidas que las GPU de consumo.
Necesita una máquina con las siguientes especificaciones de hardware:
| Especificación de hardware | Requisitos |
|---|---|
|
Memoria |
|
|
CPU |
|
|
GPU |
|
| Almacenamiento |
|
Recomendaciones adicionales de Document Understanding
Para aumentar el rendimiento, puedes instalar Document Understanding en un nodo agente adicional compatible con GPU. Sin embargo, ten en cuenta que los proyectos basados en AI Center en Document Understanding son totalmente funcionales sin el nodo GPU. En realidad, Document Understanding utiliza máquinas virtuales de CPU para todas sus tareas de extracción y clasificación, mientras que para OCR recomendamos encarecidamente el uso de una máquina virtual de GPU.
Para obtener más información sobre el uso de CPU/GPU dentro del marco de Document Understanding, consulta Uso de CPU y GPU.
Si quieres utilizar un nodo adicional compatible con GPU, debes cumplir los siguientes requisitos:
|
Hardware |
Requisitos mínimos |
|---|---|
|
Procesador |
8 (v)CPU/núcleos |
|
RAM |
52 GB |
|
Disco del sistema operativo |
SSD de 256 GB E/S mínima por segundo: 1100 |
|
DiscoDeDatos |
N/D |
|
RAM de GPU |
11 GB |
Para obtener más información, consulta la sección Consideraciones de AI Center .
Documento adicional Comprender los requisitos de los proyectos modernos
enable_cpu_inference en true, como se indica en la sección Habilitar o deshabilitar Document Understanding .
- La inferencia puede ser hasta 10 veces más lenta.
- Recomendamos utilizarlo para documentos con un máximo de 125 páginas. No hay ninguna limitación activa. Sin embargo, la inferencia puede fallar para documentos de más de 125 páginas.
Sin la inferencia de la CPU, se requiere un mínimo de 5 GPU para los proyectos modernos de Document Understanding. El escenario de ejemplo de la siguiente tabla demuestra cómo 5 GPU son suficientes para procesar 300 páginas.
| Función | Número |
|---|---|
| Páginas de modelo personalizadas procesadas por hora | 300 |
| Páginas de modelo listas para usar procesadas por hora | 0 |
| Entrenamiento de modelos en paralelo | 1 |
| Número de páginas en todos los proyectos: tiempo de diseño | 200 |
| Número de tipos de documentos por versión del proyecto | 3 |
Las 5 GPU se distribuyen entre diferentes funciones, como se detalla en la siguiente tabla:
| Servicio | Número de GPU |
|---|---|
| Réplicas de OCR | 1 |
| Réplicas de entrenamiento de modelos personalizados | 1 |
| Réplicas de modelos personalizados | 2 |
| Réplicas de modelos listas para usar | 1 |
| Total | 5 |
Para obtener más información sobre cómo asignar GPU a cada servicio, consulta la página Asignar recursos de GPU para proyectos modernos de Document Understanding .
Además de las demandas de la GPU, los proyectos modernos de Document Understanding también requieren recursos específicos de la CPU para un rendimiento óptimo. Para un rendimiento óptimo, se requiere un mínimo de 18 vCPU .
objectstore para realizar las actividades de los ejemplos proporcionados de forma continua durante un año. Puedes comenzar con un número más pequeño, pero la actividad fallará una vez que se complete el almacenamiento, a menos que la escales explícitamente.
Si estás aprovisionando un año de procesamiento continuo, necesitarás 4 TB para los proyectos modernos de Document Understanding y 512 GB para los demás productos. El total será de 4,5 TB de almacenamiento. Del mismo modo, si comienzas con seis meses de procesamiento, necesitarás 2 TB para los proyectos modernos de Document Understanding y 512 GB para los demás productos. En este caso, el total será de 2,5 TB.
Aprovisionamiento de GPU habilitadas para MIG
Las cargas de trabajo de Automation Suite Document Understanding admiten la ejecución en GPU virtuales (VGPU) creadas con la tecnología NVIDIA MIG (GPU de instancias múltiples).
Para ejecutar Document Understanding en estas condiciones, ten en cuenta los siguientes requisitos:
-
Memoria de la GPU (VRAM): al menos 16 GB por VGPU
Nota: UiPath solo admite la estrategia única, lo que significa que todas las VGPU serán exactamente iguales. -
Almacenamiento: al menos 80 GB por VGPU
Habilitar GPU habilitadas para MIG en Kubernetes
Después de aprovisionar las GPU habilitadas para MIG en tu clúster con perfiles que coincidan o superen los requisitos mínimos anteriores, asegúrate de que las GPU sean Kubernetes programables. El nodo debe informar de un número de GPU distinto de cero antes de que se puedan programar cargas de trabajo en él.
Para que las GPU sean programables, sigue la documentación oficial para instalar el complemento del dispositivo.
Alternativamente, puedes aplicar manualmente el complemento del dispositivo a tus nodos gpu para comenzar.
migEnabledPoolName por la etiqueta que coincida con tu nodo de GPU: apiVersion: v1
kind: Pod
metadata:
name: nvidia-device-plugin-pod
namespace: gpu-resources
spec:
affinity:
nodeAffinity:
requiredDuringSchedulingIgnoredDuringExecution:
nodeSelectorTerms:
- matchExpressions:
- key: agentpool
operator: In
values:
# To be changed to a selector that matches the GPU nodes
- migEnabledPoolName
containers:
- args:
- --fail-on-init-error=false
env:
- name: MPS_ROOT
value: /run/nvidia/mps
- name: MIG_STRATEGY
# We only support the single strategy for now
value: single
- name: NVIDIA_MIG_MONITOR_DEVICES
value: all
- name: NVIDIA_VISIBLE_DEVICES
value: all
- name: NVIDIA_DRIVER_CAPABILITIES
value: compute,utility
image: nvcr.io/nvidia/k8s-device-plugin:v0.17.3
imagePullPolicy: IfNotPresent
name: nvidia-device-plugin-ctr
securityContext:
allowPrivilegeEscalation: true
capabilities:
add:
- SYS_ADMIN
terminationMessagePath: /dev/termination-log
terminationMessagePolicy: File
volumeMounts:
- mountPath: /var/lib/kubelet/device-plugins
name: device-plugin
tolerations:
- key: CriticalAddonsOnly
operator: Exists
- effect: NoSchedule
key: nvidia.com/gpu
operator: Exists
terminationGracePeriodSeconds: 30
volumes:
- hostPath:
path: /var/lib/kubelet/device-plugins
type: ""
name: device-pluginapiVersion: v1
kind: Pod
metadata:
name: nvidia-device-plugin-pod
namespace: gpu-resources
spec:
affinity:
nodeAffinity:
requiredDuringSchedulingIgnoredDuringExecution:
nodeSelectorTerms:
- matchExpressions:
- key: agentpool
operator: In
values:
# To be changed to a selector that matches the GPU nodes
- migEnabledPoolName
containers:
- args:
- --fail-on-init-error=false
env:
- name: MPS_ROOT
value: /run/nvidia/mps
- name: MIG_STRATEGY
# We only support the single strategy for now
value: single
- name: NVIDIA_MIG_MONITOR_DEVICES
value: all
- name: NVIDIA_VISIBLE_DEVICES
value: all
- name: NVIDIA_DRIVER_CAPABILITIES
value: compute,utility
image: nvcr.io/nvidia/k8s-device-plugin:v0.17.3
imagePullPolicy: IfNotPresent
name: nvidia-device-plugin-ctr
securityContext:
allowPrivilegeEscalation: true
capabilities:
add:
- SYS_ADMIN
terminationMessagePath: /dev/termination-log
terminationMessagePolicy: File
volumeMounts:
- mountPath: /var/lib/kubelet/device-plugins
name: device-plugin
tolerations:
- key: CriticalAddonsOnly
operator: Exists
- effect: NoSchedule
key: nvidia.com/gpu
operator: Exists
terminationGracePeriodSeconds: 30
volumes:
- hostPath:
path: /var/lib/kubelet/device-plugins
type: ""
name: device-pluginnvidia.com/gpu, en función del perfil MIG que hayas configurado. El nodo debería ser ahora programable y estar listo para ejecutar cargas de trabajo de Document Understanding.
Antes de iniciar la instalación de Automation Suite, debe asegurarse de cumplir los siguientes requisitos:
- tiene una suscripción a RHEL
- ha habilitado los repositorios BaseOS y AppStream
- ha instalado los paquetes RPMnecesarios
La siguiente tabla enumera los paquetes RPM necesarios:
|
Paquete de RPM |
Descripción |
|---|---|
|
|
Requerido en los nodos para la instalación. |
|
|
Obligatorio en los nodos para la ejecución de la comprobación de disponibilidad. |
|
|
Solo necesario para instalaciones sin conexión. |
RHEL 8.4 y las versiones posteriores tienen los paquetes RPM necesarios en los repositorios de BaseOS y AppStream de forma predeterminada.
Manual installations
Si realizas una instalación limpia manual de Automation Suite, debes asegurarte de cumplir los requisitos del paquete RPM. En este caso, usted es responsable de instalar los paquetes RPM necesarios.
Si actualiza desde una versión anterior de Automation Suite, ya ha instalado los paquetes RPM.
Para más detalles sobre las herramientas que puedes utilizar para instalar y validar los paquetes RPM, consulta Validar e instalar los paquetes RPM necesarios.
Cloud templates
Si instala Automation Suite con nuestras plantillas de Azure, AWS o GCP, no es necesario que realice ninguna acción. Las plantillas aprovisionan la infraestructura completa, incluidos los paquetes RPM.
- Las versiones 2.2510.0 y posteriores de Automation Suite son compatibles con las versiones 2019 y posteriores de SQL.
- Insights solo es compatible con SQL Server 2019 y versiones posteriores, independientemente de la versión de Automation Suite.
- Al habilitar Process Mining para la instalación en Automation Suite, debes traer una base de datos PostgreSQL para
AutomationSuite_Airflow. Consulta los requisitos de SQL para Process Mining para obtener más detalles.
Otras plataformas de Microsoft SQL, como Azure SQL Database o Azure SQL Managed Instance, así como Amazon Relational Database Service son compatibles siempre que el motor de la base de datos de Microsoft SQL Server cumpla los requisitos.
La compatibilidad de cada producto es diferente.
Para cada producto que tenga previsto implementar, deberá:
- compruebe la versión compatible de SQL Server según lo requiera el producto
- aplicar los requisitos previos de configuración de SQL Server, incluido el permiso de usuario de SQL Server, según lo requiera el producto
Para obtener más información sobre los requisitos de SQL Server específicos del producto, consulta Configurar Microsoft SQL Server.
Los requisitos mínimos generales de hardware para Microsoft SQL Server son los siguientes:
- 8 (v)CPU
- 32 GB de RAM
- SSD de 256 GB
Estos requisitos mínimos representan una simple orientación y no garantizan un funcionamiento fiable en las implementaciones de producción. Es necesario planificar la capacidad para determinar los requisitos de hardware que se necesitan para un funcionamiento fiable.
Para cada producto que tenga pensado implementar debe evaluar el uso previsto y aplicar la orientación respecto a la planificación de la capacidad que se especifica con el producto. Esta información está disponible en las secciones de ayuda de cada producto.
Para habilitar una copia de seguridad, necesitas un servidor NFS externo. Automation Suite es compatible con los servidores NFS locales o gestionados en la nube basados en Linux, versión NFSv3/NFSv4.
Los requisitos mínimos generales de hardware para el servidor NFS son los siguientes:
-
CPU - 4 vCPU
-
RAM: 8 GB
-
Almacenamiento: 1 TB
Nota: si utilizas un almacén de objetos externo, el requisito de almacenamiento es de unos pocos GB. Si utilizas un almacén de objetos en el clúster, el tamaño mínimo de almacenamiento es el mismo que el tamaño del almacén de objetos.
Para configurar una implementación activa/pasiva, asegúrate de cumplir los siguientes requisitos:
- Hardware
- Equilibradores de carga
- Dns
- Certificados
- Almacén de objetos
- Gestor de tráfico
Hardware
Ambos clústeres de Automation Suite deben cumplir un conjunto de requisitos de software y hardware. Para obtener más información, consulta los requisitos de hardware para el modo multinodo.
Load balancer
Ambos clústeres de Automation Suite deben tener un equilibrador de carga. Para obtener más detalles, consulta Configurar el equilibrador de carga.
Dns
Para obtener más detalles sobre los requisitos de DNS, consulta Configurar el DNS.
Certificados
Para obtener más detalles de los requisitos de certificación, consulta Requisitos de los certificados.
También debes añadir las SAN al certificado si has abierto el DNS.
Almacén de objetos
El almacén de objetos en clúster no se admite mientras se implementa Automation Suite en varios sitios. En su lugar, debes incorporar un almacén de objetos externo.
La siguiente tabla enumera las versiones de RHEL compatibles con cada versión de Automation Suite:
Automation Suite version
Versiones de RHEL compatibles
2.2510.0 8.8, 8.9, 8.10, 9.2, 9.4, 9.5, 9.6
kernel-4.18.0-477.10.1.el8_8 del kernel de RHEL se ve afectada por un problema que interrumpe la instalación o la gestión del clúster de Automation Suite. Asegúrese de que ninguno de los nodos de Automation Suite utilice esta versión del kernel antes o después de la instalación.
- Terminología
- Selección de productos
- Elegir el perfil de implementación
- Resumen de los requisitos previos
- Requisitos de hardware
- Complete product selection: hardware requirements
- Individual products: hardware requirements
- RPM package requirements
- Manual installations
- Cloud templates
- Requisitos generales de Microsoft SQL Server
- Requisitos generales del servidor NFS
- Requisitos de implementaciones activas/pasivas de Disaster Recovery
- Hardware
- Load balancer
- Dns
- Certificados
- Almacén de objetos
- Matriz de compatibilidad de RHEL