- Información general
- Requisitos
- Instalación
- Q&A: Deployment templates
- Configurar las máquinas
- Configurar el almacén de objetos externo
- Configurar el equilibrador de carga
- Configurar el DNS
- Configurar Microsoft SQL Server
- Configurar los certificados
- Instalación de producción multinodo preparada para alta disponibilidad en línea
- Instalación de producción multinodo preparada para alta disponibilidad sin conexión
- Descarga de los paquetes de instalación
- parámetros de install-uipath.sh
- Habilitar el complemento de alta disponibilidad (HAA) de Redis para el clúster
- Archivo de configuración de Document Understanding
- Inclusión de un nodo agente dedicado compatible con GPU
- Conexión de la aplicación Task Mining
- Añadir un nodo agente dedicado a Task Mining
- Añadir un nodo agente dedicado a Automation Suite Robots
- Después de la instalación
- Administración de clústeres
- Supervisión y alertas
- Migración y actualización
- Rutas de actualización de Automation Suite
- Automatizado: Actualización en línea
- Automatizado: Actualización sin conexión
- Manual: Actualización en línea
- Manual: Actualización sin conexión
- Reversión por error
- Migración de disco físico Longhorn a LVM
- Migración de Canal a Cilium CNI
- Downgrading Ceph from 16.2.6 to 15.2.9
- Opciones de migración
- Paso 1: Mover los datos de la organización de identidad de independiente a Automation Suite
- Paso 2: restaurar la base de datos del producto independiente
- Paso 3: Realizar una copia de seguridad de la base de datos de la plataforma en Automation Suite
- Paso 4: Fusionar organizaciones en Automation Suite
- Paso 5: actualizar las cadenas de conexión de los productos migrados
- Paso 6: migrar Insights independiente
- Paso 7: eliminar el tenant predeterminado
- B) Migración de tenant único
- Configuración específica del producto
- Buenas prácticas y mantenimiento
- Solución de problemas
- Cómo solucionar los problemas de los servicios durante la instalación
- Cómo desinstalar el clúster
- Cómo limpiar los artefactos sin conexión para mejorar el espacio en disco
- Cómo borrar datos de Redis
- Cómo habilitar el registro de Istio
- Cómo limpiar manualmente los registros
- Cómo limpiar los registros antiguos almacenados en el depósito sf-logs
- Cómo deshabilitar los registros de transmisión para AI Center
- Cómo depurar instalaciones de Automation Suite fallidas
- Cómo eliminar imágenes del instalador antiguo después de la actualización
- Cómo limpiar automáticamente las instantáneas de Longhorn
- Cómo deshabilitar la descarga de la suma de comprobación TX
- Cómo abordar los cifrados débiles en TLS 1.2
- No se puede ejecutar una instalación sin conexión en el sistema operativo RHEL 8.4
- Error al descargar el paquete
- La instalación sin conexión falla porque falta un binario
- Problema de certificado en la instalación sin conexión
- First installation fails during Longhorn setup
- Error de validación de la cadena de conexión SQL
- Error en la comprobación de requisitos previos para el módulo iscsid de selinux
- Azure disk not marked as SSD
- Fallo tras la actualización del certificado
- El antivirus causa problemas de instalación
- Automation Suite not working after OS upgrade
- Automation Suite requiere que backlog_wait_time se establezca en 0
- El volumen no se puede montar porque no está listo para las cargas de trabajo
- No se puede iniciar Automation Hub y Apps con la configuración de proxy
- Fallo al cargar o descargar datos en el almacén de objetos
- PVC resize does not heal Ceph
- Fallo en el redimensionamiento de PVC
- Fallo en el redimensionamiento de PVC de objectstore
- Rook Ceph o Looker pod atascados en estado Init
- Error de archivo adjunto de volumen de StatefulSet
- Fallo en la creación de volúmenes persistentes
- Parche de reclamación de almacenamiento
- La copia de seguridad falló debido al error
- Todas las réplicas de Longhorn son defectuosas
- Establecer un intervalo de tiempo de espera para los portales de gestión
- Actualizar las conexiones del directorio subyacente
- La autenticación no funciona tras la migración
- kinit: no se puede encontrar la KDC para el territorio <AD Domain> mientras se obtienen las credenciales iniciales
- kinit: keytab no contiene claves adecuadas para *** mientras se obtienen las credenciales iniciales
- Error en la operación GSSAPI debido a un código de estado no válido
- Alarma recibida por un error en el trabajo de Kerberos-tgt-update
- Proveedor de SSPI: servidor no encontrado en la base de datos de Kerberos
- Error en inicio de sesión de un usuario AD debido a una cuenta deshabilitada
- ArgoCD login failed
- Fallo en la obtención de la imagen de Sandbox
- Los pods no se muestran en la interfaz de usuario de ArgoCD
- Fallo de la sonda Redis
- El servidor RKE2 no se inicia
- Secreto no encontrado en el espacio de nombres UiPath
- ArgoCD entra en estado de progreso tras la primera instalación
- Inconsistencia inesperada, ejecuta fsck manualmente
- Pods MongoDB en CrashLoopBackOff o pendientes de aprovisionamiento de PVC tras su eliminación
- El pod de MongoDB no se actualiza de 4.4.4-ent a 5.0.7-ent
- Unhealthy services after cluster restore or rollback
- Pods atascados en Inicialización: 0 / X
- Prometheus en estado CrashloopBackoff con error de falta de memoria (OOM)
- Faltan métricas de Ceph-rook en los paneles de supervisión
- Los pods no pueden comunicarse con FQDN en un entorno de proxy
- Document Understanding no se encuentra en la barra izquierda de Automation Suite
- Estado fallido al crear una sesión de etiquetado de datos
- Estado fallido al intentar implementar una habilidad ML
- El trabajo de migración falla en ArgoCD
- El reconocimiento de la escritura manual con el extractor de formularios inteligente no funciona
- Uso de la herramienta de diagnóstico de Automation Suite
- Uso de la herramienta del paquete de soporte de Automation Suite
- Explorar registros
Evaluación de tus necesidades de almacenamiento
Un clúster de Automation Suite utiliza los discos de almacenamiento de objetos adjuntos a sus nodos de servidor como recursos de almacenamiento disponibles para todos los productos habilitados en su clúster. Cada producto utiliza estos recursos de forma diferente.
Para entender tus necesidades de almacenamiento y planificarlas en consecuencia, consulta las siguientes terminología y directrices.
-
Tamaño del disco del nodo de servidor: el tamaño de todos los discos individuales conectados a cada nodo del servidor.
- Los discos de cada servidor pueden tener diferentes tamaños siempre que la suma de todos los tamaños de disco sea idéntica en todos los servidores.
- Tamaño total del disco del clúster: tamaño del disco del nodo servidor multiplicado por el número de nodos del servidor.
-
Almacenamiento disponible para aplicaciones: la cantidad de almacenamiento disponible para que las aplicaciones lo consuman.
- El almacenamiento disponible de la aplicación es menor que el almacenamiento total adjunto. Esto es para garantizar que tenemos una mayor resistencia a la tolerabilidad a errores y una alta disponibilidad.
En la siguiente tabla, se describen los requisitos de hardware para el perfil de producción multinodo preparado para alta disponibilidad para la selección de productos Complete en el contexto de los términos introducidos anteriormente.
Número de nodos de servidor |
Tamaño del disco del nodo servidor |
Tamaño total de disco del clúster |
Almacenamiento disponible de aplicaciones |
---|---|---|---|
3 |
512 GiB |
1.5 TiB |
512 GiB |
A medida que se habilitan y utilizan los productos en el clúster, estos consumen parte del almacenamiento disponible de la aplicación. Los productos suelen tener una pequeña huella de habilitación, así como una huella dependiente del uso que varía en función del caso de uso, la escala de uso y el proyecto. El consumo de almacenamiento se distribuye uniformemente entre todos los recursos de almacenamiento (discos de datos), y puedes supervisar los niveles de utilización del almacenamiento utilizando la pila de supervisión de Automation Suite.
Recibirá una alerta con una advertencia cuando el consumo de almacenamiento supere el 75%. Recibirá otra alerta crítica cuando el consumo de almacenamiento supere el 85%; en este caso, el almacenamiento será de solo lectura.
Si tus necesidades evaluadas no cumplen los requisitos de hardware recomendados, puedes añadir más capacidad de almacenamiento utilizando uno o ambos de los siguientes métodos:
- Tiene que añadir un nuevo disco en todos los nodos del servidor del mismo tamaño.
- Para configurar el disco, consulte nuestros documentos.
Puede estimar tu consumo de almacenamiento utilizando la métrica específica del producto en las siguientes tablas. Estas tablas describen la cantidad de contenido que puedes colocar en tu clúster desde el principio. Como referencia, incluyen la huella de almacenamiento de un escenario de uso típico de cada producto.
Producto |
Métricas de almacenamiento |
Almacenamiento por métrica |
Caso de uso típico |
---|---|---|---|
Capacidades compartidas de la suite |
|
N/D |
Normalmente, 7 días de registros de aplicación equivalen a unos 25 GiB. |
Orchestrator |
|
|
Normalmente, un paquete tiene 5 MiB y los depósitos, si los hay, tienen menos de 1 MiB. Una empresa madura tiene 5 GiB de paquetes y 6 GiB de depósitos implementados. |
Action Center |
|
|
Normalmente, un documento ocupa 0,15 MiB, y los formularios a rellenar ocupan 0,15 KiB adicionales. En una empresa madura, esto puede acumular hasta 4 GiB en total. |
Test Manager |
|
|
Normalmente, todos los archivos y archivos adjuntos suman aproximadamente 5 GiB. |
Insights |
|
|
Se requieren 2 GiB para la habilitación, y el espacio de almacenamiento crece con el número. Una implementación a escala empresarial bien establecida requiere otros pocos GiB para todos los paneles. |
Automation Hub |
N/D |
N/D |
Huella fija de 2 GiB |
Automation Ops |
N/D |
N/D |
Sin huella de almacenamiento |
Apps |
|
|
Normalmente, la base de datos ocupa aproximadamente 5 GiB, y una aplicación compleja típica consume aproximadamente 15 MiB. |
AI Center |
|
|
Una instalación típica y establecida consumirá 8 GiB para 5 paquetes y 1 GiB adicional para los conjuntos de datos. Un proceso puede consumir 50 GiB adicionales, pero solo cuando se ejecuta de forma activa. |
Document Understanding |
|
|
En una implementación madura, 12 GiB irán al modelo ML, 17 GiB al OCR y 50 GiB a todos los documentos almacenados. |
Task Mining |
|
|
Normalmente, se deben analizar unos 200 GiB de datos de registro de actividad para sugerir automatizaciones significativas. Sin embargo, las tareas altamente repetitivas pueden requerir muchos menos datos. |
Process Mining |
|
|
Huella mínima utilizada solo por los usuarios que cargan datos a través del portal de Process Mining. Aproximadamente 10 GiB de almacenamiento deberían ser suficientes al principio. |