- Información general
- Requisitos
- Instalación
- Q&A: Deployment templates
- Configurar las máquinas
- Configurar el almacén de objetos externo
- Configurar un registro de Docker externo
- Configurar el equilibrador de carga
- Configurar el DNS
- Configurar Microsoft SQL Server
- Configurar los certificados
- Instalación de producción multinodo preparada para alta disponibilidad en línea
- Instalación de producción multinodo preparada para alta disponibilidad sin conexión
- Disaster Recovery: instalar el clúster secundario
- Descarga de los paquetes de instalación
- parámetros de install-uipath.sh
- Habilitar el complemento de alta disponibilidad (HAA) de Redis para el clúster
- Archivo de configuración de Document Understanding
- Inclusión de un nodo agente dedicado compatible con GPU
- Añadir un nodo agente dedicado a Task Mining
- Conexión de la aplicación Task Mining
- Añadir un nodo agente dedicado a Automation Suite Robots
- Después de la instalación
- Administración de clústeres
- Gestionar los productos
- Primeros pasos con el Portal de administración del clúster
- Migrating objectstore from persistent volume to raw disks
- Migrating data between objectstores
- Migrating in-cluster objectstore to external objectstore
- Cambiar al clúster secundario
- Disaster Recovery: realizar operaciones posteriores a la instalación
- Convertir una instalación existente en una configuración en varios sitios
- Directrices para actualizar una implementación activa/pasiva
- Directrices sobre la copia de seguridad y restauración de una implementación activa/pasiva
- Supervisión y alertas
- Migración y actualización
- Rutas de actualización de Automation Suite
- Automatizado: Actualización en línea
- Automatizado: Actualización sin conexión
- Manual: Actualización en línea
- Manual: Actualización sin conexión
- Reversión por error
- Migración de disco físico Longhorn a LVM
- Migración de Canal a Cilium CNI
- Downgrading Ceph from 16.2.6 to 15.2.9
- Opciones de migración
- Paso 1: Mover los datos de la organización de identidad de independiente a Automation Suite
- Paso 2: restaurar la base de datos del producto independiente
- Paso 3: Realizar una copia de seguridad de la base de datos de la plataforma en Automation Suite
- Paso 4: Fusionar organizaciones en Automation Suite
- Paso 5: actualizar las cadenas de conexión de los productos migrados
- Paso 6: migrar Insights independiente
- Paso 7: eliminar el tenant predeterminado
- B) Migración de tenant único
- Configuración específica del producto
- Buenas prácticas y mantenimiento
- Solución de problemas
- Cómo solucionar los problemas de los servicios durante la instalación
- Cómo desinstalar el clúster
- Cómo limpiar los artefactos sin conexión para mejorar el espacio en disco
- Cómo borrar datos de Redis
- Cómo habilitar el registro de Istio
- Cómo limpiar manualmente los registros
- Cómo limpiar los registros antiguos almacenados en el paquete sf-logs
- Cómo deshabilitar los registros de transmisión para AI Center
- Cómo depurar instalaciones de Automation Suite fallidas
- Cómo eliminar imágenes del instalador antiguo después de la actualización
- Cómo limpiar automáticamente las instantáneas de Longhorn
- Cómo deshabilitar la descarga de la suma de comprobación TX
- Cómo establecer manualmente el nivel de registro de ArgoCD en Info
- Cómo generar el pull_secret_value codificado para registros externos
- Cómo abordar los cifrados débiles en TLS 1.2
- No se puede ejecutar una instalación sin conexión en el sistema operativo RHEL 8.4
- Error al descargar el paquete
- La instalación sin conexión falla porque falta un binario
- Problema de certificado en la instalación sin conexión
- First installation fails during Longhorn setup
- Error de validación de la cadena de conexión SQL
- Error en la comprobación de requisitos previos para el módulo iscsid de selinux
- Azure disk not marked as SSD
- Fallo tras la actualización del certificado
- El antivirus causa problemas de instalación
- Automation Suite not working after OS upgrade
- Automation Suite requiere que backlog_wait_time se establezca en 0
- Nodo de GPU afectado por la falta de disponibilidad de recursos
- El volumen no se puede montar porque no está listo para las cargas de trabajo
- Error de recopilación de registros del paquete de soporte
- La actualización de nodo único falla en la etapa de tejido
- Cluster unhealthy after automated upgrade from 2021.10
- Upgrade fails due to unhealthy Ceph
- RKE2 no se inicia debido a un problema de espacio
- La validación SQL falla durante la actualización
- pod de snapshot-controller-crds en estado CrashLoopBackOff después de la actualización
- Fallo al cargar o descargar datos en el almacén de objetos
- PVC resize does not heal Ceph
- Fallo en el redimensionamiento de PVC
- Fallo en el redimensionamiento de PVC de objectstore
- Rook Ceph o Looker pod atascados en estado Init
- Error de archivo adjunto de volumen de StatefulSet
- Fallo en la creación de volúmenes persistentes
- Parche de reclamación de almacenamiento
- La copia de seguridad falló debido al error
- Todas las réplicas de Longhorn son defectuosas
- Establecer un intervalo de tiempo de espera para los portales de gestión
- Actualizar las conexiones del directorio subyacente
- La autenticación no funciona tras la migración
- kinit: no se puede encontrar la KDC para el territorio <AD Domain> mientras se obtienen las credenciales iniciales
- kinit: keytab no contiene claves adecuadas para *** mientras se obtienen las credenciales iniciales
- Error en la operación GSSAPI debido a un código de estado no válido
- Alarma recibida por un error en el trabajo de Kerberos-tgt-update
- Proveedor de SSPI: servidor no encontrado en la base de datos de Kerberos
- Error en inicio de sesión de un usuario AD debido a una cuenta deshabilitada
- ArgoCD login failed
- Fallo en la obtención de la imagen de Sandbox
- Los pods no se muestran en la interfaz de usuario de ArgoCD
- Fallo de la sonda Redis
- El servidor RKE2 no se inicia
- Secreto no encontrado en el espacio de nombres UiPath
- ArgoCD entra en estado de progreso tras la primera instalación
- Incidencias al acceder a la cuenta de solo lectura de ArgoCD
- Pods MongoDB en CrashLoopBackOff o pendientes de aprovisionamiento de PVC tras su eliminación
- Unhealthy services after cluster restore or rollback
- Pods atascados en Inicialización: 0 / X
- Prometheus en estado CrashloopBackoff con error de falta de memoria (OOM)
- Faltan métricas de Ceph-rook en los paneles de supervisión
- Document Understanding no se encuentra en la barra izquierda de Automation Suite
- Estado fallido al crear una sesión de etiquetado de datos
- Estado fallido al intentar implementar una habilidad ML
- El trabajo de migración falla en ArgoCD
- El reconocimiento de la escritura manual con el extractor de formularios inteligente no funciona
- Ejecutar alta disponibilidad con Process Mining
- La ingestión de Process Mining falló al iniciar sesión con Kerberos
- No se puede conectar a la base de datos AutomationSuite_ProcessMining_Warehouse utilizando una cadena de conexión en formato pyodbc
- La instalación de Airflow falla con sqlalchemy.exc.ArgumentError: no se pudo analizar la URL rfc1738 de la cadena ''
- Cómo añadir una regla de tabla de IP para utilizar el puerto 1433 de SQL Server
- Uso de la herramienta de diagnóstico de Automation Suite
- Uso de la herramienta del paquete de soporte de Automation Suite
- Explorar registros
Basic architecture considerations
Al igual que con cualquier implementación en varios sitios, las consideraciones de arquitectura principales para Automation Suite tienen en cuenta la infraestructura, la latencia, el origen de datos, la gestión, el objetivo de tiempo de recuperación, el objetivo de punto de recuperación, etc.
Recomendamos utilizar el mismo hardware para ambos clústeres. Sin embargo, el clúster de Automation Suite probablemente funcionará con configuraciones de hardware similares con poca diferencia. El hardware Heterogeneo puede aumentar la complejidad y ralentizar la resolución de problemas.
Los dos clústeres de Automation Suite son independientes y no comparten ninguna configuración. Por tanto, cualquier actividad de gestión o mantenimiento debe realizarse de forma individual en estos clústeres. Por ejemplo, debes actualizar las cadenas de conexión SQL en ambos clústeres, configurar certificados por separado, etc. Además, debes supervisar los dos clústeres de forma independiente, actualizarlos de forma individual, etc.
El almacén de objetos, combinado con la base de datos SQL, forma el estado de un producto instalado en Automation Suite.
La configuración de SQL Server desempeña un rol vital en una implementación en varios sitios. Aunque SQL Server es un componente externo a Automation Suite, se requieren algunos pasos adicionales para garantizar la alta calidad de vida verdadera al trabajar con Automation Suite.
MultiSubnetFailover=True
en la cadena de conexión cuando SQL Server o las bases de datos se distribuyen en varias subredes.
Para obtener más detalles, consulta Grupos de disponibilidad AlwaysOn y Requisitos previos, Restricciones y recomendaciones para grupos de disponibilidad AlwaysOn.
El almacén de objetos externo es inmune a una posible corrupción debida a un fallo de nodo. La replicación de datos y Disaster Recovery pueden realizarse de forma independiente de Automation Suite. Al igual que SQL Server, el almacén de objetos externo debe tener una configuración de Disaster Recovery de alta disponibilidad. La instancia del almacén de objetos principal se encuentra físicamente ubicado en el centro de datos principal y al menos una instancia secundaria se encuentra en el centro de datos secundario con la sincronización de datos habilitada. Puedes configurar un equilibrador de carga en el almacén de objetos para garantizar que ambos clústeres de Automation Suite hagan referencia a los mismos puntos de conexión. Esto hace que la implementación sea independiente de la configuración interna del almacén de objetos.
Para AWS S3, el punto de acceso multiregión no admite todas las API de s3 necesarias para todos los productos que se ejecutan en Automation Suite. Para obtener más detalles sobre la lista de API compatibles, consulta Utilizar puntos de acceso en varias regiones con operaciones de API compatibles.
Puedes crear dos depósitos por producto/suite en ambas regiones y habilitar la sincronización. El clúster de Automation Suite que se ejecuta en la misma región hará referencia a los depósitos de esa región.
La política de tu organización respecto al objetivo de punto de recuperación es vital para diseñar tu clúster de Automation Suite en varios sitios. Para lograr el objetivo de punto de recuperación deseado, ten en cuenta los siguientes aspectos:
- Diseño del Gestor de tráfico;
- Disponibilidad de los nodos en el clúster secundario/pasivo;
- Disponibilidad de la carga de trabajo dinámica en el clúster secundario; por ejemplo, MLSkill;
- Gestión de configuración.
Puedes reducir el tiempo de recuperación configurando el Gestor de tráfico para que dirija siempre el tráfico al clúster principal cuando esté disponible. La redirección al clúster secundario debe realizarse solo cuando el clúster principal está inactivo. Esto garantiza que el cambio de tráfico sea automático y reduce el tiempo de un cambio manual. Puedes utilizar los puntos finales de estado de ambos clústeres para lograrlo.
Si todos los nodos del clúster secundario se están ejecutando, puedes ahorrar tiempo activando los nodos y esperando a que el clúster esté activo. Sin embargo, esto puede multiplicar casi por dos el coste de tu infraestructura.
Algunos productos, como AI Center, implementan las habilidades de ML de forma dinámica en el runtime. La implementación de las habilidades en otro clúster es siempre asíncrona. Ello no garantiza su disponibilidad. Para garantizar que tu solución de automatización se vuelva a conectar a la hora deseada, puedes sincronizar de manera periódica las habilidades en otro clúster.
Dado que las implantaciones en varios sitios de Automation Suite constan de dos clústeres distintos, cualquier operación realizada en cualquier clúster debe realizarse a tiempo en el otro clúster para reducir la desviación. Esto garantiza que ambos clústeres posean configuraciones similares y no se requiere ningún esfuerzo adicional durante la fase de recuperación.
La política de tu organización respecto al objetivo de punto de recuperación es vital para diseñar tu clúster de Automation Suite en varios sitios. Para lograr el objetivo de punto de recuperación deseado (RPO, por sus siglas en inglés), debes tener en cuenta los siguientes aspectos:
- Sincronización de datos;
- Copia de seguridad programada.
Cuando se escriben en el origen de datos principal, los datos también deben sincronizarse con el clúster secundario. Sin embargo, existe un riesgo de pérdida de datos cuando el centro de datos está inactivo y los datos no están sincronizados. Ejemplos de configuraciones de red como, por ejemplo, gran ancho de banda y baja latencia entre los dos centros de datos, pueden acelerar la sincronización.
No todos los Disaster Recovery proporcionan inmunidad completa a la pérdida de datos. Sin embargo, puedes implementar una estrategia de copia de seguridad regular y periódica para minimizar el impacto del desastre en la recuperación de datos. Para obtener más detalles, consulta Copia de seguridad y restauración del clúster.