- Información general
- Requisitos
- Plantillas de implementación
- Manual: preparar la instalación
- Manual: preparar la instalación
- Paso 2: configurar el registro compatible con OCI para las instalaciones sin conexión
- Paso 3: configurar el almacén de objetos externo
- Paso 4: configurar High Availability Add-on
- Paso 5: configurar las bases de datos SQL
- Paso 7: configurar el DNS
- Paso 8: configurar los discos
- Paso 9: configurar los ajustes a nivel de kernel y sistema operativo
- Paso 10: configurar los puertos de nodo
- Paso 11: aplicar ajustes varios
- Paso 12: Validar e instalar los paquetes RPM necesarios
- Ejemplo de Clúster_config.json
- Configuración general
- Configuración del perfil
- Configuración de certificados
- Configuración de la base de datos
- Configuración del almacén de objetos externo
- Configuración de URL prefirmada
- Configuración de ArgoCD
- Configuración de la autenticación Kerberos
- Configuración de registro externo compatible con OCI
- Disaster recovery: configuraciones activas/pasivas y activas/activas
- Configuración de High Availability Add-on
- Configuración específica de Orchestrator
- Configuración específica de Insights
- Process Mining-specific configuration
- Configuración específica de Document Understanding
- Automation Suite Robots-specific configuration
- Configuración específica de AI Center
- Configuración de la supervisión
- Opcional: configurar el servidor proxy
- Opcional: habilitación de la resistencia a fallos de zona en un clúster multinodo de producción preparada para alta disponibilidad
- Opcional: pasar resolv.conf personalizado
- Optional: Increasing fault tolerance
- Inclusión de un nodo agente dedicado compatible con GPU
- Añadir un nodo agente dedicado a Automation Suite Robots
- Paso 15: configurar el registro temporal de Docker para las instalaciones sin conexión
- Paso 16: validar los requisitos previos para la instalación
- Manual: realizar la instalación
- Después de la instalación
- Administración de clústeres
- Gestionar los productos
- Primeros pasos con el Portal de administración del clúster
- Migración de Redis desde un clúster a un High Availability Add-on externo
- Migrating data between objectstores
- Migrating in-cluster objectstore to external objectstore
- Migrar del registro en clúster a un registro externo compatible con OCI
- Cambiar manualmente al clúster secundario en una configuración activa/pasiva
- Disaster Recovery: realizar operaciones posteriores a la instalación
- Convertir una instalación existente en una configuración en varios sitios
- Directrices sobre la actualización de una implementación activa/pasiva o activa/activa
- Directrices sobre la copia de seguridad y restauración de una implementación activa/pasiva o activa/activa
- Escalar una implementación de nodo único (evaluación) a una implementación multinodo (HA)
- Supervisión y alertas
- Migración y actualización
- Migrar entre clústeres de Automation Suite
- Actualizar Automation Suite
- Descargar los paquetes de instalación y obtener todos los archivos del primer nodo del servidor
- Recuperar la última configuración aplicada del clúster
- Actualizar la configuración del clúster
- Configurar el registro compatible con OCI para las instalaciones sin conexión
- Ejecutar la actualización
- Realizar operaciones posteriores a la actualización
- Configuración específica del producto
- Configurar parámetros de Orchestrator
- Configurar AppSettings
- Configurar el tamaño máximo de la solicitud
- Anular la configuración de almacenamiento a nivel de clúster
- Configurar NLog
- Guardar los registros del robot en Elasticsearch
- Configurar almacenes de credenciales
- Configurar clave de cifrado por tenant
- Limpiar la base de datos de Orchestrator
- Buenas prácticas y mantenimiento
- Solución de problemas
- Cómo solucionar los problemas de los servicios durante la instalación
- Cómo desinstalar el clúster
- Cómo limpiar los artefactos sin conexión para mejorar el espacio en disco
- Cómo borrar datos de Redis
- Cómo habilitar el registro de Istio
- Cómo limpiar manualmente los registros
- Cómo limpiar los registros antiguos almacenados en el depósito sf-logs
- Cómo deshabilitar los registros de transmisión para AI Center
- Cómo depurar instalaciones de Automation Suite fallidas
- Cómo eliminar imágenes del instalador antiguo después de la actualización
- Cómo deshabilitar la descarga de la suma de comprobación TX
- Cómo establecer manualmente el nivel de registro de ArgoCD en Info
- Cómo expandir el almacenamiento de AI Center
- Cómo generar el pull_secret_value codificado para registros externos
- Cómo abordar los cifrados débiles en TLS 1.2
- Cómo comprobar la versión de TLS
- Cómo trabajar con certificados
- Cómo programar la copia de seguridad y la restauración de datos de Ceph
- Cómo recopilar datos de uso de DU con el almacén de objetos en el clúster (Ceph)
- Cómo instalar RKE2 SELinux en entornos aislados
- How to clean up old differential backups on an NFS server
- Error al descargar el paquete
- La instalación sin conexión falla porque falta un binario
- Problema de certificado en la instalación sin conexión
- Error de validación de la cadena de conexión SQL
- Azure disk not marked as SSD
- Fallo tras la actualización del certificado
- El antivirus causa problemas de instalación
- Automation Suite not working after OS upgrade
- Automation Suite requiere que backlog_wait_time se establezca en 0
- La instalación del registro temporal falla en RHEL 8.9
- Problema de reinicio frecuente en las implementaciones del espacio de nombres de uipath durante las instalaciones sin conexión
- Configuración de DNS no respetada por CoreDNS
- Upgrade fails due to unhealthy Ceph
- RKE2 no se inicia debido a un problema de espacio
- La actualización falla debido a objetos clásicos en la base de datos de Orchestrator
- El clúster de Ceph se encuentra en un estado degradado tras una actualización en paralelo.
- La actualización del servicio falla para Apps
- Tiempos de actualización in situ
- La actualización falla en entornos sin conexión
- pod de snapshot-controller-crds en estado CrashLoopBackOff después de la actualización
- La actualización falla debido a los tamaños de PVC de Insights anulados
- Establecer un intervalo de tiempo de espera para los portales de gestión
- La autenticación no funciona tras la migración
- kinit: no se puede encontrar la KDC para el territorio <AD Domain> mientras se obtienen las credenciales iniciales
- kinit: keytab no contiene claves adecuadas para *** mientras se obtienen las credenciales iniciales
- Error en la operación GSSAPI debido a un código de estado no válido
- Alarma recibida por un error en el trabajo de Kerberos-tgt-update
- Proveedor de SSPI: servidor no encontrado en la base de datos de Kerberos
- Error en inicio de sesión de un usuario AD debido a una cuenta deshabilitada
- ArgoCD login failed
- Actualizar las conexiones del directorio subyacente
- Fallo en la obtención de la imagen de Sandbox
- Los pods no se muestran en la interfaz de usuario de ArgoCD
- Fallo de la sonda Redis
- El servidor RKE2 no se inicia
- Secreto no encontrado en el espacio de nombres UiPath
- ArgoCD entra en estado de progreso tras la primera instalación
- Faltan métricas de Ceph-rook en los paneles de supervisión
- Falta de coincidencia en los errores informados durante las comprobaciones de estado de diagnóstico
- No hay problema ascendente en buen estado
- Redis startup blocked by antivirus
- Document Understanding no se encuentra en la barra izquierda de Automation Suite
- Estado fallido al crear una sesión de etiquetado de datos
- Estado fallido al intentar implementar una habilidad ML
- El trabajo de migración falla en ArgoCD
- El reconocimiento de la escritura manual con el extractor de formularios inteligente no funciona
- Ejecutar alta disponibilidad con Process Mining
- La ingestión de Process Mining falló al iniciar sesión con Kerberos
- No se puede conectar a la base de datos AutomationSuite_ProcessMining_Warehouse utilizando una cadena de conexión en formato pyodbc
- La instalación de Airflow falla con sqlalchemy.exc.ArgumentError: no se pudo analizar la URL rfc1738 de la cadena ''
- Cómo añadir una regla de tabla de IP para utilizar el puerto 1433 de SQL Server
- El certificado de Automation Suite no es de confianza desde el servidor donde se ejecuta CData Sync
- Ejecutar la herramienta de diagnóstico
- Uso del paquete de soporte de Automation Suite
- Explorar registros
- Explorar la telemetría resumida

Guía de instalación de Automation Suite en Linux
En esta sección se explica cómo habilitar FIPS 140-2 en tus máquinas.
Puedes habilitar FIPS en tus máquinas virtuales basadas en Red Hat Linux. Para hacerlo, sigue los siguientes pasos:
-
Habilita FIPS ejecutando el siguiente comando en todas tus máquinas antes de iniciar la instalación:
fips-mode-setup --enablefips-mode-setup --enable -
Reinicia tus máquinas y comprueba si has habilitado FIPS correctamente ejecutando el siguiente comando:
fips-mode-setup --checkfips-mode-setup --check
fips_enabled_nodes en true en cluster_config.json. Para obtener más información, consulta Configuración general.
Para obtener más detalles sobre los pasos adicionales que debes seguir para empezar a utilizar Automation Suite en máquinas FIPS 140-2, consulta Mejores prácticas de seguridad.
Para configurar un proxy, es necesario realizar pasos de configuración adicionales durante la configuración de tu entorno con los requisitos previos y en la fase de configuración avanzada.
Los pasos siguientes son obligatorios para la configuración del entorno.
Paso 1: habilitar puertos en la red virtual
Asegúrese de que las siguientes reglas están habilitadas en su grupo de seguridad de red para la red virtual específica.
|
Origen |
Destination |
Redireccionamiento a través de proxy |
Puerto |
Descripción |
|---|---|---|---|---|
|
Red virtual |
Sql |
No |
Puerto del servidor SQL |
Necesario para el servidor SQL. |
|
Red virtual |
Load balancer |
No |
|
Se requiere para añadir nuevos nodos al clúster. |
|
Red virtual |
Clúster (subred) |
No |
Todos los puertos |
Se requiere para la comunicación a través de un rango de IP privado. |
|
Red virtual |
|
No |
|
Se requiere para iniciar sesión y utilizar el cliente ArgoCD durante la implementación. |
|
Red virtual |
Servidor Proxy |
Sí |
Todos los puertos |
Se requiere para redirigir el tráfico al servidor proxy. |
|
Red virtual |
Servidor de nombres |
No |
Todos los puertos |
La mayoría de los servicios en la nube, como Azure y AWS, lo utilizan para obtener los metadatos de la máquina virtual y lo consideran una IP privada. |
|
Red virtual |
Servidor de metadatos |
No |
Todos los puertos |
La mayoría de los servicios en la nube, como Azure y AWS, utilizan la dirección IP
169.254.169.254 para obtener los metadatos de las máquinas.
|
Paso 2: añadir la configuración del proxy a cada nodo
Al configurar los nodos, es necesario añadir la configuración del proxy a cada nodo que forma parte del clúster. Este paso es necesario para redireccionar el tráfico saliente del nodo a través del servidor proxy.
-
Añada la siguiente configuración en
/etc/environment:http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server> -
Añada la siguiente configuración en
/etc/wgetrc:http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>Parámetros obligatorios
Descripción
http_proxySe utiliza para redirigir las peticiones salientes HTTP del nodo. Debe ser el FQDN y el puerto del servidor proxy.
https_proxySe utiliza para redirigir las peticiones salientes HTTPS del nodo. Debe ser el FQDN y el puerto del servidor proxy.
no_proxyLista separada por comas de hosts, direcciones IP que no desea enrutar a través del servidor proxy. Debe ser un rango de subred privada, un host de servidor SQL, una dirección de servidor con nombre, una dirección de servidor de metadatos:alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>.metadata server address– La mayoría de los servicios en la nube, como Azure y AWS, utilizan la dirección IP169.254.169.254para obtener los metadatos de la máquina.named server address– La mayoría de los servicios en la nube, como Azure y AWS, lo utilizan para resolver consultas de DNS.
Importante:Si utilizas AI Center con un Orchestrator externo, debes añadir el dominio de Orchestrator externo a la listano_proxy. -
Verifique si la configuración del proxy es correcta ejecutando el siguiente comando:
curl -v $HTTP_PROXY curl -v <fixed_rke_address>:9345curl -v $HTTP_PROXY curl -v <fixed_rke_address>:9345Importante: una vez que cumplas con los requisitos del servidor proxy, asegúrate de continuar con la configuración del proxy durante la instalación. Sigue los pasos en Opcional: Configurar el servidor proxy para asegurarte de que el servidor proxy está configurado correctamente.