automation-suite
2023.10
false
- Información general
- Requisitos
- Plantillas de implementación
- Q&A: Deployment templates
- Manual: preparar la instalación
- Manual: preparar la instalación
- Paso 2: configurar el registro compatible con OCI para las instalaciones sin conexión
- Paso 3: configurar el almacén de objetos externo
- Paso 4: configurar High Availability Add-on
- Paso 5: configurar las bases de datos SQL
- Paso 6: configurar el equilibrador de carga
- Paso 7: configurar el DNS
- Paso 8: configurar los discos
- Paso 9: configurar los ajustes a nivel de kernel y sistema operativo
- Paso 10: configurar los puertos de nodo
- Paso 11: aplicar ajustes varios
- Paso 12: Validar e instalar los paquetes RPM necesarios
- Paso 13: Generar cluster_config.json
- Configuración de certificados
- Configuración de la base de datos
- Configuración del almacén de objetos externo
- Configuración de URL prefirmada
- Configuración de la autenticación Kerberos
- Configuración de registro externo compatible con OCI
- Disaster recovery: configuraciones activas/pasivas y activas/activas
- Configuración de High Availability Add-on
- Configuración específica de Orchestrator
- Configuración específica de Insights
- Process Mining-specific configuration
- Configuración específica de Document Understanding
- Automation Suite Robots-specific configuration
- Configuración de la supervisión
- Opcional: configurar el servidor proxy
- Opcional: habilitación de la resistencia a fallos de zona en un clúster multinodo de producción preparada para alta disponibilidad
- Opcional: pasar resolv.conf personalizado
- Optional: Increasing fault tolerance
- parámetros de install-uipath.sh
- Inclusión de un nodo agente dedicado compatible con GPU
- Añadir un nodo agente dedicado a Task Mining
- Conexión de la aplicación Task Mining
- Añadir un nodo agente dedicado a Automation Suite Robots
- Paso 15: configurar el registro temporal de Docker para las instalaciones sin conexión
- Paso 16: validar los requisitos previos para la instalación
- Manual: realizar la instalación
- Después de la instalación
- Administración de clústeres
- Gestionar los productos
- Primeros pasos con el Portal de administración del clúster
- Migrating objectstore from persistent volume to raw disks
- Migrar del en el clúster a High Availability Add-on externo
- Migrating data between objectstores
- Migrating in-cluster objectstore to external objectstore
- Migrar del registro en clúster a un registro externo compatible con OCI
- Cambiar manualmente al clúster secundario en una configuración activa/pasiva
- Disaster Recovery: realizar operaciones posteriores a la instalación
- Convertir una instalación existente en una configuración en varios sitios
- Directrices sobre la actualización de una implementación activa/pasiva o activa/activa
- Directrices sobre la copia de seguridad y restauración de una implementación activa/pasiva o activa/activa
- Redireccionando el tráfico de los servicios no compatibles al clúster principal
- Escalar una implementación de nodo único (evaluación) a una implementación multinodo (HA)
- Supervisión y alertas
- Migración y actualización
- Paso 1: Mover los datos de la organización de identidad de independiente a Automation Suite
- Paso 2: restaurar la base de datos del producto independiente
- Paso 3: Realizar una copia de seguridad de la base de datos de la plataforma en Automation Suite
- Paso 4: Fusionar organizaciones en Automation Suite
- Paso 5: actualizar las cadenas de conexión de los productos migrados
- Paso 6: migrar el Orchestrator independiente
- Paso 7: migrar Insights independiente
- Paso 8: Migrar Test Manager independiente
- Paso 9: eliminar el tenant predeterminado
- Realizar una migración de un solo tenant
- Migrar de Automation Suite en Linux a Automation Suite en EKS / AKS
- Actualizar Automation Suite
- Descargar los paquetes de instalación y obtener todos los archivos del primer nodo del servidor
- Recuperar la última configuración aplicada del clúster
- Actualizar la configuración del clúster
- Configurar el registro compatible con OCI para las instalaciones sin conexión
- Ejecutar la actualización
- Realizar operaciones posteriores a la actualización
- Configuración específica del producto
- Uso de la herramienta de configuración de Orchestrator
- Configurar parámetros de Orchestrator
- Configuración de Orchestrator
- Configurar AppSettings
- Configurar el tamaño máximo de la solicitud
- Anular la configuración de almacenamiento a nivel de clúster
- Configurar almacenes de credenciales
- Configurar clave de cifrado por tenant
- Limpiar la base de datos de Orchestrator
- Buenas prácticas y mantenimiento
- Solución de problemas
- Cómo solucionar los problemas de los servicios durante la instalación
- Cómo desinstalar el clúster
- Cómo limpiar los artefactos sin conexión para mejorar el espacio en disco
- Cómo borrar datos de Redis
- Cómo habilitar el registro de Istio
- Cómo limpiar manualmente los registros
- Cómo limpiar los registros antiguos almacenados en el depósito sf-logs
- Cómo deshabilitar los registros de transmisión para AI Center
- Cómo depurar instalaciones de Automation Suite fallidas
- Cómo eliminar imágenes del instalador antiguo después de la actualización
- Cómo deshabilitar la descarga de la suma de comprobación TX
- Cómo actualizar desde Automation Suite 2022.10.10 y 2022.4.11 a 2023.10.2
- Cómo establecer manualmente el nivel de registro de ArgoCD en Info
- Cómo expandir el almacenamiento de AI Center
- Cómo generar el pull_secret_value codificado para registros externos
- Cómo abordar los cifrados débiles en TLS 1.2
- Cómo trabajar con certificados
- Cómo reenviar registros de aplicaciones a Splunk
- Cómo limpiar las imágenes de Docker no utilizadas de los pods de registro
- Cómo recopilar datos de uso de DU con el almacén de objetos en el clúster (Ceph)
- Cómo instalar RKE2 SELinux en entornos aislados
- Cómo limpiar copias de seguridad diferenciales antiguas en un servidor NFS
- No se puede ejecutar una instalación sin conexión en el sistema operativo RHEL 8.4
- Error al descargar el paquete
- La instalación sin conexión falla porque falta un binario
- Problema de certificado en la instalación sin conexión
- First installation fails during Longhorn setup
- Error de validación de la cadena de conexión SQL
- Error en la comprobación de requisitos previos para el módulo iscsid de selinux
- Azure disk not marked as SSD
- Fallo tras la actualización del certificado
- El antivirus causa problemas de instalación
- Automation Suite not working after OS upgrade
- Automation Suite requiere que backlog_wait_time se establezca en 0
- El volumen no se puede montar porque no está listo para las cargas de trabajo
- Error de recopilación de registros del paquete de soporte
- Se ignora la cadena de conexión SQL de la automatización de pruebas
- Configuración de DNS no respetada por CoreDNS
- Pérdida de datos al reinstalar o actualizar Insights tras la actualización de Automation Suite
- La actualización de nodo único falla en la etapa de tejido
- Cluster unhealthy after automated upgrade from 2021.10
- Upgrade fails due to unhealthy Ceph
- RKE2 no se inicia debido a un problema de espacio
- El volumen no se puede montar y permanece en estado de bucle de conexión/desconexión
- La actualización falla debido a objetos clásicos en la base de datos de Orchestrator
- El clúster de Ceph se encuentra en un estado degradado tras una actualización en paralelo.
- Un componente Insights en mal estado provoca el fallo de la migración
- La actualización del servicio falla para Apps
- Tiempos de actualización in situ
- La migración del registro de Docker se atasca en la fase de eliminación de PVC
- Error de aprovisionamiento de AI Center después de actualizar a 2023.10 o posterior
- La actualización falla en entornos sin conexión
- La validación SQL falla durante la actualización
- pod de snapshot-controller-crds en estado CrashLoopBackOff después de la actualización
- Error de actualización/reinstalación del punto final de la API REST de Longhorn
- La actualización falla debido a los tamaños de PVC de Insights anulados
- La actualización del servicio falla durante la ejecución del script previo al servicio
- Fallo al cargar o descargar datos en el almacén de objetos
- PVC resize does not heal Ceph
- Fallo en el redimensionamiento de PVC de objectstore
- Rook Ceph o Looker pod atascados en estado Init
- Error de archivo adjunto de volumen de StatefulSet
- Fallo en la creación de volúmenes persistentes
- Error al compactar las métricas debido a bloques corruptos en Thanos
- Establecer un intervalo de tiempo de espera para los portales de gestión
- La autenticación no funciona tras la migración
- kinit: no se puede encontrar la KDC para el territorio <AD Domain> mientras se obtienen las credenciales iniciales
- kinit: keytab no contiene claves adecuadas para *** mientras se obtienen las credenciales iniciales
- Error en la operación GSSAPI debido a un código de estado no válido
- Alarma recibida por un error en el trabajo de Kerberos-tgt-update
- Proveedor de SSPI: servidor no encontrado en la base de datos de Kerberos
- Error en inicio de sesión de un usuario AD debido a una cuenta deshabilitada
- ArgoCD login failed
- Actualizar las conexiones del directorio subyacente
- Fallo en la obtención de la imagen de Sandbox
- Los pods no se muestran en la interfaz de usuario de ArgoCD
- Fallo de la sonda Redis
- El servidor RKE2 no se inicia
- Secreto no encontrado en el espacio de nombres UiPath
- ArgoCD entra en estado de progreso tras la primera instalación
- Unhealthy services after cluster restore or rollback
- Pods atascados en Inicialización: 0 / X
- Faltan métricas de Ceph-rook en los paneles de supervisión
- Los pods no pueden comunicarse con FQDN en un entorno de proxy
- Error al configurar las alertas de correo electrónico después de la actualización
- No hay problema ascendente en buen estado
- Error al añadir nodos agente en entornos sin conexión
- El acceso a FQDN devuelve RBAC: error de acceso denegado
- Document Understanding no se encuentra en la barra izquierda de Automation Suite
- Estado fallido al crear una sesión de etiquetado de datos
- Estado fallido al intentar implementar una habilidad ML
- El trabajo de migración falla en ArgoCD
- El reconocimiento de la escritura manual con el extractor de formularios inteligente no funciona
- Error en la implementación de la habilidad ML debido a la caducidad del token
- Ejecutar alta disponibilidad con Process Mining
- La ingestión de Process Mining falló al iniciar sesión con Kerberos
- Después de Disaster Recovery, Dapr no funciona correctamente para Process Mining
- Configurar Dapr con Redis en modo clúster
- No se puede conectar a la base de datos AutomationSuite_ProcessMining_Warehouse utilizando una cadena de conexión en formato pyodbc
- La instalación de Airflow falla con sqlalchemy.exc.ArgumentError: no se pudo analizar la URL rfc1738 de la cadena ''
- Cómo añadir una regla de tabla de IP para utilizar el puerto 1433 de SQL Server
- El certificado de Automation Suite no es de confianza desde el servidor donde se ejecuta CData Sync
- Ejecutar la herramienta de diagnóstico
- Uso del paquete de soporte de Automation Suite
- Explorar registros
- Explorar la telemetría resumida
Importante :
La localización de contenidos recién publicados puede tardar entre una y dos semanas en estar disponible.

Guía de instalación de Automation Suite en Linux
Última actualización 26 de mar. de 2026
Q&A: Deployment templates
- Q: For the multi-node HA-ready production profile, the processor requirement for the Complete product selection is 96 (v-)CPU/cores. Is this requirement inclusive of server and agent nodes, or does it refer to server or agent nodes?
- R: Nuestra documentación indica que el perfil de producción multinodo preparado para alta disponibilidad requiere al menos 3 nodos de servidor con un mínimo de CPU/RAM por nodo. Siempre que se cumpla esta condición, los requisitos restantes de CPU/RAM pueden distribuirse entre nodos de servidor o agente adicionales que también cumplan los requisitos mínimos de CPU/RAM.
- Q: Is a GPU required for Task Mining?
- A: No, GPU is not required for Task Mining.
- P: ¿A qué se refiere la tolerancia a fallos de nodo en la calculadora de tamaño de instalación de UiPath® Automation Suite ? ¿Cubre los nodos agente, solo los nodos servidor o ambos?
- R: La calculadora de tamaño de instalación de UiPath® Automation Suite basa la recomendación en la tolerancia a fallos para que siempre haya un mínimo de 3 nodos de servidor disponibles en el peor de los casos. Puedes aumentar el número de servidores que pueden dejar de funcionar sin que la implementación falle.
- Q: Can I use a private domain in Amazon Route 53?
- A: Yes, private hosted zones are supported.
- Q: Do I need to specify the DNS records in the cloud solution (e.g., AWS) as well? Can I use an on-premises DNS solution with an Automation Suite AWS deployment? For example, in the case of a URL the end-user accesses, does the record need to be resolvable in the cloud or on-premises DNS?
- A: You can use non-Amazon Route 53 DNS infrastructure. However, the DNS must be resolvable in the VPC where you perform the deployment.
- Q: Which CNI plugin is used as part of Kubernetes? For example, when vendor-supplied, the Kubernetes solution supports integration with VPC/VNET. If using AWS Kubernetes, whenever the vendor creates and deploys workload, pods get IP addresses from the VPC itself. That means the workload can be accessed by AWS or Azure services.
- A: We use Cilium CNI. The Kubernetes distribution comes with 3 supported CNIs, but not the AWS-specific one.
- Q: Do you customize Service IP and POD IP ranges?
- A: We currently do not customize Service IP and POD IP ranges. The default CIDR is
10.42.0.0/16.
- A: We currently do not customize Service IP and POD IP ranges. The default CIDR is
- Q: When deploying Automation Suite to AWS into an existing VPC, is it possible to use TerraForm instead of CloudFormation?
- A: No, it is not possible. We use the native Infrastructure as Code tool from the cloud provider (CloudFormation for AWS, ARM for Azure).
- P:En cuanto a la pregunta anterior, si mi estándar para IaaC es Terraform, ¿significa que tengo que desarrollar el código de Terraform?
- A: If you would like to deploy Automation Suite manually (not using the existing AWS or Azure templates), then yes, you would need to develop the Terraform code. Alternatively, you can use the existing CloudFormation template for deployment or as a base to assist in creating the Terraform code.
- Q: How can I estimate the number of specialized nodes required by Task Mining?
- A: Task Mining requires/supports 1 dedicated node out of the box.
- Q: Can I use Graviton-based processes for the deployment?
- A: No, the Kubernetes distribution does not support ARM.
- Q: Can Automation Suite be hosted on AMD or only on Intel processors?
- A: Either is fine as long as you meet the architecture requirements.
- Q: Can I deploy Automation Suite templates on Ubuntu and CentOS?
- A: No, Ubuntu and CentOS are not supported.
- P: Para una implementación de AWS, si un EFS se implementa automáticamente, ¿cuánto espacio reserva?
- A: EFS does not come with pre-provisioned size. It is pay-as-you-use. EFS will hold all backups for all disks across the cluster, which means it will use 6 TB of data, the sum of all the nodes storage data disk space.
- Q: Does Azure deployment deploy an NFS solution, as AWS does? If it does, how much space does it reserve?
- R: NFS es un protocolo que tiene múltiples implementaciones posibles. AWS Elastic File System es una de esas implementaciones. El servidor NFS es otra implementación. Azure tiene una implementación diferente llamada Azure Files. Si quieres tener una copia de seguridad, necesitas uno de estos elementos de infraestructura.
- P: ¿Cuál es el proveedor de servicios en la nube preferido: Azure, AWS o GCP?
- R: No tenemos un proveedor de servicios en la nube preferido. Los admitimos todos.
- Q: If Autoscaling is enabled, does the node require customized images?
- R: El autoescalado utiliza tu imagen de RedHat, sobre la cual se instalará el software UiPath®. No tenemos datos claros ahora, pero el inicio en frío está en el rango de 5-10 minutos.
- Q: Can I use the Standard edition of Microsoft SQL Server?
- R: Admitimos las ediciones Standard y Enterprise de Microsoft SQL Server 2016, 2017 y 2019. Para obtener más información sobre los requisitos de SQL, consulta nuestra documentación.
- Q: Is the the total vCPU requirement of 96 cores required from the beginning or can it be part of Autoscaling, which will add or remove nodes depending on the resource need?
- A: 96 cores are required to power up the system. Subsequently, you can employ different scaling strategies. However, you must not go under that number.
- Q: Do I select the RHEL image or is it prescribed in the AWS or Azure templates? If I must select it, what RHEL version should I use when deploying via templates?
- R: La implementación utiliza una imagen RHEL básica (que se determina en tiempo de ejecución) y crea una plantilla de grupo de autoescalado que se aplica cuando se aprovisiona la máquina virtual. Esto significa que todo el software se instala cuando se crea una nueva instancia EC2. Las plantillas utilizan RHEL 8.2 a partir de ahora.
- Q: Is there any need for VMs other than for the Kubernetes cluster?
- R: Para ejecutar Automation Suite, no se requieren máquinas virtuales adicionales fuera del clúster. Sin embargo, si no tienes máquinas existentes para ejecutar UiPath® Robot, es probable que estas sean necesarias, además de cualquier máquina virtual o escritorio de desarrollador para UiPath Studio (IDE).
- Q: Will there be any integration with CloudWatch or Azure Monitor for Kubernetes logs?
- A: As of now, there is no integration to push logs to CloudWatch.
- Q: Can Automation Suite use open-source database solutions, such as MySQL or PostgreSQL?
- A: The Microsoft SQL Server requirement is independent of the cloud where the Automation Suite is deployed.