- Información general
- Requisitos
- Instalación
- Q&A: Deployment templates
- Configurar las máquinas
- Configurar el almacén de objetos externo
- Configurar un registro de Docker externo
- Configurar el equilibrador de carga
- Configurar el DNS
- Configurar Microsoft SQL Server
- Configurar los certificados
- Instalación de producción multinodo preparada para alta disponibilidad en línea
- Instalación de producción multinodo preparada para alta disponibilidad sin conexión
- Disaster Recovery: instalar el clúster secundario
- Descarga de los paquetes de instalación
- parámetros de install-uipath.sh
- Habilitar el complemento de alta disponibilidad (HAA) de Redis para el clúster
- Archivo de configuración de Document Understanding
- Inclusión de un nodo agente dedicado compatible con GPU
- Añadir un nodo agente dedicado a Task Mining
- Conexión de la aplicación Task Mining
- Añadir un nodo agente dedicado a Automation Suite Robots
- Después de la instalación
- Administración de clústeres
- Gestionar los productos
- Primeros pasos con el Portal de administración del clúster
- Migrating objectstore from persistent volume to raw disks
- Migrating data between objectstores
- Migrating in-cluster objectstore to external objectstore
- Cambiar al clúster secundario
- Disaster Recovery: realizar operaciones posteriores a la instalación
- Convertir una instalación existente en una configuración en varios sitios
- Directrices para actualizar una implementación activa/pasiva
- Directrices sobre la copia de seguridad y restauración de una implementación activa/pasiva
- Supervisión y alertas
- Migración y actualización
- Rutas de actualización de Automation Suite
- Automatizado: Actualización en línea
- Automatizado: Actualización sin conexión
- Manual: Actualización en línea
- Manual: Actualización sin conexión
- Reversión por error
- Migración de disco físico Longhorn a LVM
- Migración de Canal a Cilium CNI
- Downgrading Ceph from 16.2.6 to 15.2.9
- Opciones de migración
- Paso 1: Mover los datos de la organización de identidad de independiente a Automation Suite
- Paso 2: restaurar la base de datos del producto independiente
- Paso 3: Realizar una copia de seguridad de la base de datos de la plataforma en Automation Suite
- Paso 4: Fusionar organizaciones en Automation Suite
- Paso 5: actualizar las cadenas de conexión de los productos migrados
- Paso 6: migrar Insights independiente
- Paso 7: eliminar el tenant predeterminado
- B) Migración de tenant único
- Configuración específica del producto
- Buenas prácticas y mantenimiento
- Solución de problemas
- Cómo solucionar los problemas de los servicios durante la instalación
- Cómo desinstalar el clúster
- Cómo limpiar los artefactos sin conexión para mejorar el espacio en disco
- Cómo borrar datos de Redis
- Cómo habilitar el registro de Istio
- Cómo limpiar manualmente los registros
- Cómo limpiar los registros antiguos almacenados en el depósito sf-logs
- Cómo deshabilitar los registros de transmisión para AI Center
- Cómo depurar instalaciones de Automation Suite fallidas
- Cómo eliminar imágenes del instalador antiguo después de la actualización
- Cómo limpiar automáticamente las instantáneas de Longhorn
- Cómo deshabilitar la descarga de la suma de comprobación TX
- Cómo establecer manualmente el nivel de registro de ArgoCD en Info
- Cómo generar el pull_secret_value codificado para registros externos
- Cómo abordar los cifrados débiles en TLS 1.2
- No se puede ejecutar una instalación sin conexión en el sistema operativo RHEL 8.4
- Error al descargar el paquete
- La instalación sin conexión falla porque falta un binario
- Problema de certificado en la instalación sin conexión
- First installation fails during Longhorn setup
- Error de validación de la cadena de conexión SQL
- Error en la comprobación de requisitos previos para el módulo iscsid de selinux
- Azure disk not marked as SSD
- Fallo tras la actualización del certificado
- El antivirus causa problemas de instalación
- Automation Suite not working after OS upgrade
- Automation Suite requiere que backlog_wait_time se establezca en 0
- Nodo de GPU afectado por la falta de disponibilidad de recursos
- El volumen no se puede montar porque no está listo para las cargas de trabajo
- Error de recopilación de registros del paquete de soporte
- La actualización de nodo único falla en la etapa de tejido
- Cluster unhealthy after automated upgrade from 2021.10
- Upgrade fails due to unhealthy Ceph
- RKE2 no se inicia debido a un problema de espacio
- La validación SQL falla durante la actualización
- pod de snapshot-controller-crds en estado CrashLoopBackOff después de la actualización
- Fallo al cargar o descargar datos en el almacén de objetos
- PVC resize does not heal Ceph
- Fallo en el redimensionamiento de PVC
- Fallo en el redimensionamiento de PVC de objectstore
- Rook Ceph o Looker pod atascados en estado Init
- Error de archivo adjunto de volumen de StatefulSet
- Fallo en la creación de volúmenes persistentes
- Parche de reclamación de almacenamiento
- La copia de seguridad falló debido al error
- Todas las réplicas de Longhorn son defectuosas
- Establecer un intervalo de tiempo de espera para los portales de gestión
- Actualizar las conexiones del directorio subyacente
- La autenticación no funciona tras la migración
- kinit: no se puede encontrar la KDC para el territorio <AD Domain> mientras se obtienen las credenciales iniciales
- kinit: keytab no contiene claves adecuadas para *** mientras se obtienen las credenciales iniciales
- Error en la operación GSSAPI debido a un código de estado no válido
- Alarma recibida por un error en el trabajo de Kerberos-tgt-update
- Proveedor de SSPI: servidor no encontrado en la base de datos de Kerberos
- Error en inicio de sesión de un usuario AD debido a una cuenta deshabilitada
- ArgoCD login failed
- Fallo en la obtención de la imagen de Sandbox
- Los pods no se muestran en la interfaz de usuario de ArgoCD
- Fallo de la sonda Redis
- El servidor RKE2 no se inicia
- Secreto no encontrado en el espacio de nombres UiPath
- ArgoCD entra en estado de progreso tras la primera instalación
- Incidencias al acceder a la cuenta de solo lectura de ArgoCD
- Pods MongoDB en CrashLoopBackOff o pendientes de aprovisionamiento de PVC tras su eliminación
- Unhealthy services after cluster restore or rollback
- Pods atascados en Inicialización: 0 / X
- Prometheus en estado CrashloopBackoff con error de falta de memoria (OOM)
- Faltan métricas de Ceph-rook en los paneles de supervisión
- Los pods no pueden comunicarse con FQDN en un entorno de proxy
- Document Understanding no se encuentra en la barra izquierda de Automation Suite
- Estado fallido al crear una sesión de etiquetado de datos
- Estado fallido al intentar implementar una habilidad ML
- El trabajo de migración falla en ArgoCD
- El reconocimiento de la escritura manual con el extractor de formularios inteligente no funciona
- Ejecutar alta disponibilidad con Process Mining
- La ingestión de Process Mining falló al iniciar sesión con Kerberos
- No se puede conectar a la base de datos AutomationSuite_ProcessMining_Warehouse utilizando una cadena de conexión en formato pyodbc
- La instalación de Airflow falla con sqlalchemy.exc.ArgumentError: no se pudo analizar la URL rfc1738 de la cadena ''
- Cómo añadir una regla de tabla de IP para utilizar el puerto 1433 de SQL Server
- Uso de la herramienta de diagnóstico de Automation Suite
- Uso del paquete de soporte de Automation Suite
- Explorar registros
Guía de instalación de Automation Suite en Linux
Configurar las máquinas
- Para evitar la pérdida de datos, asegúrese de que la infraestructura que utiliza no elimina automáticamente los discos del clúster al reiniciarlo o apagarlo. Si esta función está activada, asegúrese de desactivarla.
- Para garantizar una sesión SSH fluida e ininterrumpida, te recomendamos encarecidamente que sigas los pasos de Mejores prácticas de instalación antes de configurar los discos e instalar Automation Suite.
configureUiPathDisks.sh
. Para obtener más información, consulta las siguientes secciones.
Antes de proceder a la instalación, hay que realizar una partición del disco y configurarlo mediante LVM, de modo que su tamaño pueda modificarse fácilmente y sin que se produzcan migraciones o pérdidas de datos.
Realizar partición del disco
/var
. De forma predeterminada, a la partición var
se le asignan solo 8 GiB de espacio.
- El formato admitido para el disco es
ext4
oxfs
. - Todas las particiones deben crearse con LVM. Esto tiene la finalidad de garantizar que los datos del clúster puedan residir en un disco diferente y puedan verse correctamente. También permite ampliar el tamaño de la partición en un futuro sin riesgo de migración o pérdida de datos.
- Todos los pods y registros de las aplicaciones se almacenan en el directorio
/var/log/pods
. Asegúrate de que la capacidad de este directorio es de al menos 8 GiB. También recomendamos configurarlogrotate
para rotar los registros en un intervalo que va de diario a semanal.
Para el sistema operativo RHEL, asegúrate de disponer de los siguientes tamaños mínimos de puntos de instalación en la máquina.
En línea
Etiqueta de disco |
Partición |
Tamaño |
Propósito |
---|---|---|---|
Disco del clúster |
|
190 GiB |
La carpeta Rancher almacena imágenes y capas |
|
56 GiB |
La carpeta Kubernetes almacena las configuraciones de tiempo de ejecución de Kubernetes, como secrets, configmaps y emptyDir | |
|
10 GiB |
Instalador binario | |
Disco etcd |
|
16 GiB |
Base de datos distribuida para Kubernetes |
Bloquear almacenamiento |
|
512 GiB |
Abstracción del almacenamiento en bloque |
Almacén de objetos1 |
N/D |
512 GiB | Almacén de objetos en el clúster |
Te recomendamos no utilizar el disco del sistema operativo para ninguno de los anteriores fines, para garantizar que los procesos reciban la cantidad justa de recursos.
Sin conexión
Los requisitos para el modo sin conexión son los mismos que para el modo en línea, excepto para la primera máquina en la que se ejecuta la instalación, la cual necesita los siguientes requisitos.
Es necesario disponer de espacio adicional para extraer el paquete sin conexión.
Etiqueta de disco |
Partición |
Tamaño |
Propósito |
---|---|---|---|
Disco del clúster |
|
190 GiB |
La carpeta Rancher almacena imágenes y capas |
|
56 GiB |
La carpeta Kubernetes almacena las configuraciones de tiempo de ejecución de Kubernetes, como secrets, configmaps y emptyDir | |
|
10 GiB |
Instalador binario | |
Disco etcd |
|
16 GiB |
Base de datos distribuida para Kubernetes |
Bloquear almacenamiento |
|
512 GiB |
Abstracción del almacenamiento en bloque |
Almacén de objetos1 |
N/D | 512 GiB |
Almacén de objetos en el clúster |
Disco de paquete de UiPath |
|
512 GiB |
Paquete aislado |
Te recomendamos no utilizar el disco del sistema operativo para ninguno de los anteriores fines, para garantizar que los procesos reciban la cantidad justa de recursos.
Los discos de datos y etcd deben ser discos físicos independientes. De esta manera, los datos y el disco etcd están físicamente aislados de otras cargas de trabajo y actividades del clúster, a la vez que se mejoran el rendimiento y la estabilidad del clúster.
Consulte la siguiente sección para obtener detalles sobre cómo utilizar el script de ejemplo para realizar una partición del disco y configurarlo antes de la instalación.
Descargar el script
configureUiPathDisks.sh
para configurar y realizar una partición del disco.
Para obtener instrucciones de descarga, consulta configureUiPathDisks.sh.
Ejecutar el script
configureUiPathDisks.sh
puede utilizarse para los siguientes fines:
- configurar los discos y puntos de instalación para una nueva instalación de clúster de Automation Suite;
- cambiar el tamaño del disco de datos después de la instalación.
Para hacer que el script sea ejecutable, ejecute:
chmod +x ./configureUiPathDisks.sh
chmod +x ./configureUiPathDisks.sh
Para obtener más detalles sobre el uso del script, ejecute:
sudo ./configureUiPathDisks.sh --help
sudo ./configureUiPathDisks.sh --help
***************************************************************************************
Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk
Arguments
-n|--node-type NodeType, Possible values: agent, server. Default to server.
-i|--install-type Installation mode, Possible values: online, offline. Default to online.
-c|--cluster-disk-name Device to host rancher and kubelet. Ex: /dev/sdb.
-e|--etcd-disk-name Device to host etcd, Not required for agent node. Ex: /dev/sdb.
-R|--ceph-raw-disk-name Device to host ceph OSD, Not required for agent node. Ex: /dev/sdm
-l|--data-disk-name Device to host datadisk, Not required for agent node. Ex: /dev/sdc.
-b|--bundle-disk-name Device to host the uipath bundle.
Only required for offline installation on 1st server node.
-k|--robot-package-disk-name Device to host robot package cache folder
Only required for Automation Suite Robots dedicated node when 'packagecaching' is enabled
-P|--robot-package-path Path to robot package cache folder
(defaults to '/uipath_asrobots_package_cache' if not set)
-f|--complete-suite Installing complete product suite or any of these products:
aicenter, apps, taskmining, documentunderstanding.
This will configure the datadisk volume to be 2TiB instead of 512Gi.
-p|--primary-server Is this machine is first server machine? Applicable only for airgap install.
This is the machine on which UiPath AutomationSuite bundle will be installed.
Default to false.
-x|--extend-data-disk Extend the datadisk. Either attach new disk or resize the exiting datadisk.
-r|--resize Used in conjunction of with --extend-data-disk to resize the exiting volume,
instead of adding new volume.
-d|--debug Run in debug.
-h|--help Display help.
ExampleUsage:
configureUiPathDisks.sh --node-type server --install-type online \
--cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
--data-disk-name /dev/sdd
configureUiPathDisks.sh --data-disk-name /dev/sdh \
--extend-data-disk
***************************************************************************************
***************************************************************************************
Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk
Arguments
-n|--node-type NodeType, Possible values: agent, server. Default to server.
-i|--install-type Installation mode, Possible values: online, offline. Default to online.
-c|--cluster-disk-name Device to host rancher and kubelet. Ex: /dev/sdb.
-e|--etcd-disk-name Device to host etcd, Not required for agent node. Ex: /dev/sdb.
-R|--ceph-raw-disk-name Device to host ceph OSD, Not required for agent node. Ex: /dev/sdm
-l|--data-disk-name Device to host datadisk, Not required for agent node. Ex: /dev/sdc.
-b|--bundle-disk-name Device to host the uipath bundle.
Only required for offline installation on 1st server node.
-k|--robot-package-disk-name Device to host robot package cache folder
Only required for Automation Suite Robots dedicated node when 'packagecaching' is enabled
-P|--robot-package-path Path to robot package cache folder
(defaults to '/uipath_asrobots_package_cache' if not set)
-f|--complete-suite Installing complete product suite or any of these products:
aicenter, apps, taskmining, documentunderstanding.
This will configure the datadisk volume to be 2TiB instead of 512Gi.
-p|--primary-server Is this machine is first server machine? Applicable only for airgap install.
This is the machine on which UiPath AutomationSuite bundle will be installed.
Default to false.
-x|--extend-data-disk Extend the datadisk. Either attach new disk or resize the exiting datadisk.
-r|--resize Used in conjunction of with --extend-data-disk to resize the exiting volume,
instead of adding new volume.
-d|--debug Run in debug.
-h|--help Display help.
ExampleUsage:
configureUiPathDisks.sh --node-type server --install-type online \
--cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
--data-disk-name /dev/sdd
configureUiPathDisks.sh --data-disk-name /dev/sdh \
--extend-data-disk
***************************************************************************************
En línea
Para configurar el disco en una configuración de evaluación de nodo único en línea, ejecute el siguiente comando en la máquina:
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk
Sin conexión
En una instalación sin conexión, deberá cargar las imágenes del producto en el registro de Docker. Por consiguiente, se requiere almacenamiento adicional en forma de disco independiente para alojar el paquete de productos UiPath.
Para configurar el disco en una configuración de evaluación de nodo único sin conexión, ejecute el siguiente comando en la máquina:
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk \
--bundle-disk-name name_of_uipath_bundle_disk \
--primary-server \
--install-type offline
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk \
--bundle-disk-name name_of_uipath_bundle_disk \
--primary-server \
--install-type offline
Puedes expandir el tamaño de tu almacenamiento para el objectstore en el clúster ejecutando el siguiente script:
./configureUiPathDisks.sh --ceph-raw-disk-name name_ceph_raw_disk
./configureUiPathDisks.sh --ceph-raw-disk-name name_ceph_raw_disk
Para aumentar el tamaño de tu almacenamiento en el clúster después de la instalación, vuelve a ejecutar el mismo comando.
Para ampliar el disco de datos, puede asociar el nuevo disco físico o cambiar el tamaño del disco existente.
Añadir un disco nuevo
Para ampliar el disco de datos utilizando el disco recién asociado, ejecute el siguiente comando en la máquina del servidor:
./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
--extend-data-disk
./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
--extend-data-disk
Cambiar tamaño del disco existente
Para ampliar el disco de datos cambiando el tamaño de un disco existente, ejecute el siguiente comando en la máquina del servidor:
./configureUiPathDisks.sh --extend-data-disk --resize
./configureUiPathDisks.sh --extend-data-disk --resize
La siguiente página ayuda a los administradores de Linux a gestionar la configuración del sistema operativo y el kernel antes de realizar una instalación de Automation Suite.
Normalmente, esta configuración se gestiona a través de una herramienta de configuración de gestión dedicada, como Puppet. Asegúrate de que los cambios que realices sean según el proceso de control de tu entorno para fines de coherencia y documentación.
Asegúrate de completar los siguientes pasos antes de iniciar la instalación, ya que una mala configuración a nivel del sistema operativo y del núcleo puede provocar errores no intuitivos. Comprobar esta configuración específica a menudo puede evitar tales errores.
Debes deshabilitar el intercambio de memoria antes de instalar Automation Suite. Se sabe que la memoria de intercambio causa problemas con las cargas de trabajo del contenedor. Además, las cargas de trabajo de Automation Suite no se benefician de utilizar la memoria de intercambio y Kubernetes ya optimiza el uso de la memoria.
sysctl
en la máquina:
-
HabilitarTransmisiónDeLaIP
-
deshabilitar el filtrado de ruta inversa
Puedes hacerlo ejecutando el siguiente comando:
cat <<EOF >>"/etc/sysctl.d/99-sysctl.conf"
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.conf.all.rp_filter=0
EOF
cat <<EOF >>"/etc/sysctl.d/99-sysctl.conf"
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.conf.all.rp_filter=0
EOF
nf-call-iptables
es necesario para la mayoría de las implementaciones de Kubernetes. Kubernetes crea redes virtuales internas al clúster. Esto permite que cada pod tenga su propia dirección IP, que se utiliza junto con los servicios de nombres internos para facilitar la comunicación entre servicios. El clúster no funciona si nf-call-iptables
no está habilitado. Para obtener más información, consulta la documentación de Kubernetes oficial.
Para aplicar la configuración, ejecuta el siguiente comando:
sysctl --system
sysctl --system
This step is optional and applies only if you use fapolicy. In this case, an RKE2 specific policy is required.
To generate the RKE2 policy, use the following command:
cat <<-EOF >>"/etc/fapolicyd/rules.d/69-rke2.rules"
allow perm=any all : dir=/var/lib/rancher/
allow perm=any all : dir=/opt/cni/
allow perm=any all : dir=/run/k3s/
allow perm=any all : dir=/var/lib/kubelet/
allow perm=any all : dir=/root/.local/share/helm
EOF
cat <<-EOF >>"/etc/fapolicyd/rules.d/69-rke2.rules"
allow perm=any all : dir=/var/lib/rancher/
allow perm=any all : dir=/opt/cni/
allow perm=any all : dir=/run/k3s/
allow perm=any all : dir=/var/lib/kubelet/
allow perm=any all : dir=/root/.local/share/helm
EOF
Asegúrate de que el cambio se comunique a tu equipo de Linux y pase por los procesos de gestión de la configuración adecuados.
/var/lib/rancher
no deben tener noexec
o nosuid
. La herramienta de disco crea automáticamente estos montajes sin estas propiedades.
Si un administrador de Linux establece manualmente estas propiedades, la instancia se convierte en no funcional.
Para obtener más información sobre la configuración del disco, consulta Requisitos del disco.
Asegúrese de tener habilitados los siguientes puertos en su firewall para cada origen.
Puerto |
Protocolo |
Origen |
Propósito |
Requisitos |
---|---|---|---|---|
|
TCP |
Servidor de salto o máquina cliente |
Para SSH (instalación, depuración de la gestión del clúster) |
No abra este puerto a Internet. Permitir el acceso a la máquina cliente o al servidor de salto |
|
TCP |
Solo instalación sin conexión: necesaria para el envío de notificaciones del sistema por correo electrónico. | ||
|
TCP |
Todos los nodos de un clúster y el equilibrador de carga |
Para HTTPS (acceso a Automation Suite) |
Este puerto debe tener conectividad de entrada y salida desde todos los nodos del clúster y el equilibrador de carga. |
|
TCP |
Solo instalación sin conexión: necesaria para el envío de notificaciones del sistema por correo electrónico. | ||
|
TCP |
Todos los nodos en un clúster |
Utilizado por Cilium para supervisar y gestionar fallos de pod. |
Este puerto debe tener conectividad entrante y saliente de todos los nodos del clúster. |
Si habilitó Task Mining y proporcionó un nodo dedicado de Task Mining y/o aprovisionó un nodo dedicado compatible con GPU, asegúrese de que, además de lo anterior, tiene habilitados los siguientes puertos en su firewall:
Puerto |
Protocolo |
Origen |
Propósito |
Requisitos |
---|---|---|---|---|
|
TCP |
Todos los nodos de un clúster |
Puerto cliente etcd |
No debe exponerse a Internet. El acceso entre nodos debe ser suficiente a través de una dirección IP privada. |
|
TCP |
Todos los nodos de un clúster |
Puerto de pares etcd |
No debe exponerse a Internet. El acceso entre nodos debe ser suficiente a través de una dirección IP privada. |
|
TCP |
Todos los nodos de un clúster |
Se requiere para acceder a la API de Kubernetes mediante HTTPS y para la unión de nodos |
Este puerto debe tener conectividad entrante y saliente de todos los nodos del clúster. |
|
UDP |
Todos los nodos de un clúster |
Obligatorio para Cilium. |
No debe exponerse a Internet. El acceso entre nodos debe ser suficiente a través de una dirección IP privada. |
|
TCP |
Todos los nodos de un clúster y el equilibrador de carga |
Se requiere para acceder a la API de Kubernetes mediante HTTPS, para la unión de nodos |
Este puerto debe tener conectividad de entrada y salida desde todos los nodos del clúster y el equilibrador de carga. |
|
TCP |
Todos los nodos de un clúster |
Kubelet o servidor de métricas |
No debe exponerse a Internet. El acceso entre nodos debe ser suficiente a través de una dirección IP privada. |
|
TCP |
Todos los nodos de un clúster |
Puerto NodePort para la comunicación interna entre los nodos de un clúster |
No debe exponerse a Internet. El acceso entre nodos debe ser suficiente a través de una dirección IP privada. |
6443
fuera del límite del clúster es obligatorio si hay una conexión directa a la API de Kerberos.
9345
para descubrir nodos existentes y unirse al clúster en la implementación multinodo. Para mantener en funcionamiento los mecanismos de descubrimiento de alta disponibilidad, recomendamos exponerlo a través del equilibrador de carga con la comprobación de estado.
Asegúrese también de tener conectividad desde todos los nodos al servidor SQL.
No expongas el servidor SQL en uno de los puertos reservados de Istio, ya que puede provocar fallos de conexión.
Si tiene un firewall configurado en la red, asegúrese de que estos puertos están abiertos y se permite el tráfico de acuerdo con los requisitos mencionados anteriormente.
Para instalar y validar los paquetes RPM necesarios, puede utilizar cualquiera de las siguientes herramientas
- el instalador manual install-uipath.sh. In online environments, it installs and validates all RPM packages by default.
- el instalador interactivo
installUiPathAS.sh
. Valida todos los paquetes RPM a través del instaladorinstall-uipath.sh
. -
- para validar los paquetes RPM, ejecute:
validateUiPathASReadiness.sh validate-packages
; - para instalar los paquetes RPM en una instalación en línea, ejecute:
validateUiPathASReadiness.sh install-packages
; - para instalar los paquetes RPM en una instalación fuera de línea, ejecute:
validateUiPathASReadiness.sh install-packages --install-type offline
.
- para validar los paquetes RPM, ejecute:
Para obtener una lista de los requisitos del paquete RPM, consulta Requisitos de hardware y software.
En esta sección se explica cómo habilitar FIPS 140-2 en tus máquinas.
Puedes habilitar FIPS en tus máquinas virtuales basadas en Red Hat Linux. Para hacerlo, sigue los siguientes pasos:
-
Habilita FIPS ejecutando el siguiente comando en todas tus máquinas antes de iniciar la instalación:
fips-mode-setup --enable
fips-mode-setup --enable -
Reinicia tus máquinas y comprueba si has habilitado FIPS correctamente ejecutando el siguiente comando:
fips-mode-setup --check
fips-mode-setup --check
Para obtener más detalles sobre los pasos adicionales que debes seguir para empezar a utilizar Automation Suite en máquinas FIPS 140-2, consulta Mejores prácticas de seguridad.
Para configurar un proxy, es necesario realizar pasos de configuración adicionales durante la configuración de tu entorno con los requisitos previos y en la fase de configuración avanzada.
Los pasos siguientes son obligatorios para la configuración del entorno.
Actualmente no se admite proxy HTTPS con certificados autofirmados. Asegúrese de utilizar un certificado público de confianza si va a configurar el proxy.
Asegúrese de que las siguientes reglas están habilitadas en su grupo de seguridad de red para la red virtual específica.
Origen |
Destination |
Redireccionamiento a través de proxy |
Puerto |
Descripción |
---|---|---|---|---|
Red virtual |
Sql |
No |
Puerto del servidor SQL |
Necesario para el servidor SQL. |
Red virtual |
Load balancer |
No |
|
Se requiere para añadir nuevos nodos al clúster. |
Red virtual |
Clúster (subred) |
No |
Todos los puertos |
Se requiere para la comunicación a través de un rango de IP privado. |
Red virtual |
|
No |
|
Se requiere para iniciar sesión y utilizar el cliente ArgoCD durante la implementación. |
Red virtual |
Servidor Proxy |
Sí |
Todos los puertos |
Se requiere para redirigir el tráfico al servidor proxy. |
Red virtual |
Servidor de nombres |
No |
Todos los puertos |
La mayoría de los servicios en la nube, como Azure y AWS, lo utilizan para obtener los metadatos de la máquina virtual y lo consideran una IP privada. |
Red virtual |
Servidor de metadatos |
No |
Todos los puertos |
La mayoría de los servicios en la nube, como Azure y AWS, utilizan la dirección IP
169.254.169.254 para obtener los metadatos de las máquinas.
|
Al configurar los nodos, es necesario añadir la configuración del proxy a cada nodo que forma parte del clúster. Este paso es necesario para redireccionar el tráfico saliente del nodo a través del servidor proxy.
-
Añada la siguiente configuración en
/etc/environment
:http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>
http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server> -
Añada la siguiente configuración en
/etc/wgetrc
:http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>
http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>Parámetros obligatorios
Descripción
http_proxy
Se utiliza para redirigir las peticiones salientes HTTP del nodo. Debe ser el FQDN y el puerto del servidor proxy.
https_proxy
Se utiliza para redirigir las peticiones salientes HTTPS del nodo. Debe ser el FQDN y el puerto del servidor proxy.
no_proxy
Lista separada por comas de hosts, direcciones IP que no desea enrutar a través del servidor proxy. Debe ser una subred privada, un host de servidor SQL, una dirección de servidor con nombre, una dirección de servidor de metadatos:alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>
named server address
– La mayoría de los servicios en la nube, como Azure y AWS, lo utilizan para resolver consultas de DNS.metadata server address
– La mayoría de los servicios en la nube, como Azure y AWS, utilizan la dirección IP169.254.169.254
para obtener los metadatos de la máquina.
Importante:Si utilizas AI Center con un Orchestrator externo, debes añadir el dominio de Orchestrator externo a la listano_proxy
. -
Verifique si la configuración del proxy es correcta ejecutando el siguiente comando:
curl -v $HTTP_PROXY curl -v <fixed_rke_address>:9345
curl -v $HTTP_PROXY curl -v <fixed_rke_address>:9345Importante: una vez que cumplas con los requisitos del servidor proxy, asegúrate de continuar con la configuración del proxy durante la instalación. Sigue los pasos en Opcional: Configurar el servidor proxy para asegurarte de que el servidor proxy está configurado correctamente.
- Configurar el disco
- Requisitos del disco
- Utilizar el script para configurar el disco
- Configurar el disco para una instalación de evaluación de nodo único
- Configuración del disco del almacén de objetos
- Ampliar el disco de datos tras la instalación
- Validar instalaciones de disco
- Configuración del kernel y del sistema operativo
- Deshabilitar la memoria de intercambio
- Configuración de sysctl
- Configuración de fapolicy
- Configuración de noexec y nosuid
- Habilitar puertos
- Installing the required RPM packages
- Opcional: habilitar FIPS 140-2
- Opcional: configurar el servidor proxy
- Paso 1: habilitar puertos en la red virtual
- Paso 2: añadir la configuración del proxy a cada nodo