- Información general
- Requisitos
- Instalación
- Preguntas y respuestas: plantillas de implementación
- Descarga de los paquetes de instalación
- parámetros de install-uipath.sh
- Habilitar el complemento de alta disponibilidad (HAA) de Redis para el clúster
- Archivo de configuración de Document Understanding
- Inclusión de un nodo agente dedicado compatible con GPU
- Conexión de la aplicación Task Mining
- Añadir un nodo agente dedicado a Task Mining
- Después de la instalación
- Administración de clústeres
- Gestionar los productos
- Gestionar el clúster en ArgoCD
- Configurar el servidor NFS externo
- Automatizado: Habilitar la copia de seguridad en el clúster
- Automatizado: Deshabilitar la copia de seguridad en el clúster
- Automatizado, en línea: restaurar el clúster
- Automatizado, sin conexión: restaurar el clúster
- Manual: Habilitar la copia de seguridad en el clúster
- Manual : Deshabilitar la copia de seguridad en el clúster
- Manual, en línea: restaurar el clúster
- Manual, sin conexión: restaurar el clúster
- Configuración adicional
- Migrating objectstore from persistent volume to raw disks
- Supervisión y alertas
- Migración y actualización
- Opciones de migración
- Paso 1: Mover los datos de la organización de identidad de independiente a Automation Suite
- Paso 2: restaurar la base de datos del producto independiente
- Paso 3: Realizar una copia de seguridad de la base de datos de la plataforma en Automation Suite
- Paso 4: Fusionar organizaciones en Automation Suite
- Paso 5: actualizar las cadenas de conexión de los productos migrados
- Step 6: Migrating standalone Insights
- Paso 7: eliminar el tenant predeterminado
- B) Migración de tenant único
- Configuración específica del producto
- Buenas prácticas y mantenimiento
- Solución de problemas
- Cómo solucionar los problemas de los servicios durante la instalación
- Cómo desinstalar el clúster
- Cómo limpiar los artefactos sin conexión para mejorar el espacio en disco
- Cómo borrar datos de Redis
- Cómo habilitar el registro de Istio
- Cómo limpiar manualmente los registros
- Cómo limpiar los registros antiguos almacenados en el paquete sf-logs
- Cómo deshabilitar los registros de transmisión para AI Center
- Cómo depurar instalaciones de Automation Suite fallidas
- Cómo eliminar imágenes del instalador antiguo después de la actualización
- Cómo limpiar automáticamente las instantáneas de Longhorn
- Cómo deshabilitar la descarga de la suma de comprobación de NIC
- No se puede ejecutar una instalación sin conexión en el sistema operativo RHEL 8.4
- Error al descargar el paquete
- La instalación sin conexión falla porque falta un binario
- Problema de certificado en la instalación sin conexión
- First installation fails during Longhorn setup
- Error de validación de la cadena de conexión SQL
- Error en la comprobación de requisitos previos para el módulo iscsid de selinux
- Azure disk not marked as SSD
- Fallo tras la actualización del certificado
- Automation Suite not working after OS upgrade
- Automation Suite requiere que Backlog_wait_time se establezca 1
- El volumen no se puede montar porque no está listo para las cargas de trabajo
- RKE2 falla durante la instalación y la actualización
- Fallo al cargar o descargar datos en el almacén de objetos
- PVC resize does not heal Ceph
- Fallo en el redimensionamiento de PVC de objectstore
- Rook Ceph o Looker pod atascados en estado Init
- Error de archivo adjunto de volumen de StatefulSet
- Fallo en la creación de volúmenes persistentes
- Parche de reclamación de almacenamiento
- La copia de seguridad falló debido al error
- Todas las réplicas de Longhorn son defectuosas
- Establecer un intervalo de tiempo de espera para los portales de gestión
- Actualizar las conexiones del directorio subyacente
- No se puede iniciar la sesión después de la migración
- Kinit: no se puede encontrar el KDC para el dominio <AD> mientras se obtienen las credenciales iniciales
- kinit: keytab no contiene claves adecuadas para *** mientras se obtienen las credenciales iniciales
- La operación GSSAPI ha fallado con un error: se ha suministrado un código de estado no válido (las credenciales del cliente han sido revocadas).
- Alarma recibida por trabajo de actualización Kerberos-tgt fallido
- Proveedor SSPI: servidor no encontrado en la base de datos de Kerberos
- Error de inicio de sesión para el usuario <ADDOMAIN> <aduser>. Razón: la cuenta está deshabilitada.
- ArgoCD login failed
- Fallo en la obtención de la imagen de Sandbox
- Los pods no se muestran en la interfaz de usuario de ArgoCD
- Fallo de la sonda Redis
- El servidor RKE2 no se inicia
- Secreto no encontrado en el espacio de nombres UiPath
- Después de la instalación inicial, la aplicación ArgoCD pasó al estado de progreso
- Pods MongoDB en CrashLoopBackOff o pendientes de aprovisionamiento de PVC tras su eliminación
- Inconsistencia inesperada, ejecuta fsck manualmente
- MongoDB o aplicaciones empresariales degradadas después de la restauración del clúster
- Falta el operador de Self-heal y el repositorio de Sf-k8-utils
- Servicios en mal estado después de la restauración o reversión del clúster
- El pod de RabbitMQ se atasca en CrashLoopBackOff
- Prometheus en estado CrashloopBackoff con error de falta de memoria (OOM)
- Faltan métricas de Ceph-rook en los paneles de supervisión
- Document Understanding no se encuentra en la barra izquierda de Automation Suite
- Estado fallido al crear una sesión de etiquetado de datos
- Estado fallido al intentar implementar una habilidad ML
- El trabajo de migración falla en ArgoCD
- El reconocimiento de la escritura manual con el extractor de formularios inteligente no funciona
- Uso de la herramienta de diagnóstico de Automation Suite
- Uso de la herramienta del paquete de soporte de Automation Suite
- Explorar registros
Configurar las máquinas
La siguiente página ayuda a los administradores de Linux a gestionar la configuración del sistema operativo y el kernel antes de realizar una instalación de Automation Suite.
Normalmente, esta configuración se gestiona a través de una herramienta de configuración de gestión dedicada, como Puppet. Asegúrate de que los cambios que realices sean según el proceso de control de tu entorno para fines de coherencia y documentación.
Asegúrate de completar los siguientes pasos antes de iniciar la instalación, ya que una mala configuración a nivel del sistema operativo y del núcleo puede provocar errores no intuitivos. Comprobar esta configuración específica a menudo puede evitar tales errores.
sysctl
en la máquina:
-
HabilitarTransmisiónDeLaIP
-
deshabilitar el filtrado de ruta inversa
Puedes hacerlo ejecutando el siguiente comando:
cat <<EOF >>"/etc/sysctl.d/99-sysctl.conf"
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.conf.all.rp_filter=0
EOF
cat <<EOF >>"/etc/sysctl.d/99-sysctl.conf"
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.conf.all.rp_filter=0
EOF
nf-call-iptables
es necesario para la mayoría de las implementaciones de Kubernetes. Kubernetes crea redes virtuales internas al clúster. Esto permite que cada pod tenga su propia dirección IP, que se utiliza junto con los servicios de nombres internos para facilitar la comunicación entre servicios. El clúster no funciona si nf-call-iptables
no está habilitado. Para obtener más información, consulta la documentación de Kubernetes oficial.
Si se utiliza fapolicy, se requiere una política específica RKE2. Para generar esto, utiliza el siguiente comando:
cat <<-EOF >>"/etc/fapolicyd/rules.d/69-rke2.rules"
allow perm=any all : dir=/var/lib/rancher/
allow perm=any all : dir=/opt/cni/
allow perm=any all : dir=/run/k3s/
allow perm=any all : dir=/var/lib/kubelet/
EOF
cat <<-EOF >>"/etc/fapolicyd/rules.d/69-rke2.rules"
allow perm=any all : dir=/var/lib/rancher/
allow perm=any all : dir=/opt/cni/
allow perm=any all : dir=/run/k3s/
allow perm=any all : dir=/var/lib/kubelet/
EOF
Asegúrate de que el cambio se comunique a tu equipo de Linux y pase por los procesos de gestión de la configuración adecuados.
/var/lib/rancher
no deben tener noexec
o nosuid
. La herramienta de disco crea automáticamente estos montajes sin estas propiedades.
Si un administrador de Linux establece manualmente estas propiedades, la instancia se convierte en no funcional.
Para obtener más información sobre la configuración del disco, consulta Requisitos del disco.
configureUiPathDisks.sh
. Para obtener más información, consulta las siguientes secciones.
Antes de proceder a la instalación, hay que realizar una partición del disco y configurarlo mediante LVM, de modo que su tamaño pueda modificarse fácilmente y sin que se produzcan migraciones o pérdidas de datos.
Realizar partición del disco
/var
. De forma predeterminada, a la partición var
se le asignan solo 8 GiB de espacio.
- El formato admitido para el disco es
ext4
oxfs
. - Todas las particiones deben crearse con LVM. Esto tiene la finalidad de garantizar que los datos del clúster puedan residir en un disco diferente y puedan verse correctamente. También permite ampliar el tamaño de la partición en un futuro sin riesgo de migración o pérdida de datos.
- Todos los pods y registros de las aplicaciones se almacenan en el directorio
/var/log/pods
. Asegúrate de que la capacidad de este directorio es de al menos 8 GiB. También recomendamos configurarlogrotate
para rotar los registros en un intervalo que va de diario a semanal.
Para el sistema operativo RHEL, asegúrate de disponer de los siguientes tamaños mínimos de puntos de instalación en la máquina.
En línea
Etiqueta de disco |
Partición |
Tamaño |
Propósito |
---|---|---|---|
Disco del clúster |
|
190 GiB |
La carpeta Rancher almacena imágenes y capas |
|
56 GiB |
La carpeta Kubernetes almacena las configuraciones de tiempo de ejecución de Kubernetes, como secrets, configmaps y emptyDir | |
|
20 GiB |
Instalador binario | |
Disco etcd |
|
16 GiB |
Base de datos distribuida para Kubernetes |
DiscoDeDatos |
|
512 GiB (instalación básica) |
Abstracción del almacenamiento en bloque |
2 TiB (instalación completa) |
Te recomendamos no utilizar el disco del sistema operativo para ninguno de los anteriores fines, para garantizar que los procesos reciban la cantidad justa de recursos.
Sin conexión
Los requisitos para la instalación sin conexión son los mismos que para la instalación en línea, excepto para la máquina en la que se realiza la instalación por primera vez, que exige los siguientes requisitos.
Es necesario disponer de espacio adicional para extraer el paquete sin conexión.
Etiqueta de disco |
Partición |
Tamaño |
Propósito |
---|---|---|---|
Disco del clúster |
|
190 GiB |
La carpeta Rancher almacena imágenes y capas |
|
56 GiB |
La carpeta Kubernetes almacena las configuraciones de tiempo de ejecución de Kubernetes, como secrets, configmaps y emptyDir | |
|
20 GiB |
Instalador binario | |
Disco etcd |
|
16 GiB |
Base de datos distribuida para Kubernetes |
DiscoDeDatos |
|
512 GiB (instalación básica) |
Abstracción del almacenamiento en bloque |
2 TiB (instalación completa) | |||
Disco de paquete de UiPath | /uipath | 512 GiB |
Paquete aislado |
Te recomendamos no utilizar el disco del sistema operativo para ninguno de los anteriores fines, para garantizar que los procesos reciban la cantidad justa de recursos.
Los discos de datos y etcd deben ser discos físicos independientes. De esta manera, los datos y los discos etcd están físicamente aislados de otras cargas de trabajo y actividades del clúster, a la vez que se mejoran el rendimiento y la estabilidad del clúster.
Consulte la siguiente sección para obtener detalles sobre cómo utilizar el script de ejemplo para realizar una partición del disco y configurarlo antes de la instalación.
Descargar el script
configureUiPathDisks.sh
para configurar y realizar una partición del disco.
Para obtener instrucciones de descarga, consulta configureUiPathDisks.sh.
Ejecutar el script
configureUiPathDisks.sh
puede utilizarse para los siguientes fines:
- configurar los discos y puntos de instalación para una nueva instalación de clúster de Automation Suite;
- cambiar el tamaño del disco de datos después de la instalación.
Para hacer que el script sea ejecutable, ejecute:
chmod +x ./configureUiPathDisks.sh
chmod +x ./configureUiPathDisks.sh
Para obtener más detalles sobre el uso del script, ejecute:
sudo ./configureUiPathDisks.sh --help
sudo ./configureUiPathDisks.sh --help
***************************************************************************************
Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk
Arguments
-n|--node-type NodeType, Possible values: agent, server. Default to server
-i|--install-type Installation mode, Possible values: online, offline. Default to online
-c|--cluster-disk-name Device to host rancher and kubelet. Ex: /dev/sdb
-e|--etcd-disk-name Device to host etcd, Not required for agent node. Ex: /dev/sdb
-l|--data-disk-name Device to host datadisk, Not required for agent node. Ex: /dev/sdc
-b|--bundle-disk-name Device to host the uipath bundle.
Only required for offline installation on 1st server node
-f|--complete-suite Installing complete product suite or any of these products:
aicenter, apps, taskmining, documentunderstanding.
This will configure the datadisk volume to be 2TiB instead of 512Gi.
-p|--primary-server Is this machine is first server machine? Applicable only for airgap install.
This is the machine on which UiPath AutomationSuite bundle will be installed.
Default to false
-x|--extend-data-disk Extend the datadisk. Either attach new disk or resize the exiting datadisk
-r|--resize Used in conjunction of with --extend-data-disk to resize the exiting volume,
instead of adding new volume
-d|--debug Run in debug
-h|--help Display help
ExampleUsage:
configureUiPathDisks.sh --node-type server --install-type online \
--cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
--data-disk-name /dev/sdd
configureUiPathDisks.sh --data-disk-name /dev/sdh --extend-data-disk
***************************************************************************************
***************************************************************************************
Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk
Arguments
-n|--node-type NodeType, Possible values: agent, server. Default to server
-i|--install-type Installation mode, Possible values: online, offline. Default to online
-c|--cluster-disk-name Device to host rancher and kubelet. Ex: /dev/sdb
-e|--etcd-disk-name Device to host etcd, Not required for agent node. Ex: /dev/sdb
-l|--data-disk-name Device to host datadisk, Not required for agent node. Ex: /dev/sdc
-b|--bundle-disk-name Device to host the uipath bundle.
Only required for offline installation on 1st server node
-f|--complete-suite Installing complete product suite or any of these products:
aicenter, apps, taskmining, documentunderstanding.
This will configure the datadisk volume to be 2TiB instead of 512Gi.
-p|--primary-server Is this machine is first server machine? Applicable only for airgap install.
This is the machine on which UiPath AutomationSuite bundle will be installed.
Default to false
-x|--extend-data-disk Extend the datadisk. Either attach new disk or resize the exiting datadisk
-r|--resize Used in conjunction of with --extend-data-disk to resize the exiting volume,
instead of adding new volume
-d|--debug Run in debug
-h|--help Display help
ExampleUsage:
configureUiPathDisks.sh --node-type server --install-type online \
--cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
--data-disk-name /dev/sdd
configureUiPathDisks.sh --data-disk-name /dev/sdh --extend-data-disk
***************************************************************************************
Configurar el disco para una configuración de producción multinodo preparada para alta disponibilidad
En línea
Nodos de servidor
Para configurar el disco en una configuración de producción multinodo preparada para alta disponibilidad, ejecute el siguiente comando en todas las máquinas del servidor:
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk
Nodos agente
Para configurar el disco en una configuración de producción multinodo preparada para alta disponibilidad, ejecute el siguiente comando en todas las máquinas del agente:
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--node-type agent
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--node-type agent
Sin conexión
Primer nodo de servidor
En una instalación sin conexión, necesitará cargar las imágenes del producto en el registro de Docker. Para ello, se requiere un almacenamiento adicional en forma de disco independiente. Este disco se utilizará para extraer los paquetes de productos y cargar las imágenes en el registro de Docker. Solo debe estar presente en una máquina.
--primary-server
en una de las máquinas del servidor o en la máquina en la que se ejecutará el instalador de fábrica y de servicio.
Para asignar al disco una configuración de producción multinodo sin conexión y preparada para alta disponibilidad, ejecuta el siguiente comando en una de las máquinas del servidor:
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk \
--bundle-disk-name name_of_uipath_bundle_disk \
--primary-server \
--install-type offline
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk \
--bundle-disk-name name_of_uipath_bundle_disk \
--primary-server \
--install-type offline
Nodos adicionales del servidor
--primary-server
y el --bundle-disk-name
.
Para configurar el disco en una configuración de producción multinodo preparada para alta disponibilidad sin conexión, ejecute el siguiente comando en el resto de máquinas del servidor:
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk \
--install-type offline
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk \
--install-type offline
Nodos agente
--primary-server
y el --bundle-disk-name
.
Para configurar el disco en una configuración de producción multinodo preparada para alta disponibilidad sin conexión, ejecute el siguiente comando en el resto de máquinas del agente:
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--node-type agent \
--install-type offline
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--node-type agent \
--install-type offline
Para configurar el disco para objectstore, ejecuta el siguiente comando:
./configureUiPathDisks.sh --ceph-raw-disk-name name_ceph_raw_disk
./configureUiPathDisks.sh --ceph-raw-disk-name name_ceph_raw_disk
-
Un problema conocido de Azure marca incorrectamente el disco de Azure como no SSD. Si Azure es tu proveedor de la nube y quieres configurar el disco del Almacén de objetos, sigue las instrucciones en Resolución de problemas.
-
No se admite el escalado vertical de los discos existentes. Para aumentar el tamaño de tu almacenamiento en el clúster después de la instalación, añade nuevos discos sin formato.
Para ampliar el disco de datos, puede asociar el nuevo disco físico o cambiar el tamaño del disco existente.
Añadir un disco nuevo
Para ampliar el disco de datos utilizando el disco recién asociado, ejecute el siguiente comando en las máquinas del servidor:
./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
--extend-data-disk
./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
--extend-data-disk
Cambiar tamaño del disco existente
Para ampliar el disco de datos cambiando el tamaño del disco existente, ejecute el siguiente comando en las máquinas del servidor:
./configureUiPathDisks.sh --extend-data-disk --resize
./configureUiPathDisks.sh --extend-data-disk --resize
-
Realice los pasos siguientes para validar que
/etc/fstab
está correctamente configurado para gestionar el reinicio del sistema.Nota:Asegúrese de que los puntos de instalación de etcd y datadisk se añaden al archivofstab
.Si tiene una partición de disco independiente para/var/lib/rancher
y/var/lib/kubelet
, entoncesfstab
también debe contener estas dos carpetas. Asegúrese también de incluir la opciónnofail
en esas entradas defstab
para que no afecte al arranque de la máquina virtual en caso de fallos. -
Valide que los discos están correctamente instalados ejecutando el siguiente comando:
mount -afv
mount -afv -
Debe obtener la siguiente respuesta:
/datadisk : already mounted /var/lib/rancher/rke2/server/db : already mounted /var/lib/rancher : already mounted /var/lib/kubelet : already mounted
/datadisk : already mounted /var/lib/rancher/rke2/server/db : already mounted /var/lib/rancher : already mounted /var/lib/kubelet : already mounted
Asegúrese de tener habilitados los siguientes puertos en su firewall para cada origen.
Puerto |
Protocolo |
Origen |
Propósito |
Requisitos |
---|---|---|---|---|
|
TCP |
Servidor de salto o máquina cliente |
Para SSH (instalación, depuración de la gestión del clúster) |
No abra este puerto a Internet. Permitir el acceso a la máquina cliente o al servidor de salto |
|
TCP |
Solo instalación sin conexión: necesaria para el envío de notificaciones del sistema por correo electrónico. | ||
|
TCP |
Todos los nodos de un clúster y el equilibrador de carga |
Para HTTPS (acceso a Automation Suite) |
Este puerto debe tener conectividad de entrada y salida desde todos los nodos del clúster y el equilibrador de carga. |
|
TCP |
Solo instalación sin conexión: necesaria para el envío de notificaciones del sistema por correo electrónico. | ||
|
TCP |
Todos los nodos de un clúster |
Puerto cliente etcd |
No debe exponerse a Internet. El acceso entre nodos debe ser suficiente a través de una dirección IP privada. |
|
TCP |
Todos los nodos de un clúster |
Puerto de pares etcd |
No debe exponerse a Internet. El acceso entre nodos debe ser suficiente a través de una dirección IP privada. |
|
TCP |
Todos los nodos de un clúster |
Se requiere para acceder a la API de Kubernetes mediante HTTPS y para la unión de nodos |
Este puerto debe tener conectividad entrante y saliente de todos los nodos del clúster. |
|
UDP |
Todos los nodos de un clúster |
Se requiere para Flannel (VXLAN) |
No debe exponerse a Internet. El acceso entre nodos debe ser suficiente a través de una dirección IP privada. |
|
TCP |
Todos los nodos de un clúster y el equilibrador de carga |
Se requiere para acceder a la API de Kubernetes mediante HTTPS y para la unión de nodos |
Este puerto debe tener conectividad de entrada y salida desde todos los nodos del clúster y el equilibrador de carga. |
|
TCP |
Todos los nodos de un clúster |
Kubelet o servidor de métricas |
No debe exponerse a Internet. El acceso entre nodos debe ser suficiente a través de una dirección IP privada. |
|
TCP |
Todos los nodos de un clúster |
Puerto NodePort para la comunicación interna entre los nodos de un clúster |
No debe exponerse a Internet. El acceso entre nodos debe ser suficiente a través de una dirección IP privada. |
6443
fuera del límite del clúster es obligatorio si hay una conexión directa a la API de Kerberos.
9345
para descubrir nodos existentes y unirse al clúster en la implementación multinodo. Para mantener en funcionamiento los mecanismos de descubrimiento de alta disponibilidad, recomendamos exponerlo a través del equilibrador de carga con la comprobación de estado.
Asegúrese también de tener conectividad desde todos los nodos al servidor SQL.
No expongas el servidor SQL en uno de los puertos reservados de Istio, ya que puede provocar fallos de conexión.
Si tiene un firewall configurado en la red, asegúrese de que estos puertos están abiertos y se permite el tráfico de acuerdo con los requisitos mencionados anteriormente.
Para configurar un proxy, es necesario realizar pasos de configuración adicionales durante la configuración de tu entorno con los requisitos previos y en la fase de configuración avanzada.
Los pasos siguientes son obligatorios para la configuración del entorno.
Asegúrese de que las siguientes reglas están habilitadas en su grupo de seguridad de red para la red virtual específica.
Origen |
Destination |
Redireccionamiento a través de proxy |
Puerto |
Descripción |
---|---|---|---|---|
Red virtual |
Sql |
No |
Puerto del servidor SQL |
Necesario para el servidor SQL. |
Red virtual |
Load balancer |
No |
|
Se requiere para añadir nuevos nodos al clúster. |
Red virtual |
Clúster (subred) |
No |
Todos los puertos |
Se requiere para la comunicación a través de un rango de IP privado. |
Red virtual |
|
No |
|
Se requiere para iniciar sesión y utilizar el cliente ArgoCD durante la implementación. |
Red virtual |
Servidor Proxy |
Sí |
Todos los puertos |
Se requiere para redirigir el tráfico al servidor proxy. |
Red virtual |
Servidor de nombres |
No |
Todos los puertos |
La mayoría de los servicios en la nube, como Azure y AWS, lo utilizan para obtener los metadatos de la máquina virtual y lo consideran una IP privada. |
Red virtual |
Servidor de metadatos |
No |
Todos los puertos |
La mayoría de los servicios en la nube, como Azure y AWS, utilizan la dirección IP
169.254.169.254 para obtener los metadatos de las máquinas.
|
Al configurar los nodos, es necesario añadir la configuración del proxy a cada nodo que forma parte del clúster. Este paso es necesario para redireccionar el tráfico saliente del nodo a través del servidor proxy.
-
Añada la siguiente configuración en
/etc/environment
:http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>
http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server> -
Añada la siguiente configuración en
/etc/wgetrc
:http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>
http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>Parámetros obligatorios
Descripción
http_proxy
Se utiliza para redirigir las peticiones salientes HTTP del nodo. Debe ser el FQDN y el puerto del servidor proxy.
https_proxy
Se utiliza para redirigir las peticiones salientes HTTPS del nodo. Debe ser el FQDN y el puerto del servidor proxy.
no_proxy
Lista separada por comas de hosts, direcciones IP que no desea enrutar a través del servidor proxy. Debe ser un rango de subred privada, un host de servidor SQL, una dirección de servidor con nombre, una dirección de servidor de metadatos:alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>
.metadata server address
– La mayoría de los servicios en la nube, como Azure y AWS, utilizan la dirección IP169.254.169.254
para obtener los metadatos de la máquina.named server address
– La mayoría de los servicios en la nube, como Azure y AWS, lo utilizan para resolver consultas de DNS.
-
Verifique si la configuración del proxy es correcta ejecutando el siguiente comando:
curl -v $HTTP_PROXY curl -v <fixed_rke_address>:9345
curl -v $HTTP_PROXY curl -v <fixed_rke_address>:9345Importante: una vez que cumplas con los requisitos del servidor proxy, asegúrate de continuar con la configuración del proxy durante la instalación. Sigue los pasos en Opcional: Configurar el servidor proxy para asegurarte de que el servidor proxy está configurado correctamente.
- Configuración del kernel y del sistema operativo
- Configuración de sysctl
- Configuración de fapolicy
- Configuración de noexec y nosuid
- Configurar el disco
- Requisitos del disco
- Utilizar el script para configurar el disco
- Configurar el disco para una configuración de producción multinodo preparada para alta disponibilidad
- Configuración del disco del almacén de objetos
- Ampliar el disco de datos tras la instalación
- Validar instalaciones de disco
- Habilitar puertos
- Opcional: configurar el servidor proxy
- Paso 1: habilitar puertos en la red virtual
- Paso 2: añadir la configuración del proxy a cada nodo