- Información general
- Requisitos
- Instalación
- Preguntas y respuestas: plantillas de implementación
- Descarga de los paquetes de instalación
- parámetros de install-uipath.sh
- Habilitar el complemento de alta disponibilidad (HAA) de Redis para el clúster
- Archivo de configuración de Document Understanding
- Inclusión de un nodo agente dedicado compatible con GPU
- Conexión de la aplicación Task Mining
- Añadir un nodo agente dedicado a Task Mining
- Después de la instalación
- Administración de clústeres
- Gestionar los productos
- Gestionar el clúster en ArgoCD
- Configurar el servidor NFS externo
- Automatizado: Habilitar la copia de seguridad en el clúster
- Automatizado: Deshabilitar la copia de seguridad en el clúster
- Automatizado, en línea: restaurar el clúster
- Automatizado, sin conexión: restaurar el clúster
- Manual: Habilitar la copia de seguridad en el clúster
- Manual : Deshabilitar la copia de seguridad en el clúster
- Manual, en línea: restaurar el clúster
- Manual, sin conexión: restaurar el clúster
- Configuración adicional
- Migrating objectstore from persistent volume to raw disks
- Supervisión y alertas
- Migración y actualización
- Opciones de migración
- Paso 1: Mover los datos de la organización de identidad de independiente a Automation Suite
- Paso 2: restaurar la base de datos del producto independiente
- Paso 3: Realizar una copia de seguridad de la base de datos de la plataforma en Automation Suite
- Paso 4: Fusionar organizaciones en Automation Suite
- Paso 5: actualizar las cadenas de conexión de los productos migrados
- Step 6: Migrating standalone Insights
- Paso 7: eliminar el tenant predeterminado
- B) Migración de tenant único
- Configuración específica del producto
- Buenas prácticas y mantenimiento
- Solución de problemas
- Cómo solucionar los problemas de los servicios durante la instalación
- Cómo desinstalar el clúster
- Cómo limpiar los artefactos sin conexión para mejorar el espacio en disco
- Cómo borrar datos de Redis
- Cómo habilitar el registro de Istio
- Cómo limpiar manualmente los registros
- Cómo limpiar los registros antiguos almacenados en el paquete sf-logs
- Cómo deshabilitar los registros de transmisión para AI Center
- Cómo depurar instalaciones de Automation Suite fallidas
- Cómo eliminar imágenes del instalador antiguo después de la actualización
- Cómo limpiar automáticamente las instantáneas de Longhorn
- Cómo deshabilitar la descarga de la suma de comprobación de NIC
- No se puede ejecutar una instalación sin conexión en el sistema operativo RHEL 8.4
- Error al descargar el paquete
- La instalación sin conexión falla porque falta un binario
- Problema de certificado en la instalación sin conexión
- First installation fails during Longhorn setup
- Error de validación de la cadena de conexión SQL
- Error en la comprobación de requisitos previos para el módulo iscsid de selinux
- Azure disk not marked as SSD
- Fallo tras la actualización del certificado
- Automation Suite not working after OS upgrade
- Automation Suite requiere que Backlog_wait_time se establezca 1
- El volumen no se puede montar porque no está listo para las cargas de trabajo
- RKE2 falla durante la instalación y la actualización
- Fallo al cargar o descargar datos en el almacén de objetos
- PVC resize does not heal Ceph
- Fallo en el redimensionamiento de PVC de objectstore
- Rook Ceph o Looker pod atascados en estado Init
- Error de archivo adjunto de volumen de StatefulSet
- Fallo en la creación de volúmenes persistentes
- Parche de reclamación de almacenamiento
- La copia de seguridad falló debido al error
- Todas las réplicas de Longhorn son defectuosas
- Establecer un intervalo de tiempo de espera para los portales de gestión
- Actualizar las conexiones del directorio subyacente
- No se puede iniciar la sesión después de la migración
- Kinit: no se puede encontrar el KDC para el dominio <AD> mientras se obtienen las credenciales iniciales
- kinit: keytab no contiene claves adecuadas para *** mientras se obtienen las credenciales iniciales
- La operación GSSAPI ha fallado con un error: se ha suministrado un código de estado no válido (las credenciales del cliente han sido revocadas).
- Alarma recibida por trabajo de actualización Kerberos-tgt fallido
- Proveedor SSPI: servidor no encontrado en la base de datos de Kerberos
- Error de inicio de sesión para el usuario <ADDOMAIN> <aduser>. Razón: la cuenta está deshabilitada.
- ArgoCD login failed
- Fallo en la obtención de la imagen de Sandbox
- Los pods no se muestran en la interfaz de usuario de ArgoCD
- Fallo de la sonda Redis
- El servidor RKE2 no se inicia
- Secreto no encontrado en el espacio de nombres UiPath
- Después de la instalación inicial, la aplicación ArgoCD pasó al estado de progreso
- Pods MongoDB en CrashLoopBackOff o pendientes de aprovisionamiento de PVC tras su eliminación
- Inconsistencia inesperada, ejecuta fsck manualmente
- MongoDB o aplicaciones empresariales degradadas después de la restauración del clúster
- Falta el operador de Self-heal y el repositorio de Sf-k8-utils
- Servicios en mal estado después de la restauración o reversión del clúster
- El pod de RabbitMQ se atasca en CrashLoopBackOff
- Prometheus en estado CrashloopBackoff con error de falta de memoria (OOM)
- Faltan métricas de Ceph-rook en los paneles de supervisión
- Document Understanding no se encuentra en la barra izquierda de Automation Suite
- Estado fallido al crear una sesión de etiquetado de datos
- Estado fallido al intentar implementar una habilidad ML
- El trabajo de migración falla en ArgoCD
- El reconocimiento de la escritura manual con el extractor de formularios inteligente no funciona
- Uso de la herramienta de diagnóstico de Automation Suite
- Uso de la herramienta del paquete de soporte de Automation Suite
- Explorar registros
Configurar Elasticsearch y Kibana
La pila EFK (Elasticsearch, Fluentd y Kibana) es una solución centralizada de registros que permite buscar, analizar y visualizar los datos de registro. Fluentd recopila y envía los registros a Elasticsearch, y Kibana los recupera y permite visualizar y analizar los datos.
Automation Suite es compatible con la versión 7.x de Elasticsearch. También se admite la versión 8.x, pero solo para configuraciones avanzadas.
Si su instancia de Elasticsearch requiere credenciales, cree un secreto con su contraseña en el clúster.
kubectl -n cattle-logging-system create secret generic elastic-user --from-literal=password=<password>
kubectl -n cattle-logging-system create secret generic elastic-user --from-literal=password=<password>
Ejecuta el siguiente comando para hacer una transferencia de ClusterOutput a Elasticsearch. Reemplace los siguientes atributos por los de la configuración de Elasticsearch:
<elasticsearch host>
: el host de red de su instancia de Elasticsearch<elasticsearch port>
: el puerto de Elasticsearch para la comunicación del cliente<secret key>
: el secreto con la contraseña de Elasticsearch- Valor
timekey
enelasticsearch.buffer
: la frecuencia de salida; es decir, con qué frecuencia desea insertar los registros -
elasticsearch.scheme
: el esquema de dirección URL; los valores válidos sonhttps
ohttp
kubectl -n cattle-logging-system apply -f - <<"EOF" apiVersion: logging.banzaicloud.io/v1beta1 kind: ClusterOutput metadata: name: es-output spec: elasticsearch: host: <elasticsearch host> port: <elasticsearch port> scheme: <http or https> ssl_verify: false ssl_version: TLSv1_2 user: elastic password: valueFrom: secretKeyRef: name: elastic-user key: <secret key> buffer: timekey: 10m timekey_wait: 30s timekey_use_utc: true EOF
kubectl -n cattle-logging-system apply -f - <<"EOF" apiVersion: logging.banzaicloud.io/v1beta1 kind: ClusterOutput metadata: name: es-output spec: elasticsearch: host: <elasticsearch host> port: <elasticsearch port> scheme: <http or https> ssl_verify: false ssl_version: TLSv1_2 user: elastic password: valueFrom: secretKeyRef: name: elastic-user key: <secret key> buffer: timekey: 10m timekey_wait: 30s timekey_use_utc: true EOF
Ejecuta el siguiente comando para llevar a cabo el proceso ClusterFlow en FluentD:
kubectl -n cattle-logging-system apply -f - <<"EOF"
apiVersion: logging.banzaicloud.io/v1beta1
kind: ClusterFlow
metadata:
name: es-flow
spec:
filters:
- tag_normaliser:
format: ${namespace_name}/${pod_name}.${container_name}
globalOutputRefs:
- es-output
match:
- select:
container_names:
- istio-proxy
namespaces:
- istio-system
- exclude:
container_names:
- istio-proxy
- istio-init
- aicenter-hit-count-update
- exclude:
namespaces:
- fleet-system
- cattle-gatekeeper-system
- default
- exclude:
labels:
app: csi-snapshotter
- exclude:
labels:
longhorn.io/job-task: backup
- exclude:
labels:
app: csi-resizer
- select: {}
EOF
kubectl -n cattle-logging-system apply -f - <<"EOF"
apiVersion: logging.banzaicloud.io/v1beta1
kind: ClusterFlow
metadata:
name: es-flow
spec:
filters:
- tag_normaliser:
format: ${namespace_name}/${pod_name}.${container_name}
globalOutputRefs:
- es-output
match:
- select:
container_names:
- istio-proxy
namespaces:
- istio-system
- exclude:
container_names:
- istio-proxy
- istio-init
- aicenter-hit-count-update
- exclude:
namespaces:
- fleet-system
- cattle-gatekeeper-system
- default
- exclude:
labels:
app: csi-snapshotter
- exclude:
labels:
longhorn.io/job-task: backup
- exclude:
labels:
app: csi-resizer
- select: {}
EOF
ClusterOutput
.