automation-suite
2024.10
false
- Información general
- Requisitos
- Preinstalación
- Preparar la instalación
- Instalar y configurar la malla de servicio
- Descarga de los paquetes de instalación
- Configurar el registro compatible con OCI
- Conceder permisos de instalación
- Instalar y configurar la herramienta GitOps
- Implementar Redis a través de OperatorHub
- Aplicar configuraciones varias
- Ejecutar uipathctl
- Instalación
- Después de la instalación
- Migración y actualización
- Actualizar Automation Suite
- Migrar productos independientes a Automation Suite
- Paso 1: restaurar la base de datos del producto independiente
- Paso 2: actualizar el esquema de la base de datos del producto restaurada
- Paso 3: mover los datos de la organización de Identity de independiente a Automation Suite
- Paso 4: Realizar una copia de seguridad de la base de datos de la plataforma en Automation Suite
- Paso 5: Fusionar organizaciones en Automation Suite
- Paso 6: actualizar las cadenas de conexión del producto migradas
- Paso 7: migrar Orchestrator independiente
- Paso 8: migrar Insights independiente
- Paso 9: eliminar el tenant predeterminado
- Realizar una migración de un solo tenant
- Migrar entre clústeres de Automation Suite
- Supervisión y alertas
- Administración de clústeres
- Configuración específica del producto
- Configurar parámetros de Orchestrator
- Configurar AppSettings
- Configurar el tamaño máximo de la solicitud
- Anular la configuración de almacenamiento a nivel de clúster
- Configurar NLog
- Guardar los registros del robot en Elasticsearch
- Configurar almacenes de credenciales
- Configurar clave de cifrado por tenant
- Limpiar la base de datos de Orchestrator
- Solución de problemas
- La transmisión de registros no funciona en las configuraciones de proxy
- 500 errores y limitación de tasa en solicitudes S3 en ODF
Importante :
Este contenido se ha localizado parcialmente a partir de un sistema de traducción automática.
La localización de contenidos recién publicados puede tardar entre una y dos semanas en estar disponible.

Guía de instalación de Automation Suite en OpenShift
Última actualización 13 de nov. de 2025
El reenvío de registros no funciona en las configuraciones de proxy porque las variables de entorno del proxy no se establecieron en los pods de registro.
-
Establece las variables de entorno
http_proxy,https_proxyyno_proxy. Ejemplo:export http_proxy=http://<proxy>:3128 export https_proxy=http://<proxy>:3128 export no_proxy=<fqdn>,.<fqdn>,10.0.0.0/8,kerberossql.autosuitead.local,kerberospostgres.AUTOSUITEAD.LOCAL,rook-ceph-rgw-rook-ceph.rook-ceph.svc.cluster.local,localhost,127.0.0.1,kubernetes,kubernetes.default,kubernetes.default.svc,kubernetes.default.svc.cluster,kubernetes.default.svc.cluster.local,.svc,.svc.cluster,.svc.cluster.local,.svc.cluster.local.,.uipath.svc.cluster.local,argocd-repo-server,istiod.istio-system.svc,logging-operator-logging-fluentd.logging.svc.cluster.local,.local,.cluster,ai-helper-svc,ai-pkgmanager-svc,ai-deployer-svc,ai-appmanager-svc,ai-trainer-svc,studioweb-backend,studioweb-frontend,studioweb-typecacheexport http_proxy=http://<proxy>:3128 export https_proxy=http://<proxy>:3128 export no_proxy=<fqdn>,.<fqdn>,10.0.0.0/8,kerberossql.autosuitead.local,kerberospostgres.AUTOSUITEAD.LOCAL,rook-ceph-rgw-rook-ceph.rook-ceph.svc.cluster.local,localhost,127.0.0.1,kubernetes,kubernetes.default,kubernetes.default.svc,kubernetes.default.svc.cluster,kubernetes.default.svc.cluster.local,.svc,.svc.cluster,.svc.cluster.local,.svc.cluster.local.,.uipath.svc.cluster.local,argocd-repo-server,istiod.istio-system.svc,logging-operator-logging-fluentd.logging.svc.cluster.local,.local,.cluster,ai-helper-svc,ai-pkgmanager-svc,ai-deployer-svc,ai-appmanager-svc,ai-trainer-svc,studioweb-backend,studioweb-frontend,studioweb-typecache -
Ejecuta el siguiente script que ingiere las variables de entorno en los pods de registro y los reinicia.
#!/bin/bash set -euo pipefail APP_NAME="logging" NAMESPACE="argocd" HTTP_PROXY="${http_proxy:-}" HTTPS_PROXY="${https_proxy:-}" NO_PROXY="${no_proxy:-}" # Create a temporary JSON patch PATCH_FILE=$(mktemp) cat > "$PATCH_FILE" <<EOF { "spec": { "source": { "helm": { "parameters": [ { "name": "logging-operator.env[0].name", "value": "http_proxy" }, { "name": "logging-operator.env[0].value", "value": "${HTTP_PROXY}" }, { "name": "logging-operator.env[1].name", "value": "https_proxy" }, { "name": "logging-operator.env[1].value", "value": "${HTTPS_PROXY}" }, { "name": "logging-operator.env[2].name", "value": "no_proxy" }, { "name": "logging-operator.env[2].value", "value": "${NO_PROXY}" }, { "name": "logging-operator.logging.fluentd.envVars[0].name", "value": "http_proxy" }, { "name": "logging-operator.logging.fluentd.envVars[0].value", "value": "${HTTP_PROXY}" }, { "name": "logging-operator.logging.fluentd.envVars[1].name", "value": "https_proxy" }, { "name": "logging-operator.logging.fluentd.envVars[1].value", "value": "${HTTPS_PROXY}" }, { "name": "logging-operator.logging.fluentd.envVars[2].name", "value": "no_proxy" }, { "name": "logging-operator.logging.fluentd.envVars[2].value", "value": "${NO_PROXY}" }, { "name": "logging-operator.logging.fluentbit.envVars[0].name", "value": "http_proxy" }, { "name": "logging-operator.logging.fluentbit.envVars[0].value", "value": "${HTTP_PROXY}" }, { "name": "logging-operator.logging.fluentbit.envVars[1].name", "value": "https_proxy" }, { "name": "logging-operator.logging.fluentbit.envVars[1].value", "value": "${HTTPS_PROXY}" }, { "name": "logging-operator.logging.fluentbit.envVars[2].name", "value": "no_proxy" }, { "name": "logging-operator.logging.fluentbit.envVars[2].value", "value": "${NO_PROXY}" } ] } } } } EOF # Patch the Argo CD Application kubectl patch application "$APP_NAME" -n "$NAMESPACE" --type merge --patch-file "$PATCH_FILE" # Cleanup rm -f "$PATCH_FILE" echo "Patched Argo CD Application '$APP_NAME' with proxy parameters." echo "Restarting logging pods..." kubectl rollout restart deploy/logging-logging-operator -n logging kubectl rollout restart sts/logging-fluentd -n logging kubectl rollout restart ds/logging-fluentbit -n logging echo "Rollout restart completed"#!/bin/bash set -euo pipefail APP_NAME="logging" NAMESPACE="argocd" HTTP_PROXY="${http_proxy:-}" HTTPS_PROXY="${https_proxy:-}" NO_PROXY="${no_proxy:-}" # Create a temporary JSON patch PATCH_FILE=$(mktemp) cat > "$PATCH_FILE" <<EOF { "spec": { "source": { "helm": { "parameters": [ { "name": "logging-operator.env[0].name", "value": "http_proxy" }, { "name": "logging-operator.env[0].value", "value": "${HTTP_PROXY}" }, { "name": "logging-operator.env[1].name", "value": "https_proxy" }, { "name": "logging-operator.env[1].value", "value": "${HTTPS_PROXY}" }, { "name": "logging-operator.env[2].name", "value": "no_proxy" }, { "name": "logging-operator.env[2].value", "value": "${NO_PROXY}" }, { "name": "logging-operator.logging.fluentd.envVars[0].name", "value": "http_proxy" }, { "name": "logging-operator.logging.fluentd.envVars[0].value", "value": "${HTTP_PROXY}" }, { "name": "logging-operator.logging.fluentd.envVars[1].name", "value": "https_proxy" }, { "name": "logging-operator.logging.fluentd.envVars[1].value", "value": "${HTTPS_PROXY}" }, { "name": "logging-operator.logging.fluentd.envVars[2].name", "value": "no_proxy" }, { "name": "logging-operator.logging.fluentd.envVars[2].value", "value": "${NO_PROXY}" }, { "name": "logging-operator.logging.fluentbit.envVars[0].name", "value": "http_proxy" }, { "name": "logging-operator.logging.fluentbit.envVars[0].value", "value": "${HTTP_PROXY}" }, { "name": "logging-operator.logging.fluentbit.envVars[1].name", "value": "https_proxy" }, { "name": "logging-operator.logging.fluentbit.envVars[1].value", "value": "${HTTPS_PROXY}" }, { "name": "logging-operator.logging.fluentbit.envVars[2].name", "value": "no_proxy" }, { "name": "logging-operator.logging.fluentbit.envVars[2].value", "value": "${NO_PROXY}" } ] } } } } EOF # Patch the Argo CD Application kubectl patch application "$APP_NAME" -n "$NAMESPACE" --type merge --patch-file "$PATCH_FILE" # Cleanup rm -f "$PATCH_FILE" echo "Patched Argo CD Application '$APP_NAME' with proxy parameters." echo "Restarting logging pods..." kubectl rollout restart deploy/logging-logging-operator -n logging kubectl rollout restart sts/logging-fluentd -n logging kubectl rollout restart ds/logging-fluentbit -n logging echo "Rollout restart completed"