automation-suite
2024.10
false
Importante :
Este contenido se ha localizado parcialmente a partir de un sistema de traducción automática. La localización de contenidos recién publicados puede tardar entre una y dos semanas en estar disponible.
UiPath logo, featuring letters U and I in white

Guía de instalación de Automation Suite en EKS/AKS

Última actualización 13 de nov. de 2025

Configuring input.json

El archivo input.json te permite configurar los productos de UiPath® que quieres implementar, los parámetros, configuración y preferencias aplicados a los productos seleccionados y la configuración de tu infraestructura en la nube. Debes actualizar este archivo para cambiar los valores predeterminados y utilizar cualquier configuración avanzada para tu clúster.
Nota:

Algunos productos pueden tener dependencias. Para obtener más información, consulta Productos de Automation Suite.

Para editar input.json, puede usar su editor de texto favorito en su máquina cliente.
La siguiente tabla describe los principales parámetros input.json que debes actualizar para configurar Automation Suite correctamente. Para ver un ejemplo de configuración, consulta Ejemplo de input.json de AKS o Ejemplo de input.json de EKS.

Parámetros generales

Descripción

kubernetes_distribution

Especifica qué distribución de Kubernetes utilizas. Puede ser aks o eks.

install_type

Determina si el clúster se implementa en línea o sin conexión. Si no se especifica, el clúster se implementa en modo en línea. Para implementar el clúster en modo sin conexión, debes establecer explícitamente el valor del parámetro install_type en offline.
Valores posibles: online o offline
Valor predeterminado:online

registries

URL para extraer las imágenes de docker y gráficos de helm para los productos de UiPath® y Automation Suite.

registry.uipath.com

istioMinProtocolVersion

La versión mínima del protocolo TLS aceptada por Istio para comunicaciones seguras. Se puede establecer como TLSV1_2 o TLSV1_3.

fqdn

El punto final del equilibrador de carga para Automation Suite

admin_username

El nombre de usuario que te gustaría establecer como administrador de la organización anfitriona.

admin_password

La clave de administrador del host que se establecerá.

profile

Establece el perfil de la instalación. Los perfiles disponibles son:

  • lite: perfil de modo lite.
  • ha: perfil de producción multinodo preparada para alta disponibilidad.

Para obtener más información sobre la gestión de perfiles, consulta Configuración de perfiles.

telemetry_optout

true o false: se utiliza para cancelar el envío de telemetría a UiPath®. Está establecido en false de manera predeterminada.
Si desea cancelar la suscripción, establezca el valor en true.

fips_enabled_nodes

Indica si quieres habilitar FIPS 140-2 en los nodos en los que planeas instalar Automation Suite. Los valores posibles son true y false.
storage_class

Especifique la clase de almacenamiento que se utilizará para el aprovisionamiento de PV. Esta clase de almacenamiento debe admitir varias réplicas para una alta disponibilidad óptima y poseer capacidades de copia de seguridad.

Para obtener más información, consulta la sección Almacenamiento en bloque .

storage_class_single_replica

Proporcione la clase de almacenamiento que se utilizará para el aprovisionamiento de PV. Esta clase de almacenamiento puede tener una única réplica para los componentes que no requieren alta disponibilidad. La clase de almacenamiento no puede tener capacidades de copia de seguridad.

Para obtener más información, consulta la sección Almacenamiento de archivos .

El valor storage_class_single_replica puede ser el mismo que el valor storage_class .
exclude_components

Utiliza este parámetro para evitar que se instalen componentes no esenciales.

Para obtener más información, consulta Trae tus propios componentes.

namespace

Especifique el espacio de nombres donde desea instalar Automation Suite.

Para obtener más información, consulta Configuración de espacio de nombres personalizado.

argocd.application_namespace

El espacio de nombres de la aplicación que planeas instalar. Idealmente, debería ser el mismo que el espacio de nombres en el que planeas instalar Automation Suite.

argocd.project

El proyecto ArgoCD necesario para implementar Automation Suite. Esto solo es necesario si quieres utilizar la instancia de ArgoCD compartida o global en lugar de una instancia de ArgoCD dedicada.

Configuración del perfil

Puedes elegir entre los siguientes modos de perfil al instalar Automation Suite:

  • Perfil de alta disponibilidad configurable (modo lite)

  • Perfil de alta disponibilidad estándar (modo HA)

Solo en el modo lite puedes cambiar productos específicos a alta disponibilidad (HA). Esta flexibilidad te permite comenzar con cargas de trabajo no críticas y tener la libertad de cambiar fácilmente al modo HA al incorporar las críticas.

Para habilitar la alta disponibilidad (HA) para un producto, debes modificar el archivo input.json . En concreto, debes cambiar el parámetro profile a ha para los productos que quieres que sean de alta disponibilidad:
....
  "automation_ops": {
    "enabled": true,
    "profile": "ha" // flag for turning on high availability
  },
  "action_center": {
    "enabled": true,
    "profile": "lite"
  },
  ...  ....
  "automation_ops": {
    "enabled": true,
    "profile": "ha" // flag for turning on high availability
  },
  "action_center": {
    "enabled": true,
    "profile": "lite"
  },
  ...

Para cambiar del modo básico al modo HA, sigue los siguientes pasos:

  1. Asegúrate de tener suficientes capacidades de infraestructura para cambiar a HA estándar a nivel de plataforma. De forma predeterminada, el modo básico establece que cada producto tenga una réplica con el escalado horizontal del pod habilitado.
  2. Edita el archivo de configuración input.jsony cambia el parámetro profile para los productos de destino.
  3. Para aplicar los cambios, ejecuta el siguiente comando:
    uipathctl manifest apply uipathctl manifest apply

Productos de UiPath®

Puedes habilitar y deshabilitar productos en Automation Suite en el momento de la instalación y en cualquier momento posterior a la instalación. Para obtener más información sobre la configuración de cada producto, consulta Gestionar productos.

Nota:

Dependiendo de tu selección de productos, es posible que algunas configuraciones no estén disponibles. Por ejemplo, Insights y Task Mining no admiten actualmente la configuración de autenticación de Microsoft Entra ID (anteriormente Azure Active Directory) para acceder a SQL, almacenamiento y otros recursos compatibles con Microsoft Entra.

Ejemplo de Orchestrator:

"orchestrator": {
  "enabled": true,
  "external_object_storage": {
    "bucket_name": "uipath-as-orchestrator"
  },
  "testautomation": {
    "enabled": true
  },
  "updateserver": {
    "enabled": true
  }"orchestrator": {
  "enabled": true,
  "external_object_storage": {
    "bucket_name": "uipath-as-orchestrator"
  },
  "testautomation": {
    "enabled": true
  },
  "updateserver": {
    "enabled": true
  }

Traiga sus propios componentes

Automation Suite te permite traer tus propias políticas de Gatekeeper y OPA, Cert Manager, Istio, supervisión, componentes de registro y más. Si decides excluir estos componentes, asegúrate de que estén disponibles en tu clúster antes de instalar Automation Suite.

El siguiente ejemplo muestra una lista de componentes excluidos. Puede eliminar los componentes que desea que Automation Suite aprovisione.

"exclude_components": [
        "alerts",
        "auth",
        "istio",
        "cert-manager",
        "logging",
        "monitoring",
        "gatekeeper",
        "network-policies",
        "velero"
  ]   "exclude_components": [
        "alerts",
        "auth",
        "istio",
        "cert-manager",
        "logging",
        "monitoring",
        "gatekeeper",
        "network-policies",
        "velero"
  ] 

Excluir Istio

Si traes tu propio componente de Istio, asegúrate de incluir las etiquetas gateway_selector de tu puerta de enlace de Istio en el archivo input.json . Para obtener más información, consulta Ejemplo de AKS input.json o Ejemplo de EKS input.json.

Para encontrar la etiqueta del selector de puerta de enlace, realiza los siguientes pasos:

  1. Enumera todos los pods en el espacio de nombres <istio-system> ejecutando el comando kubectl get pods -n <istio-system> .
  2. Encuentra el que se adapte a tu implementación de la puerta de enlace de Istio.

Nota: si planeas instalar el complemento WASM tú mismo y quieres evitar proporcionar al instalador de Automation Suite acceso de escritura al espacio de nombres <istio-system> , debes añadir el componente istio-configure a la lista exclude_components .

Excluir Cert Manager

Si eliges traer tu propio Cert Manager y tu certificado TLS lo emite una CA privada o no pública, debes incluir manualmente tanto el certificado de la hoja como los certificados de la CA intermedios en el archivo de certificado TLS. En el caso de las CA públicas, los sistemas cliente confían automáticamente en ellas, y no se requiere ninguna otra acción adicional por tu parte.

Configuración de certificados

Si no se proporciona un certificado en el momento de la instalación, el instalador crea certificados y los configura en el clúster.

Nota:

Los certificados pueden crearse en el momento de la instalación solo si concedes privilegios de administrador al instalador de Automation Suite durante la instalación. Si no puedes conceder privilegios de administrador al instalador, debes crear y gestionar los certificados tú mismo.

Para más detalles sobre cómo obtener un certificado, consulta Gestionar los certificados.

Nota:
Asegúrate de especificar la ruta absoluta para los archivos de certificado. Ejecuta pwd para obtener la ruta del directorio donde se colocan los archivos y añade el nombre del archivo del certificado al input.json .

Parámetro

Descripción

server_certificate.ca_cert_file

Ruta absoluta al certificado de Autoridad de certificación (AC). Esta AC es la autoridad que firma el certificado TLS. Un paquete de CA debe contener solo los certificados de cadena utilizados para firmar el certificado TLS. El límite de la cadena es de nueve certificados.

Si utilizas un certificado autofirmado, debes especificar la ruta a rootCA.crt, que creaste previamente. Déjalo en blanco si quieres que lo genere el instalador.

server_certificate.tls_cert_file

Ruta absoluta al certificado TLS (server.crt es el certificado autofirmado). Déjalo en blanco si quieres que lo genere el instalador.
Nota: si proporcionas el certificado tú mismo, el archivo server.crt debe contener toda la cadena, como se muestra en el siguiente ejemplo:
-----server cert-----
-----root ca chain----------server cert-----
-----root ca chain-----

server_certificate.tls_key_file

Ruta absoluta a la clave de certificado (server.key es el certificado autofirmado). Déjalo en blanco si quieres que lo genere el instalador.

identity_certificate.token_signing_cert_file

Ruta absoluta al certificado de firma del token de identidad utilizado para firmar tokens (identity.pfx es el certificado autofirmado). Déjelo en blanco si desea que el instalador genere un certificado de identidad utilizando el certificado del servidor.

identity_certificate.token_signing_cert_pass

Contraseña de texto sin formato establecida al exportar el certificado de firma del token de identidad.

additional_ca_certs

Ruta absoluta al archivo que contiene los certificados AC adicionales que desea que sean de confianza para todos los servicios que se ejecutan como parte de Automation Suite. Todos los certificados del archivo deben tener un formato PEM válido.

Por ejemplo, debe proporcionar el archivo que contiene el certificado AC del servidor SQL si el certificado no ha sido emitido por una autoridad de certificación pública.

Requisitos previos de infraestructura

Debe proporcionar detalles de configuración de los requisitos previos que haya configurado en Azure o AWS. Para conocer los requisitos del parámetro input.json , consulta las siguientes secciones de requisitos previos:

Configuración del almacén de objetos externo

Configuración general

Automation Suite le permite traer su propio proveedor de almacenamiento externo. Puede elegir entre los siguientes proveedores de almacenamiento:

  • Azure
  • AWS
  • Compatible con S3

Puedes configurar el almacenamiento de objetos externos de una de las siguientes formas:

  • durante la instalación;
  • después de la instalación, utilizando el archivo input.json .
Nota:
  • Para que Automation Suite funcione correctamente al utilizar URL prefirmadas, debes asegurarte de que tu almacén de objetos externo sea accesible desde el clúster de Automation Suite, los navegadores y todas tus máquinas, incluidas las estaciones de trabajo y las máquinas robot.
  • El cifrado del lado del servidor con el servicio de gestión de claves (SSE-KMS) solo puede habilitarse en los depósitos de Automation Suite implementados en cualquier región creada después del 30 de enero de 2014.

    La funcionalidad SSE-KMS requiere API SignV4 puras. Las regiones creadas antes del 30 de enero de 2014 no utilizan API SignV4 puras debido a la compatibilidad con versiones anteriores de SignV2. Por lo tanto, SSE-KMS solo es funcional en las regiones que utilizan SignV4 para la comunicación. Para averiguar cuándo se aprovisionaron las diversas regiones, consulta la documentación de AWS.

Si utilizas un Punto final privado para acceder al contenedor, debes añadir el parámetro fqdn en el archivo input.jsony especificar el Punto final privado como valor.
La siguiente tabla enumera los parámetros input.jsonque puedes utilizar para configurar cada proveedor de almacenamiento de objetos externo:

Parámetro

Azure

AWS

Compatible con S3

Descripción

external_object_storage.enabled

available

available

available

Especifique si le gustaría traer su propio almacén de objetos. Valores posibles: true y false.

external_object_storage.create_bucket

available

available

available

Especifique si desea aprovisionar el depósito. Valores posibles: true y false.

external_object_storage.storage_type

available

available

available

Especifica el proveedor de almacenamiento que deseas configurar. El valor distingue entre mayúsculas y minúsculas. Valores posibles: azure y s3.
Nota: muchos almacenes de objetos de S3 requieren que el CORS se configure para todo el tráfico del clúster de Automation Suite. Debe configurar la política de CORS en el nivel del almacén de objetos para permitir el FQDN del clúster.

external_object_storage.fqdn

No disponible

available

available

Especifique el FQDN del servidor S3. Obligatorio en el caso de la instancia de AWS y el perfil que no es de instancia.

external_object_storage.port

No disponible

available

available

Especifique el puerto S3. Obligatorio en el caso de la instancia de AWS y el perfil que no es de instancia.

external_object_storage.region

No disponible

available

available

Especifica la región de AWS donde se alojan los depósitos. Obligatorio en el caso de la instancia de AWS y el perfil que no es de instancia.

external_object_storage.access_key

No disponible

available

available

Especifique la clave de acceso para la cuenta S3. Solo se requiere en el caso del perfil que no es de instancia de AWS.

external_object_storage.secret_key

No disponible

available

available

Especifique la clave secreta de la cuenta de S3. Solo es necesario en el caso del perfil de AWS que no es de instancia.

external_object_storage.use_instance_profile

No disponible

available

available

Especifica si quieres utilizar un perfil de instancia. Un perfil de instancia de AWS Identity and Access Management (IAM) otorga acceso seguro a los recursos de AWS para las aplicaciones o servicios que se ejecutan en instancias de Amazon Elastic Compute Cloud (EC2). Si optas por AWS S3, un perfil de instancia permite que una instancia EC2 interactúe con los depósitos de S3 sin la necesidad de que se almacenen en la instancia las credenciales de AWS explícitas (como las claves de acceso).

external_object_storage.bucket_name_prefix 1

No disponible

available

available

Indique el prefijo de los nombres de los depósitos. Opcional en el caso del perfil de AWS que no es de instancia.

external_object_storage.bucket_name_suffix 2

No disponible

available

available

Indique el sufijo de los nombres de depósito. Opcional en el caso del perfil sin instancia de AWS.

external_object_storage.account_key

available

No disponible

No disponible

Especifique la clave de la cuenta de Azure.

external_object_storage.account_name

available

No disponible

No disponible

Especifique el nombre de la cuenta de Azure.

external_object_storage.azure_fqdn_suffix

available

No disponible

No disponible

Especifique el sufijo de Azure FQDN. Parámetro opcional.

1 Si tienes previsto deshabilitar el acceso a URL prefirmadas, ten en cuenta que esta configuración no es compatible con Task Mining y las siguientes actividades que cargan o recuperan datos del almacén de objetos:

2, 3 Al configurar el almacenamiento de objetos externo, debes seguir las reglas y convenciones de nomenclatura de tu proveedor tanto para bucket_name_prefix como para bucket_name_suffix. Además, el sufijo y el prefijo deben tener una longitud combinada de no más de 25 caracteres, y no debes terminar el prefijo o comenzar el sufijo con un guion (-), ya que ya añadimos el carácter automáticamente.

Para garantizar una comunicación segura y compatible con Automation Suite, tu almacén de objetos compatible con S3 debe admitir uno o más de los siguientes conjuntos de cifrado TLS seguros:

  • TLS 1.3:
    • TLS_AES_128_GCM_SHA256
    • TLS_AES_256_GCM_SHA384
    • TLS_CHACHA20_POLY1305_SHA256
  • TLS 1.2:
    • TLS_ECDHE_ECDSA_WITH_AES_128_CBC_SHA
    • TLS_ECDHE_ECDSA_WITH_AES_256_CBC_SHA
    • TLS_ECDHE_RSA_WITH_AES_128_CBC_SHA
    • TLS_ECDHE_RSA_WITH_AES_256_CBC_SHA
    • TLS_ECDHE_ECDSA_WITH_AES_128_GCM_SHA256
    • TLS_ECDHE_ECDSA_WITH_AES_256_GCM_SHA384
    • TLS_ECDHE_RSA_WITH_AES_128_GCM_SHA256
    • TLS_ECDHE_RSA_WITH_AES_256_GCM_SHA384
    • TLS_ECDHE_RSA_WITH_CHACHA20_POLY1305_SHA256
    • TLS_ECDHE_ECDSA_WITH_CHACHA20_POLY1305_SHA256
Nota: La lista de conjuntos de cifrado compatibles puede evolucionar con el tiempo para alinearse con las mejores prácticas de seguridad y las actualizaciones en la biblioteca criptográfica de Go. Consulta la documentación de Go más reciente para ver la lista actual.

Configuración específica del producto

Puedes utilizar los parámetros descritos en la sección Configuración general para actualizar la configuración general de Automation Suite. Esto significa que todos los productos instalados compartirían la misma configuración. Si desea configurar uno o más productos de manera diferente, puede anular la configuración general. Solo tienes que especificar los productos para los que quieres configurar el almacenamiento de objetos externos de forma diferente y usar los mismos parámetros para definir tu configuración. Tenga en cuenta que todos los demás productos instalados continuarán heredando la configuración general.

El siguiente ejemplo muestra cómo anular la configuración general de Orchestrator:

"external_object_storage": {
  "enabled": false, // <true/false>
  "create_bucket": true, // <true/false>
  "storage_type": "s3", // <s3,azure,aws>
  "fqdn": "",  // <needed in the case of aws instance and non-instance profile>
  "port": 443, // <needed in the case of aws instance and non-instance profile>
  "region": "", 
  "access_key": "", // <needed in the case of aws non instance profile>
  "secret_key": "", // <needed in the case of aws non instance profile>
  "bucket_name_prefix": "",
  "bucket_name_suffix": "",
  "account_key": "",
  "account_name": "",
  "azure_fqdn_suffix": "core.windows.net",
},

"orchestrator": {
  "external_object_storage": {
    "enabled": false, // <true/false>
    "create_bucket": true, // <true/false>
    "storage_type": "s3", // <s3,azure>
    "fqdn": "",  // <needed in the case of aws instance and non-instance profile>
    "port": 443, // <needed in the case of aws instance and non-instance profile>
    "region": "", 
    "access_key": "", // <needed in case of aws non instance profile>
    "secret_key": "", // <needed in case of aws non instance profile>
    "bucket_name_prefix": "",
    "bucket_name_suffix": "",
    "account_key": "",
    "account_name": "",
    "azure_fqdn_suffix": "core.windows.net",
  }
}"external_object_storage": {
  "enabled": false, // <true/false>
  "create_bucket": true, // <true/false>
  "storage_type": "s3", // <s3,azure,aws>
  "fqdn": "",  // <needed in the case of aws instance and non-instance profile>
  "port": 443, // <needed in the case of aws instance and non-instance profile>
  "region": "", 
  "access_key": "", // <needed in the case of aws non instance profile>
  "secret_key": "", // <needed in the case of aws non instance profile>
  "bucket_name_prefix": "",
  "bucket_name_suffix": "",
  "account_key": "",
  "account_name": "",
  "azure_fqdn_suffix": "core.windows.net",
},

"orchestrator": {
  "external_object_storage": {
    "enabled": false, // <true/false>
    "create_bucket": true, // <true/false>
    "storage_type": "s3", // <s3,azure>
    "fqdn": "",  // <needed in the case of aws instance and non-instance profile>
    "port": 443, // <needed in the case of aws instance and non-instance profile>
    "region": "", 
    "access_key": "", // <needed in case of aws non instance profile>
    "secret_key": "", // <needed in case of aws non instance profile>
    "bucket_name_prefix": "",
    "bucket_name_suffix": "",
    "account_key": "",
    "account_name": "",
    "azure_fqdn_suffix": "core.windows.net",
  }
}

Rotating the blob storage credentials for Process Mining

Para rotar las credenciales de almacenamiento de blobs para Process Mining en Automation Suite, los secretos almacenados deben actualizarse con las nuevas credenciales. Consulta Rotación de credenciales de almacenamiento de blobs.

Configuración de URL prefirmada

Puedes utilizar el marcador disable_presigned_url para especificar si te gustaría deshabilitar el acceso a la URL prefirmada en el nivel global. De forma predeterminada, las URL prefirmadas están habilitadas para toda la plataforma. Los posibles valores son: true y false.
{
  "disable_presigned_url" : true
}{
  "disable_presigned_url" : true
}
Nota:
  • Solo puedes cambiar el valor predeterminado de este parámetro en las nuevas instalaciones. La operación es irreversible y no se aplica a un clúster existente.

  • Puedes aplicar esta configuración solo a toda la plataforma. No puedes anular la configuración global en el nivel de producto.

Configuración de registro externo compatible con OCI

Para configurar un registro externo compatible con OCI, actualiza los siguientes parámetros en el archivo input.json :

Claves

Valor

registries.docker.url

Valor predeterminado:registry.uipath.com

La URL o FQDN del registro que Automation Suite utilizará para alojar las imágenes del contenedor.

registries.docker.username

registries.docker.password

Información de autenticación que se utilizará para extraer las imágenes de Docker del registro.

Si uno de los valores se encuentra en el archivo de entrada, debes proporcionar ambos al configurar el registro externo.

registries.docker.pull_secret_value

El secreto de extracción del registro.

registries.helm.url

Valor predeterminado:registry.uipath.com

La URL o FQDN del registro que Automation Suite utilizará para alojar el gráfico de Helm del servicio.

registries.helm.username

registries.helm.password

Información de autenticación que se utilizará para extraer diagramas de Helm del registro.

Si uno de los valores se encuentra en el archivo de entrada, debes proporcionar ambos al configurar el registro externo.

registry_ca_cert

La ubicación del archivo CA correspondiente al certificado configurado para el registro.

Si el registro está firmado por una autoridad de certificación privada alojada en tus instalaciones, debes proporcionarlo para establecer la confianza.

Nota:
Puedes utilizar diferentes métodos para generar la versión codificada de pull_secret_value, incluido el que utiliza Docker. Para obtener más información, consulta .

La siguiente muestra de configuración muestra una configuración de registro típica compatible con OCI:

{
    "registries": {
        "docker": {
            "url": "registry.domain.io",
            "username": "username",
            "password": "password", 
            "pull_secret_value": "pull-secret-value"
        },
        "helm": {
            "url": "registry.domain.io",
            "username": "username",
            "password": "password"
        },
        "trust": {
            "enabled": true,
            "public_key": "LS0tLS1CRUdJTiBQVUJMSUMgS0VZLS0tLS0KTUZrd0V3WUhLb1pJemowQ0FRWUlLb1pJemowREFRY0RRZ0FFNE4vSzNzK2VXUTJHU3NnTTJNcUhsdEplVHlqRQp1UC9sd0dNTnNNUjhUZTI2Ui9TTlVqSVpIdnJKcEx3YmpDc0ZlZUI3L0xZaFFsQzlRdUU1WFhITDZ3PT0KLS0tLS1FTkQgUFVCTElDIEtFWS0tLS0tCg==",
            "detection_mode": false
        }
    },
    "registry_ca_cert": "/etc/pki/ca-trust/extracted/ca-bundle.trust.crt"
}{
    "registries": {
        "docker": {
            "url": "registry.domain.io",
            "username": "username",
            "password": "password", 
            "pull_secret_value": "pull-secret-value"
        },
        "helm": {
            "url": "registry.domain.io",
            "username": "username",
            "password": "password"
        },
        "trust": {
            "enabled": true,
            "public_key": "LS0tLS1CRUdJTiBQVUJMSUMgS0VZLS0tLS0KTUZrd0V3WUhLb1pJemowQ0FRWUlLb1pJemowREFRY0RRZ0FFNE4vSzNzK2VXUTJHU3NnTTJNcUhsdEplVHlqRQp1UC9sd0dNTnNNUjhUZTI2Ui9TTlVqSVpIdnJKcEx3YmpDc0ZlZUI3L0xZaFFsQzlRdUU1WFhITDZ3PT0KLS0tLS1FTkQgUFVCTElDIEtFWS0tLS0tCg==",
            "detection_mode": false
        }
    },
    "registry_ca_cert": "/etc/pki/ca-trust/extracted/ca-bundle.trust.crt"
}
Nota: Para registros como Harbor, que requieren el uso de un proyecto, debes añadir el nombre del proyecto a la URL del registro. El requisito se aplica a los parámetros registries.docker.url y registries.helm.url en el archivo input.json , como se muestra en el siguiente ejemplo:
{
  "registries": {
    "docker": {
      "url": "registry.domain.io/myproject",
      "username": "username",
      "password": "password"
      "pull_secret_value": "pull-secret-value"
    },
    "helm": {
      "url": "registry.domain.io/myproject",
      "username": "username",
      "password": "password"
    }
    "trust": {  
        "enabled": true,  
        "public_key": "LS0tLS1CRUdJTiBQVUJMSUMgS0VZLS0tLS0KTUZrd0V3WUhLb1pJemowQ0FRWUlLb1pJemowREFRY0RRZ0FFNE4vSzNzK2VXUTJHU3NnTTJNcUhsdEplVHlqRQp1UC9sd0dNTnNNUjhUZTI2Ui9TTlVqSVpIdnJKcEx3YmpDc0ZlZUI3L0xZaFFsQzlRdUU1WFhITDZ3PT0KLS0tLS1FTkQgUFVCTElDIEtFWS0tLS0tCg==",  
        "detection_mode": false  
    }
  },
  "registry_ca_cert": "/etc/pki/ca-trust/extracted/ca-bundle.trust.crt"
}{
  "registries": {
    "docker": {
      "url": "registry.domain.io/myproject",
      "username": "username",
      "password": "password"
      "pull_secret_value": "pull-secret-value"
    },
    "helm": {
      "url": "registry.domain.io/myproject",
      "username": "username",
      "password": "password"
    }
    "trust": {  
        "enabled": true,  
        "public_key": "LS0tLS1CRUdJTiBQVUJMSUMgS0VZLS0tLS0KTUZrd0V3WUhLb1pJemowQ0FRWUlLb1pJemowREFRY0RRZ0FFNE4vSzNzK2VXUTJHU3NnTTJNcUhsdEplVHlqRQp1UC9sd0dNTnNNUjhUZTI2Ui9TTlVqSVpIdnJKcEx3YmpDc0ZlZUI3L0xZaFFsQzlRdUU1WFhITDZ3PT0KLS0tLS1FTkQgUFVCTElDIEtFWS0tLS0tCg==",  
        "detection_mode": false  
    }
  },
  "registry_ca_cert": "/etc/pki/ca-trust/extracted/ca-bundle.trust.crt"
}

Configuración de espacio de nombres personalizado

Puedes especificar un único espacio de nombres personalizado que reemplace los espacios de nombres predeterminados uipath, uipath-check y uipath-installer . Para definir un espacio de nombres personalizado, proporciona un valor para el parámetro opcional namespace . Si no proporcionas un valor para el parámetro namespace , se utilizan los espacios de nombres predeterminados en su lugar.

Configuración de etiqueta de espacio de nombres personalizada

Si quieres que los espacios de nombres de UiPath contengan etiquetas de espacio de nombres personalizadas, añade la siguiente sección al archivo input.json . Asegúrate de añadir tus propias etiquetas.
"namespace_labels": {
		"install-type": "aksoffline",
		"uipathctlversion": "rc-10_0.1",
		"updatedLabel": "rerun"
	}, "namespace_labels": {
		"install-type": "aksoffline",
		"uipathctlversion": "rc-10_0.1",
		"updatedLabel": "rerun"
	},

Configuración de tolerancia de nodo personalizada

Si necesita taints y tolerancias personalizadas en los nodos en los que tiene previsto instalar Automation Suite, actualice input.json con los siguientes indicadores. Asegúrate de proporcionar los valores adecuados al campo spec .
"tolerations": [
  {
    "spec": {
      "key": "example-key", 
      "operator": "Exists",
      "value": "optional-value",
      "effect": "NoSchedule"
    }
  },
  {
    "spec": {
      "key": "example-key2", 
      "operator": "Exists",
      "value": "optional-value2",
      "effect": "NoSchedule"
    }
  }
]"tolerations": [
  {
    "spec": {
      "key": "example-key", 
      "operator": "Exists",
      "value": "optional-value",
      "effect": "NoSchedule"
    }
  },
  {
    "spec": {
      "key": "example-key2", 
      "operator": "Exists",
      "value": "optional-value2",
      "effect": "NoSchedule"
    }
  }
]

Configuración del equilibrador de carga interno

Puedes utilizar un equilibrador de carga interno para tu implementación tanto en los tipos de instalación de AKS como de EKS. Para ello, debes especificarlo en la sección ingress del archivo input.json.
Los detalles del campo AKS internal load balancer configuration field details:
ParámetroDescripción
azure-load-balancer-internalEspecifica si el equilibrador de carga es interno.
Los detalles del campo EKS internal load balancer configuration field details:
  
aws-load-balancer-backend-protocolEspecifica el protocolo backend.
aws-load-balancer-nlb-target-typeEspecifica el tipo de destino que se configurará para NLB. Puedes elegir entre instance y ip.
aws-load-balancer-schemeEspecifica si el NLB estará orientado a Internet o será interno. Los valores válidos son internal o internet-facing. Si no se especifica, el valor predeterminado es internal.
aws-load-balancer-typeEspecifica el tipo de equilibrador de carga. Este controlador concilia esos recursos de servicio con esta anotación establecida en nlb o external.
aws-load-balancer-internalEspecifica si el NLB estará orientado a Internet o será interno.

Ejemplo de AKS

"ingress": {
    "service_annotations": {
      "service.beta.kubernetes.io/azure-load-balancer-internal": "true"
    }
  }, "ingress": {
    "service_annotations": {
      "service.beta.kubernetes.io/azure-load-balancer-internal": "true"
    }
  },

Ejemplo de EKS

"ingress": {
    "service_annotations": {
      "service.beta.kubernetes.io/aws-load-balancer-backend-protocol": "ssl",
      "service.beta.kubernetes.io/aws-load-balancer-nlb-target-type": "ip",
      "service.beta.kubernetes.io/aws-load-balancer-scheme": "internal",
      "service.beta.kubernetes.io/aws-load-balancer-type": "nlb",
      "service.beta.kubernetes.io/aws-load-balancer-internal": "true"
    }
  },  "ingress": {
    "service_annotations": {
      "service.beta.kubernetes.io/aws-load-balancer-backend-protocol": "ssl",
      "service.beta.kubernetes.io/aws-load-balancer-nlb-target-type": "ip",
      "service.beta.kubernetes.io/aws-load-balancer-scheme": "internal",
      "service.beta.kubernetes.io/aws-load-balancer-type": "nlb",
      "service.beta.kubernetes.io/aws-load-balancer-internal": "true"
    }
  },
Para más información sobre la creación de equilibradores de carga internos en AKS y EKS, accede a los siguientes enlaces:

Configuración de identidad de carga de trabajo

La identidad de carga de trabajo es una variante de la identidad administrada disponible si utilizas Automation Suite en AKS. La identidad de la carga de trabajo te ayuda a evitar la gestión de credenciales al permitir que los pods utilicen una identidad de Kubernetes, como una cuenta de servicio. La identidad de la carga de trabajo también permite que las aplicaciones de Kubernetes accedan a los recursos de Azure de forma segura con Microsoft Entra ID, en función de las cuentas de servicio anotadas.

Para obtener más información sobre la identidad de la carga de trabajo, consulta Usar un ID de carga de trabajo de Microsoft Entra en AKS: Azure Kubernetes Service.

Nota:

Insights y Task Mining actualmente no admiten la identidad de la carga de trabajo.

Para utilizar la identidad de la carga de trabajo, sigue los siguientes pasos:

  1. Habilita la identidad de la carga de trabajo y el emisor OIDC para el clúster, recupera la URL del emisor OIDC y crea una identidad administrada asignada por el usuario, que se utilizará en la identidad de la carga de trabajo. Para realizar estas operaciones, sigue las instrucciones en Implementar y configurar un clúster de AKS con identidad de carga de trabajo: Azure Kubernetes Service.
  2. Guarda el ID de cliente de la identidad administrada asignada por el usuario y proporciónalo en tu archivo input.json .
    {
      ...
      "pod_identity" : {
        "enabled": true,
        "aks_managed_identity_client_id":<client-id>,
      }
      ...
    }{
      ...
      "pod_identity" : {
        "enabled": true,
        "aks_managed_identity_client_id":<client-id>,
      }
      ...
    }
  3. Ejecuta el siguiente script que crea las credenciales federadas para todas las cuentas de servicio que creamos para Automation Suite:
    #!/bin/bash
    
    # Variables
    RESOURCE_GROUP="<resource-group-name>"
    USER_ASSIGNED_IDENTITY_NAME="<user-assigned-identity-name>"
    AKS_OIDC_ISSUER="<aks-oidc-issuer>"
    AUDIENCE="api://AzureADTokenExchange"
    
    # Helper function to create federated credentials
    create_federated_credentials() {
      local NAMESPACE=$1
      shift
      local SERVICE_ACCOUNTS=("$@")
    
      for SERVICE_ACCOUNT_NAME in "${SERVICE_ACCOUNTS[@]}"; do
        # Generate a unique federated identity credential name
        FEDERATED_IDENTITY_CREDENTIAL_NAME="${NAMESPACE}-${SERVICE_ACCOUNT_NAME}"
    
        echo "Creating federated credential for namespace: ${NAMESPACE}, service account: ${SERVICE_ACCOUNT_NAME}"
    
        # Run the Azure CLI command
        az identity federated-credential create \
          --name "${FEDERATED_IDENTITY_CREDENTIAL_NAME}" \
          --identity-name "${USER_ASSIGNED_IDENTITY_NAME}" \
          --resource-group "${RESOURCE_GROUP}" \
          --issuer "${AKS_OIDC_ISSUER}" \
          --subject "system:serviceaccount:${NAMESPACE}:${SERVICE_ACCOUNT_NAME}" \
          --audience "${AUDIENCE}"
    
        if [ $? -eq 0 ]; then
          echo "Federated credential created successfully for ${NAMESPACE}:${SERVICE_ACCOUNT_NAME}"
        else
          echo "Failed to create federated credential for ${NAMESPACE}:${SERVICE_ACCOUNT_NAME}"
        fi
      done
    }
    
    
    # Call the function for each namespace and its service accounts
    create_federated_credentials "uipath" "default" "asrobots-sa" "taskmining-client" "dataservice-be-service-account" "dataservice-fe-service-account" "insights-adf" "du-documentmanager-service-account" "services-configure-uipath-ba" "aicenter-jobs" "aicenter-deploy" "ailoadbalancer-service-account" "airflow"
    create_federated_credentials "uipath-check" "default"
    create_federated_credentials "velero" "velero-server"#!/bin/bash
    
    # Variables
    RESOURCE_GROUP="<resource-group-name>"
    USER_ASSIGNED_IDENTITY_NAME="<user-assigned-identity-name>"
    AKS_OIDC_ISSUER="<aks-oidc-issuer>"
    AUDIENCE="api://AzureADTokenExchange"
    
    # Helper function to create federated credentials
    create_federated_credentials() {
      local NAMESPACE=$1
      shift
      local SERVICE_ACCOUNTS=("$@")
    
      for SERVICE_ACCOUNT_NAME in "${SERVICE_ACCOUNTS[@]}"; do
        # Generate a unique federated identity credential name
        FEDERATED_IDENTITY_CREDENTIAL_NAME="${NAMESPACE}-${SERVICE_ACCOUNT_NAME}"
    
        echo "Creating federated credential for namespace: ${NAMESPACE}, service account: ${SERVICE_ACCOUNT_NAME}"
    
        # Run the Azure CLI command
        az identity federated-credential create \
          --name "${FEDERATED_IDENTITY_CREDENTIAL_NAME}" \
          --identity-name "${USER_ASSIGNED_IDENTITY_NAME}" \
          --resource-group "${RESOURCE_GROUP}" \
          --issuer "${AKS_OIDC_ISSUER}" \
          --subject "system:serviceaccount:${NAMESPACE}:${SERVICE_ACCOUNT_NAME}" \
          --audience "${AUDIENCE}"
    
        if [ $? -eq 0 ]; then
          echo "Federated credential created successfully for ${NAMESPACE}:${SERVICE_ACCOUNT_NAME}"
        else
          echo "Failed to create federated credential for ${NAMESPACE}:${SERVICE_ACCOUNT_NAME}"
        fi
      done
    }
    
    
    # Call the function for each namespace and its service accounts
    create_federated_credentials "uipath" "default" "asrobots-sa" "taskmining-client" "dataservice-be-service-account" "dataservice-fe-service-account" "insights-adf" "du-documentmanager-service-account" "services-configure-uipath-ba" "aicenter-jobs" "aicenter-deploy" "ailoadbalancer-service-account" "airflow"
    create_federated_credentials "uipath-check" "default"
    create_federated_credentials "velero" "velero-server"

Para utilizar la identidad de la carga de trabajo con SQL, consulta Acceso basado en la identidad de la carga de trabajo a SQL desde AKS.

Para utilizar la identidad de la carga de trabajo con tu cuenta de almacenamiento, consulta Acceso basado en la identidad de la carga de trabajo a tu cuenta de almacenamiento desde AKS.

Configuración específica de Orchestrator

Orchestrator puede guardar los registros del robot en un servidor Elasticsearch. Esta funcionalidad se puede configurar en la sección orchestrator.orchestrator_robot_logs_elastic. De no proporcionarse, los registros del robot se guardan en la base de datos de Orchestrator.
La siguiente tabla enumera los parámetros orchestrator.orchestrator_robot_logs_elastic:

Parámetro

Descripción

orchestrator_robot_logs_elastic

Configuración de Elasticsearch.

elastic_uri

La dirección de la instancia de Elasticsearch que debe utilizarse. Debe proporcionarse en forma de URI. Si se facilita, también se requieren el nombre de usuario y la contraseña.

elastic_auth_username

El nombre de usuario de Elasticsearch que se utiliza para la autenticación.

elastic_auth_password

La contraseña de Elasticsearch que se utiliza para la autenticación.

Configuración específica de Insights

Si se habilita Insights, los usuarios pueden incluir la configuración del servidor SMTP que se utilizará para enviar correos electrónicos programados o de alerta. Si no se proporciona, los correos electrónicos programados y los de alerta no funcionarán.

Puedes utilizar la herramienta de línea de comandos uipathctl para aplicar los cambios de configuración. Para obtener más información, consulta la guía de referencia de uipathctl.
Detalles de los campos de insights.smtp_configuration:

Parámetro

Descripción

tls_version

Los valores válidos son TLSv1_2, TLSv1_1 y SSLv23. Omitir la clave si no utiliza TLS.

from_email

Dirección desde la que se enviarán los correos electrónicos de alerta o programados.

host

Nombre del host del servidor SMTP.

port

Puerto del servidor SMTP.

username

Nombre de usuario para la autenticación del servidor SMTP.

password

Contraseña para la autenticación del servidor SMTP.

enable_realtime_monitoringIndicador para habilitar la supervisión en tiempo real de Insights. Los valores válidos son true y false. El valor predeterminado es false.

Ejemplo

"insights": {
    "enabled": true,
    "enable_realtime_monitoring": true,
    "smtp_configuration": {
      "tls_version": "TLSv1_2",
      "from_email": "test@test.com",
      "host": "smtp.sendgrid.com",
      "port": 587,
      "username": "login",
      "password": "password123"
    }
  }"insights": {
    "enabled": true,
    "enable_realtime_monitoring": true,
    "smtp_configuration": {
      "tls_version": "TLSv1_2",
      "from_email": "test@test.com",
      "host": "smtp.sendgrid.com",
      "port": 587,
      "username": "login",
      "password": "password123"
    }
  }

Process Mining-specific configuration

Si habilita Process Mining, recomendamos a los usuarios que especifiquen un servidor SQL SECUNDARIO para que actúe como almacén de datos independiente del SQL Server de Automation Suite principal. El almacén de datos de SQL Server tendrá una gran carga y se puede configurar en la sección processmining :

Parámetro

Descripción

sql_connection_str

Cadena de conexión con formato DotNet con la base de datos establecida como marcador de posición: Initial Catalog=DB_NAME_PLACEHOLDER.

airflow.metadata_db_connection_str

Nota: Esto se aplica a la base de datos AutomationSuite Airflow de PostgreSQL y se recomienda para la versión 2024.10.3 o superior.
Cadena de conexión con formato Sqlalchemy PSYCOPG2 para la ubicación de la base de datos de metadatos de flujo de aire personalizado: PostgreSQL:5432/DB_NAME_PLACEHOLDER.

Ejemplo:

postgresql+psycopg2://testadmin:<password>@postgres.company.com:5432/DB_NAME_PLACEHOLDER

Nota:
También puedes utilizar metadata_db_connection_str en la sección Processmining a nivel global en cluster_config.json para proporcionar el valor de la metadatabase de Airflow. En este caso, airflow.metadata_db_connection_str es opcional.
"processmining": {
  "enabled": true,
  "app_security_mode": "system_managed",
  "airflow": {
    "metadata_db_connection_str": "postgresql+psycopg2://testadmin:<password>@sfdev8454496-postgresql.postgres.database.azure.com:5432/AutomationSuite_Airflow"
  }
}"processmining": {
  "enabled": true,
  "app_security_mode": "system_managed",
  "airflow": {
    "metadata_db_connection_str": "postgresql+psycopg2://testadmin:<password>@sfdev8454496-postgresql.postgres.database.azure.com:5432/AutomationSuite_Airflow"
  }
}

sqlalchemy_pyodbc_sql_connection_str

Nota:
Esto solo es aplicable a la base de datos AutomationSuite Airflow de Microsoft SQL Server y ya no se puede utilizar a partir de la versión 2025.10.
Cadena de conexión con formato PYODBC de Sqlalchemy para la ubicación de la base de datos de metadatos de flujo de aire personalizado: sqlServer:1433/DB_NAME_PLACEHOLDER.

Ejemplo:

mssql+pyodbc://testadmin%40myhost:mypassword@myhost:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES

Dónde

Usuario: testadmin%40myhost
Nota:

Si hay '@' en el nombre de usuario, tiene que ser urlencode a %40

Ejemplo: (configuración de SQL Server con autenticación Kerberos)

mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes

warehouse.sql_connection_str

Cadena de conexión SQL con formato DotNet al almacén de datos SQL Server de processmining con un marcador de posición para el nombre de la base de datos:

Initial Catalog=DB_NAME_PLACEHOLDER.

warehouse.sqlalchemy_pyodbc_sql_connection_str

Cadena de conexión SQL con formato Sqlalchemy PYODBC al almacén de datos SQL Server de Process Mining con marcador de posición para dbname:

sqlServer:1433/DB_NAME_PLACEHOLDER.

warehouse.master_sql_connection_str

Si el instalador crea bases de datos a través de la configuración sql.create_db: true , se debe proporcionar una cadena de conexión SQL maestra con formato DotNet para el servidor de datos SQL Server de processmining. La base de datos de la cadena de conexión debe establecerse como master.
Ejemplo de cadena de conexión de Process Mining con PostgreSQL para AutomationSuite_Airflow
"processmining": {
    "enabled": true,
    "app_security_mode": "system_managed",
    "airflow": {
      "metadata_db_connection_str": "postgresql+psycopg2://testadmin:<password>@sfdev8454496-postgresql.postgres.database.azure.com:5432/AutomationSuite_Airflow"
    },
    "warehouse": {
      "sql_connection_str": "Server=tcp:kerberossql.autosuitead.local,1433;Initial Catalog=AutomationSuite_Warehouse;Persist Security Info=False;User Id=testadmin;Password='<password>';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
      "sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin:<password>@kerberossql.autosuitead.local:1433/AutomationSuite_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
      "master_sql_connection_str": "Server=tcp:kerberossql.autosuitead.local,1433;Initial Catalog=master;Persist Security Info=False;User Id=testadmin;Password='<password>';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;""processmining": {
    "enabled": true,
    "app_security_mode": "system_managed",
    "airflow": {
      "metadata_db_connection_str": "postgresql+psycopg2://testadmin:<password>@sfdev8454496-postgresql.postgres.database.azure.com:5432/AutomationSuite_Airflow"
    },
    "warehouse": {
      "sql_connection_str": "Server=tcp:kerberossql.autosuitead.local,1433;Initial Catalog=AutomationSuite_Warehouse;Persist Security Info=False;User Id=testadmin;Password='<password>';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
      "sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin:<password>@kerberossql.autosuitead.local:1433/AutomationSuite_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
      "master_sql_connection_str": "Server=tcp:kerberossql.autosuitead.local,1433;Initial Catalog=master;Persist Security Info=False;User Id=testadmin;Password='<password>';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"

Ejemplo de cadena de conexión de Process Mining con Microsoft SQL Server para AutomationSuite_Airflow
"processmining": {
    "enabled": true,
    "app_security_mode": "system_managed",
    "warehouse": {
        "sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='password';Persist Security Info=False;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
	    "sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:<password>:@sfdev4515230-sql.database.windows.net:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
        "master_sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=master;Persist Security Info=False;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
    },
    "sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:<password>@sfdev4515230-sql.database.windows.net:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES"
    "sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Metadata;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='password';Persist Security Info=False;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",  
},"processmining": {
    "enabled": true,
    "app_security_mode": "system_managed",
    "warehouse": {
        "sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='password';Persist Security Info=False;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
	    "sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:<password>:@sfdev4515230-sql.database.windows.net:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
        "master_sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=master;Persist Security Info=False;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
    },
    "sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:<password>@sfdev4515230-sql.database.windows.net:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES"
    "sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Metadata;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='password';Persist Security Info=False;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",  
},
Nota:
Al utilizar la autenticación Kerberos, utiliza los parámetros Integrated Security y Trusted_Connection . Al establecer Integrated Security como true y Trusted_Connection como yes, se utilizan las credenciales del usuario que ha iniciado sesión actualmente para la conexión. En este caso, no es necesario especificar un nombre de usuario y una contraseña independientes.
Importante:
Si utilizas Microsoft SQL Server para la base de datos AutomationSuite_Airflow , asegúrate de cumplir los siguientes requisitos.
  • Asegúrate de que la zona horaria de la máquina de SQL Server donde está instalada la base de datos de Airflow está establecida en UTC.

  • Debes utilizar el puerto de servidor predeterminado 1433 para las conexiones de la base de datos de Airflow. Los puertos de servidor SQL no estándar no son compatibles.
Atención:

Al configurar las cadenas de conexión para el SQL Server del almacén de datos de Process Mining, se debe omitir la instancia con nombre de SQL Server.

Las instancias con nombre de SQL Server no pueden operar en el mismo puerto TCP. Por lo tanto, el número de puerto por sí solo es suficiente para distinguir entre instancias.

Por ejemplo, utiliza tcp:server,1445 en lugar de tcp:server\namedinstance,1445.
Importante:
Ten en cuenta que los nombres de la cadena de conexión PYODBC de la plantilla postgresql_connection_string_template_sqlalchemy_pyodbc (para PostgreSQL) respectivamente sql_connection_string_template_sqlalchemy_pyodbc (para MS SQL Server) y la cadena de conexión PYODBC sqlalchemy_pyodbc_sql_connection_str utilizada al traer tu propia base de datos son diferentes. Además, los nombres de las cadenas de conexión son diferentes para la plantilla SQL sql_connection_string_template y sql_connection_str utilizada cuando traes tu propia base de datos.
Importante:
Si traes tu propia base de datos y la configuraste utilizando las cadenas de conexión sql_connection_str y sqlalchemy_pyodbc_sql_connection_str o airflow.metadata_db_connection_str en la sección processmining del archivo input.json , las cadenas de conexión de la plantilla sql_connection_string_template y postgresql_connection_string_template_sqlalchemy_pyodbc ( para PostgreSQL) respectivamente sql_connection_string_template_sqlalchemy_pyodbc (para MS SQL Server) se ignoran si se especifican.

Automation Suite Robots-specific configuration

Los robots de Automation Suite pueden usar el almacenamiento en caché de paquetes para optimizar las ejecuciones de procesos y permitir que se ejecuten más rápido. Los paquetes NuGet se obtienen del sistema de archivos en lugar de descargarse de Internet. Esto requiere un espacio adicional de mínimo 10 GB y debe asignarse a una carpeta en el sistema de archivos de la máquina host de los nodos dedicados.

Para habilitar el almacenamiento en caché de paquetes, debes actualizar los siguientes parámetros input.json :

Parámetro

Valor predeterminado

Descripción

packagecaching

true

Cuando se establece en true, los robots usan una caché local para la resolución de paquetes.

packagecachefolder

/uipath_asrobots_package_cache

La ubicación del disco en el nodo del agente sin servidor donde se almacenan los paquetes.

Configuración específica de AI Center

Esta sección solo se aplica a los puntos finales de S3 (no es necesario para Azure Storage).

Para que AI Center funcione correctamente, debes configurar los parámetros aicenter.external_object_storage.port y aicenter.external_object_storage.fqdn en el archivo input.json .
Nota: debes configurar los parámetros en la sección aicenter del archivo input.jsonincluso si has configurado la sección external_object_storage del archivo.
El siguiente ejemplo muestra una configuración input.jsonválida para AI Center:
"aicenter": {
  "external_object_storage" {
    "port": 443,
    "fqdn": "s3.us-west-2.amazonaws.com"
  }
},
"external_object_storage": {
  "enabled": true,
  "create_bucket": false,
  "storage_type": "s3", 
  "region": "us-west-2", 
  "use_instance_profile": true
}
..."aicenter": {
  "external_object_storage" {
    "port": 443,
    "fqdn": "s3.us-west-2.amazonaws.com"
  }
},
"external_object_storage": {
  "enabled": true,
  "create_bucket": false,
  "storage_type": "s3", 
  "region": "us-west-2", 
  "use_instance_profile": true
}
...

¿Te ha resultado útil esta página?

Obtén la ayuda que necesitas
RPA para el aprendizaje - Cursos de automatización
Foro de la comunidad UiPath
Uipath Logo
Confianza y seguridad
© 2005-2025 UiPath. Todos los derechos reservados.