- Información general
- Requisitos
- Plantillas de implementación
- Manual: preparar la instalación
- Manual: preparar la instalación
- Paso 1: configurar el registro compatible con OCI para las instalaciones sin conexión
- Paso 2: configurar el almacén de objetos externo
- Paso 3: configurar High Availability Add-on
- Paso 4: configurar bases de datos SQL
- Paso 5: configurar el equilibrador de carga
- Paso 6: configurar el DNS
- Paso 7: configurar los discos
- Paso 8: configurar el kernel y la configuración en el nivel del sistema operativo
- Paso 9: configurar los puertos de nodo
- Paso 10: aplicar ajustes diversos
- Paso 12: Validar e instalar los paquetes RPM necesarios
- Paso 13: Generar cluster_config.json
- Configuración de certificados
- Configuración de la base de datos
- Configuración del almacén de objetos externo
- Configuración de URL prefirmada
- Configuración de registro externo compatible con OCI
- Disaster recovery: configuraciones activas/pasivas y activas/activas
- Configuración de High Availability Add-on
- Configuración específica de Orchestrator
- Configuración específica de Insights
- Process Mining-specific configuration
- Configuración específica de Document Understanding
- Automation Suite Robots-specific configuration
- Configuración de la supervisión
- Opcional: configurar el servidor proxy
- Opcional: habilitación de la resistencia a fallos de zona en un clúster multinodo de producción preparada para alta disponibilidad
- Opcional: pasar resolv.conf personalizado
- Optional: Increasing fault tolerance
- parámetros de install-uipath.sh
- Inclusión de un nodo agente dedicado compatible con GPU
- Añadir un nodo agente dedicado a Task Mining
- Conexión de la aplicación Task Mining
- Añadir un nodo agente dedicado a Automation Suite Robots
- Paso 15: configurar el registro temporal de Docker para las instalaciones sin conexión
- Paso 16: validar los requisitos previos para la instalación
- Manual: realizar la instalación
- Después de la instalación
- Administración de clústeres
- Gestionar los productos
- Primeros pasos con el Portal de administración del clúster
- Migrating objectstore from persistent volume to raw disks
- Migrar del en el clúster a High Availability Add-on externo
- Migrating data between objectstores
- Migrating in-cluster objectstore to external objectstore
- Migrar a un registro externo compatible con OCI
- Cambiar manualmente al clúster secundario en una configuración activa/pasiva
- Disaster Recovery: realizar operaciones posteriores a la instalación
- Convertir una instalación existente en una configuración en varios sitios
- Directrices sobre la actualización de una implementación activa/pasiva o activa/activa
- Directrices sobre la copia de seguridad y restauración de una implementación activa/pasiva o activa/activa
- Redireccionando el tráfico de los servicios no compatibles al clúster principal
- Escalar una implementación de nodo único (evaluación) a una implementación multinodo (HA)
- Supervisión y alertas
- Migración y actualización
- Paso 1: Mover los datos de la organización de identidad de independiente a Automation Suite
- Paso 2: restaurar la base de datos del producto independiente
- Paso 3: Realizar una copia de seguridad de la base de datos de la plataforma en Automation Suite
- Paso 4: Fusionar organizaciones en Automation Suite
- Paso 5: actualizar las cadenas de conexión de los productos migrados
- Paso 6: migrar el Orchestrator independiente
- Paso 7: migrar Insights independiente
- Paso 8: eliminar el tenant predeterminado
- Realizar una migración de un solo tenant
- Migrar de Automation Suite en Linux a Automation Suite en EKS / AKS
- Actualizar Automation Suite
- Descargar los paquetes de instalación y obtener todos los archivos del primer nodo del servidor
- Recuperar la última configuración aplicada del clúster
- Actualizar la configuración del clúster
- Configurar el registro compatible con OCI para las instalaciones sin conexión
- Ejecutar la actualización
- Realizar operaciones posteriores a la actualización
- Configuración específica del producto
- Uso de la herramienta de configuración de Orchestrator
- Configurar parámetros de Orchestrator
- Configuración de Orchestrator
- Configurar AppSettings
- Configurar el tamaño máximo de la solicitud
- Anular la configuración de almacenamiento a nivel de clúster
- Configurar almacenes de credenciales
- Configurar clave de cifrado por tenant
- Limpiar la base de datos de Orchestrator
- Buenas prácticas y mantenimiento
- Solución de problemas
- Cómo solucionar los problemas de los servicios durante la instalación
- Cómo desinstalar el clúster
- Cómo limpiar los artefactos sin conexión para mejorar el espacio en disco
- Cómo borrar datos de Redis
- Cómo habilitar el registro de Istio
- Cómo limpiar manualmente los registros
- Cómo limpiar los registros antiguos almacenados en el depósito sf-logs
- Cómo deshabilitar los registros de transmisión para AI Center
- Cómo depurar instalaciones de Automation Suite fallidas
- Cómo eliminar imágenes del instalador antiguo después de la actualización
- Cómo deshabilitar la descarga de la suma de comprobación TX
- Cómo actualizar desde Automation Suite 2022.10.10 y 2022.4.11 a 2023.10.2
- Cómo establecer manualmente el nivel de registro de ArgoCD en Info
- Cómo expandir el almacenamiento de AI Center
- Cómo generar el pull_secret_value codificado para registros externos
- Cómo abordar los cifrados débiles en TLS 1.2
- Cómo trabajar con certificados
- Cómo reenviar registros de aplicaciones a Splunk
- Cómo limpiar las imágenes de Docker no utilizadas de los pods de registro
- No se puede ejecutar una instalación sin conexión en el sistema operativo RHEL 8.4
- Error al descargar el paquete
- La instalación sin conexión falla porque falta un binario
- Problema de certificado en la instalación sin conexión
- First installation fails during Longhorn setup
- Error de validación de la cadena de conexión SQL
- Error en la comprobación de requisitos previos para el módulo iscsid de selinux
- Azure disk not marked as SSD
- Fallo tras la actualización del certificado
- El antivirus causa problemas de instalación
- Automation Suite not working after OS upgrade
- Automation Suite requiere que backlog_wait_time se establezca en 0
- El volumen no se puede montar porque no está listo para las cargas de trabajo
- Error de recopilación de registros del paquete de soporte
- Se ignora la cadena de conexión SQL de la automatización de pruebas
- Pérdida de datos al reinstalar o actualizar Insights tras la actualización de Automation Suite
- La actualización de nodo único falla en la etapa de tejido
- Cluster unhealthy after automated upgrade from 2021.10
- Upgrade fails due to unhealthy Ceph
- RKE2 no se inicia debido a un problema de espacio
- El volumen no se puede montar y permanece en estado de bucle de conexión/desconexión
- La actualización falla debido a objetos clásicos en la base de datos de Orchestrator
- El clúster de Ceph se encuentra en un estado degradado tras una actualización en paralelo.
- Un componente Insights en mal estado provoca el fallo de la migración
- La actualización del servicio falla para Apps
- Tiempos de actualización in situ
- La migración del registro de Docker se atasca en la fase de eliminación de PVC
- Error de aprovisionamiento de AI Center después de actualizar a 2023.10 o posterior
- La actualización falla en entornos sin conexión
- La validación SQL falla durante la actualización
- pod de snapshot-controller-crds en estado CrashLoopBackOff después de la actualización
- Error de actualización/reinstalación del punto final de la API REST de Longhorn
- La actualización falla debido a los tamaños de PVC de Insights anulados
- Establecer un intervalo de tiempo de espera para los portales de gestión
- La autenticación no funciona tras la migración
- kinit: no se puede encontrar la KDC para el territorio <AD Domain> mientras se obtienen las credenciales iniciales
- kinit: keytab no contiene claves adecuadas para *** mientras se obtienen las credenciales iniciales
- Error en la operación GSSAPI debido a un código de estado no válido
- Alarma recibida por un error en el trabajo de Kerberos-tgt-update
- Proveedor de SSPI: servidor no encontrado en la base de datos de Kerberos
- Error en inicio de sesión de un usuario AD debido a una cuenta deshabilitada
- ArgoCD login failed
- Actualizar las conexiones del directorio subyacente
- Fallo en la obtención de la imagen de Sandbox
- Los pods no se muestran en la interfaz de usuario de ArgoCD
- Fallo de la sonda Redis
- El servidor RKE2 no se inicia
- Secreto no encontrado en el espacio de nombres UiPath
- ArgoCD entra en estado de progreso tras la primera instalación
- Pods MongoDB en CrashLoopBackOff o pendientes de aprovisionamiento de PVC tras su eliminación
- Unhealthy services after cluster restore or rollback
- Pods atascados en Inicialización: 0 / X
- Faltan métricas de Ceph-rook en los paneles de supervisión
- Los pods no pueden comunicarse con FQDN en un entorno de proxy
- Error al configurar las alertas de correo electrónico después de la actualización
- No hay problema ascendente en buen estado
- Document Understanding no se encuentra en la barra izquierda de Automation Suite
- Estado fallido al crear una sesión de etiquetado de datos
- Estado fallido al intentar implementar una habilidad ML
- El trabajo de migración falla en ArgoCD
- El reconocimiento de la escritura manual con el extractor de formularios inteligente no funciona
- Error en la implementación de la habilidad ML debido a la caducidad del token
- Ejecutar alta disponibilidad con Process Mining
- La ingestión de Process Mining falló al iniciar sesión con Kerberos
- Después de Disaster Recovery, Dapr no funciona correctamente para Process Mining
- No se puede conectar a la base de datos AutomationSuite_ProcessMining_Warehouse utilizando una cadena de conexión en formato pyodbc
- La instalación de Airflow falla con sqlalchemy.exc.ArgumentError: no se pudo analizar la URL rfc1738 de la cadena ''
- Cómo añadir una regla de tabla de IP para utilizar el puerto 1433 de SQL Server
- El certificado de Automation Suite no es de confianza desde el servidor donde se ejecuta CData Sync
- Ejecutar la herramienta de diagnóstico
- Uso del paquete de soporte de Automation Suite
- Explorar registros
- Explorar la telemetría resumida

Guía de instalación de Automation Suite en Linux
Paso 4: configurar bases de datos SQL
Cada producto de Automation Suite requiere su propia base de datos de SQL con unas especificaciones particulares.
De forma predeterminada, el instalador crea todas las bases de datos durante el proceso de instalación. Debe proporcionar los permisos necesarios para que el instalador lo haga en su propio servidor SQL.
Como alternativa, puedes crear tus propias bases de datos. Consulte la siguiente tabla para ver los nombres que necesita utilizar.
Si decides traer tus propias bases de datos para una nueva instalación de Automation Suite, recomendamos encarecidamente configurar nuevas bases de datos en lugar de utilizar las existentes. Esta precaución es necesaria para evitar cualquier conflicto con la operación de Automation Suite que pueda ocurrir debido a los metadatos sobrantes de las bases de datos antiguas.
La siguiente tabla enumera los nombres de la base de datos y su formato correspondiente.
Producto o servicio |
Nombre predeterminado de la base de datos |
Formato de la cadena de conexión |
---|---|---|
Funciones de plataforma compartida |
| |
Orchestrator |
| |
Action Center |
| |
Automation Suite Robots |
| |
Automation Hub |
| |
Data Service |
| |
Insights |
| |
Test Manager |
| |
Task Mining |
| |
AI Center |
| |
Apps | AutomationSuite_Apps 1 | ODBC |
Document Understanding |
| |
Process Mining |
AutomationSuite_ProcessMining_Warehouse 2AutomationSuite_Airflow 3 4 |
#{
.
AutomationSuite_ProcessMining_Warehouse
utiliza ambos formatos ADO.NET y PYODBC.
AutomationSuite_Airflow
La base de datos PostgreSQL utiliza el formato de cadena de conexión de alquimia SQL. La conexión a la base de datos AutomationSuite_Airflow
no puede comenzar con un carácter {
.
AutomationSuite_Airflow
La base de datos de Microsoft SQL Server utiliza el formato de cadena de conexión de alquimia SQL. AutomationSuite_Airflow
debe tener READ_COMMITTED_SNAPSHOT
habilitado al crear bases de datos manualmente. La conexión a la base de datos AutomationSuite_Airflow
no puede comenzar con un carácter {
.
AutomationSuite_Airflow
.
Si establece manualmente las cadenas de conexión en el archivo de configuración, puede escapar de las contraseñas SQL, JDBC u ODBC de la siguiente manera:
- para SQL: añade
'
al principio y al final de la contraseña, y doble cualquier otra'
. - para JDBC/ODBC: añade
{
al principio y}
al final de la contraseña, y duplicar cualquier otra}
.
Puede utilizar las bases de datos en un grupo elástico para obtener una mayor rentabilidad.
SQL_Latin1_General_CP1_CI_AS
tanto a nivel de servidor como de base de datos. Recomendamos encarecidamente esta configuración particular para un rendimiento y estabilidad óptimos.
Aunque tienes la flexibilidad de utilizar una intercalación de tu elección, ten en cuenta que las configuraciones no probadas pueden provocar problemas inesperados.
No recomendamos utilizar SQL binario ni ninguna intercalación que distinga entre mayúsculas y minúsculas, ya que provocan problemas conocidos al instalar Automation Suite.
dbcreator
a la cuenta SQL utilizada para conectarse a la base de datos.
db_owner
para todas las bases de datos de Automation Suite.
db_owner
, la cuenta de SQL debe tener los siguientes roles y permisos en todas las bases de datos (la única excepción es Insights, que aún requiere db_owner
).
db_securityadmin
db_ddladmin
db_datawriter
db_datareader
- Permiso
EXECUTE
en el esquema dbo
db_securityadmin
y db_ddladmin
durante la instalación o si se reaprovisionan las bases de datos, por lo que puedes revocar estos permisos después.
Solo los cifrados SQL enumerados son compatibles con Automation Suite:
TLS_AES_256_GCM_SHA384
TLS_CHACHA20_POLY1305_SHA256
TLS_AES_128_GCM_SHA256
TLS_AES_128_CCM_SHA256
ECDHE-ECDSA-AES256-GCM-SHA384
ECDHE-RSA-AES256-GCM-SHA384
ECDHE-ECDSA-CHACHA20-POLY1305
ECDHE-RSA-CHACHA20-POLY1305
ECDHE-ECDSA-AES256-CCM
ECDHE-ECDSA-AES128-GCM-SHA256
ECDHE-RSA-AES128-GCM-SHA256
ECDHE-ECDSA-AES128-CCM
ECDHE-ECDSA-AES128-SHA256
ECDHE-RSA-AES128-SHA256
ECDHE-ECDSA-AES256-SHA
ECDHE-RSA-AES256-SHA
ECDHE-ECDSA-AES128-SHA
ECDHE-RSA-AES128-SHA
AES256-GCM-SHA384
AES256-CCM
AES128-GCM-SHA256
AES128-CCM
AES256-SHA256
AES128-SHA256
AES256-SHA
AES128-SHA
DHE-RSA-AES256-GCM-SHA384
DHE-RSA-CHACHA20-POLY1305
DHE-RSA-AES256-CCM
DHE-RSA-AES128-GCM-SHA256
DHE-RSA-AES128-CCM
DHE-RSA-AES256-SHA256
DHE-RSA-AES128-SHA256
DHE-RSA-AES256-SHA
DHE-RSA-AES128-SHA
PSK-AES256-GCM-SHA384
PSK-CHACHA20-POLY1305
PSK-AES256-CCM
PSK-AES128-GCM-SHA256
PSK-AES128-CCM
PSK-AES256-CBC-SHA
PSK-AES128-CBC-SHA256
PSK-AES128-CBC-SHA
DHE-PSK-AES256-GCM-SHA384
DHE-PSK-CHACHA20-POLY1305
DHE-PSK-AES256-CCM
DHE-PSK-AES128-GCM-SHA256
DHE-PSK-AES128-CCM
DHE-PSK-AES256-CBC-SHA
DHE-PSK-AES128-CBC-SHA256
DHE-PSK-AES128-CBC-SHA
ECDHE-PSK-CHACHA20-POLY1305
ECDHE-PSK-AES256-CBC-SHA
ECDHE-PSK-AES128-CBC-SHA256
ECDHE-PSK-AES128-CBC-SHA
RSA-PSK-AES256-GCM-SHA384
RSA-PSK-CHACHA20-POLY1305
RSA-PSK-AES128-GCM-SHA256
RSA-PSK-AES256-CBC-SHA
RSA-PSK-AES128-CBC-SHA256
RSA-PSK-AES128-CBC-SHA
Document Understanding requiere que SQL Server disponga del componente de búsqueda de texto completo del motor de la base de datos de SQL Server, el cual no siempre se instala de manera predeterminada.
Si no seleccionó este componente durante la instalación de SQL Server, ejecute de nuevo la instalación de SQL Server para añadirlo antes de configurar Document Understanding.
Para obtener más información, consulta esta guía sobre cómo añadir o instalar funciones en SQL Server. También puede consultar aquí todos los componentes que pueden añadirse a SQL Server. Entre ellos, la búsqueda de texto completo.
.json
.
Para Azure SQL, asegúrate de que la base de datos sea objetivo de servicio S3 o superior.
Confirme que el nivel de compatibilidad de la base de datos de Insights sea 130 o superior. En la mayoría de casos, la configuración predeterminada cumple con este requisito. Para obtener más información, consulta Ver o cambiar el nivel de compatibilidad de una base de datos - SQL Server.
La instalación valida ambas condiciones y le alerta si no se cumplen los requisitos mínimos de instalación.
Data Service requiere la versión 2016 o posterior de SQL Server.
Si crea su propia base de datos con la versión 2019 de SQL Server o superior, asegúrese de conceder los siguientes permisos de Data Service a sus usuarios:
GRANT ALTER ANY SENSITIVITY CLASSIFICATION TO {userName};
GRANT VIEW ANY SENSITIVITY CLASSIFICATION TO {userName};
GRANT ALTER ANY SENSITIVITY CLASSIFICATION TO {userName};
GRANT VIEW ANY SENSITIVITY CLASSIFICATION TO {userName};
AutomationSuite_Airflow
.
AutomationSuite_Airflow
, ya que PostgreSQL se ejecuta con las últimas versiones de Apache Airflow. Ejecutar la última versión de Airflow te garantiza el uso de nuevas correcciones de funcionalidad, rendimiento y seguridad.
Si eliges no utilizar una base de datos PostgreSQL y sigues utilizando una base de datos Microsoft SQLServer, Process Mining en Automation Suite se ejecutará con Airflow heredado. Las versiones heredadas de Apache Airflow pueden carecer de correcciones de funcionalidad, rendimiento y seguridad.
AutomationSuite_Airflow
.
AutomationSuite_Airflow
.
Al migrar de Microsoft SQL Server a la base de datos de PostgreSQL, no se requiere la migración de datos. Con una configuración correcta, la base de datos se reconstruye al ejecutar Sync Airflow.
Versiones de PostgreSQL compatibles
Las versiones de PostgreSQL 12.x a 16.x son compatibles. Se recomienda utilizar la versión más reciente de PostgreSQL dentro de este rango para una compatibilidad y un rendimiento óptimos.
Requisitos de hardware
La máquina en la que está instalada la base de datos PostgreSQL para Airflow debe cumplir los siguientes requisitos de hardware.
-
Núcleos: 4
-
Memoria: 16 GiB
-
Almacenamiento: 64 GiB
-
IOPS: >=500 IOPS
Permisos necesarios
El usuario de PostgreSQL Airflow (o cualquier usuario de base de datos dedicado) debe tener
-
Permisos "Todos los privilegios" para la base de datos de Airflow designada.
-
"todas las concesiones" en el esquema público del servidor.
-
"search_path" establecido en "público".
pg_hba.conf
para añadir el usuario de Airflow a la lista de control de acceso a la base de datos y volver a cargar la configuración de la base de datos para aplicar los cambios.
El siguiente código muestra un ejemplo para configurar una base de datos PostgreSQL.
CREATE DATABASE airflow_db
WITH ENCODING 'UTF8'
LC_COLLATE='en_US.UTF-8'
LC_CTYPE='en_US.UTF-8'
TEMPLATE template0;
CREATE USER airflow_user WITH PASSWORD 'airflow_pass';
GRANT ALL PRIVILEGES ON DATABASE airflow_db TO airflow_user;
-- PostgreSQL 15 requires additional privileges:
GRANT ALL ON SCHEMA public TO airflow_user;
CREATE DATABASE airflow_db
WITH ENCODING 'UTF8'
LC_COLLATE='en_US.UTF-8'
LC_CTYPE='en_US.UTF-8'
TEMPLATE template0;
CREATE USER airflow_user WITH PASSWORD 'airflow_pass';
GRANT ALL PRIVILEGES ON DATABASE airflow_db TO airflow_user;
-- PostgreSQL 15 requires additional privileges:
GRANT ALL ON SCHEMA public TO airflow_user;
El siguiente código muestra un ejemplo de validación de codificación de base de datos.
SELECT pg_encoding_to_char(encoding) AS encoding
FROM pg_database
WHERE datname = 'airflow_db';
SELECT pg_encoding_to_char(encoding) AS encoding
FROM pg_database
WHERE datname = 'airflow_db';
Consulta la documentación oficial de Airflow para obtener más información sobre cómo configurar una base de datos PostgreSQL para Airflow.
Puerto de servidor predeterminado
5432
. Si utilizas el agrupador de conexiones PgBouncer, es habitual utilizar el puerto 6432
.
5432
.
Ejemplo de cadena de conexión:
postgresql+psycopg2://testadmin:<password>@test-cu231009v3-postgresql.postgres.database.azure.com:5432/automationsuite_airflow
postgresql+psycopg2://testadmin:<password>@test-cu231009v3-postgresql.postgres.database.azure.com:5432/automationsuite_airflow
Ejemplo de cadena de conexión para utilizar Kerberos:
postgresql+psycopg2://kerberos_user:@kerberospostgres.AUTOSUITEAD.LOCAL:5432/automationsuite_airflow
postgresql+psycopg2://kerberos_user:@kerberospostgres.AUTOSUITEAD.LOCAL:5432/automationsuite_airflow
Cadena de conexión de muestra para usar la identidad administrada:
postgresql+psycopg2://testmanagedidentity:@test-postgresql-1.postgres.database.azure.com/airflow-ci-sfasaksqacu8524745
postgresql+psycopg2://testmanagedidentity:@test-postgresql-1.postgres.database.azure.com/airflow-ci-sfasaksqacu8524745
El puerto del servidor predeterminado puede configurarse para utilizar cualquier puerto disponible según los requisitos de tu sistema.
PgBouncer
Dado que Airflow utiliza conexiones de corta duración, se recomienda encarecidamente configurar PgBouncer. PgBouncer es un agrupador de conexiones ligero para PostgreSQL.
Consulta la documentación oficial de PgBouncer para obtener más información sobre cómo configurar PgBouncer.
Al migrar de Microsoft SQL Server a la base de datos de PostgreSQL, no se requiere la migración de datos. Con una configuración correcta, la base de datos se reconstruye al ejecutar Sync Airflow.
AutomationSuite_Airflow
, Microsoft SQL Server es la única opción disponible para Process Mining en las versiones 2023.10.8 y anteriores de Automation Suite. Para Process Mining en Automation Suite 2023.10.9 o versiones posteriores, se recomienda pasar a PostgreSQL.
AutomationSuite_Airflow
, asegúrate de cumplir los siguientes requisitos.
1433
para las conexiones de la base de datos de Airflow.
No se admiten puertos de servidor SQL no estándar.
Al configurar Microsoft SQL Server, asegúrate de que la zona horaria de la máquina de SQL Server donde está instalada la base de datos de Airflow está establecida en UTC.
AutomationSuite_ProcessMining_Warehouse
para el almacenamiento de datos para las aplicaciones de proceso de Process Mining.
Para garantizar el correcto funcionamiento de Process Mining, se recomienda utilizar Microsoft SQL Server 2022.
AutomationSuite_ProcessMining_Warehouse
.
Para calcular los requisitos de hardware, es necesario tener información del:
- número de eventos (millones) de su proceso.
-
the number of case and event fields in your output data.
Nota: en un entorno de desarrollo, por motivos de rendimiento, se recomienda utilizar un pequeño conjunto de datos de desarrollo con un número limitado de registros.
Puedes utilizar la Calculadora de tamaño de instalación de UiPath Automation Suite para determinar los requisitos de hardware para configurar una máquina de Microsoft SQL Server dedicada para Process Mining. Al añadir Process Mining a la sección Producto, se muestran los requisitos mínimos para 1 SQL Server dedicado.
Consulta Requisitos de hardware para obtener más información.
db_securityadmin
tanto durante como después de la instalación para habilitar la seguridad por aplicación en el SQL Server del almacén de datos de Process Mining. Para obtener más información, consulta la documentación oficial de Microsoft sobre los roles a nivel de base de datos.
Consulta Configurar la seguridad de la aplicación de proceso para obtener más información.
AutomationSuite_Platform
para los servicios Eventos IA y Almacenamiento IA.
-
Antes de iniciar la instalación de Automation Suite, realiza los siguientes pasos:
-
Habilita FIPS 140-2 en la máquina en la que piensas instalar Microsoft Server siguiendo las instrucciones de Microsoft.
-
Instala Microsoft SQL Server en la máquina habilitada para FIPS 140-2.
-
Obtén el certificado de Microsoft SQL Server ejecutando el siguiente comando desde SQL Server o cualquier servidor que pueda conectarse a SQL Server con el nombre de host SQL configurado:
nmap -sV -p <port> -vv --script ssl-cert domain
nmap -sV -p <port> -vv --script ssl-cert domain
-
-
Durante la instalación de Automation Suite, realiza los siguientes pasos:
-
Añade los siguientes valores a la cadena de conexión
sql_connection_string_template_jdbc
de AI Center en el archivocluster_config.json
:encrypt=true;trustServerCertificate=false;fips=true;
.Ejemplo:
jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net:1433;database=DB_NAME_PLACEHOLDER;user=testadmin;password=***;encrypt=true;trustServerCertificate=false;fips=true;Connection Timeout=30;hostNameInCertificate=sfdev1804627-c83f074b-sql.database.windows.net"
jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net:1433;database=DB_NAME_PLACEHOLDER;user=testadmin;password=***;encrypt=true;trustServerCertificate=false;fips=true;Connection Timeout=30;hostNameInCertificate=sfdev1804627-c83f074b-sql.database.windows.net"Para obtener más detalles sobre la configuración de la base de datos, consulta Experiencia de instalación avanzada y Actualizar la base de datos SQL.
-
Añade el certificado exportado del paso 1.c. al almacén de confianza de la máquina host. Para obtener más detalles, consulta Actualizar los certificados de AC.
-
Para una configuración de alta disponibilidad de SQL Server, seleccione un grupo de disponibilidad AlwaysOn. Para obtener más información, consulta información general de los grupos de disponibilidad AlwaysOn.
READ_COMMITTED_SNAPSHOT
esté establecida en ON
.
READ_COMMITTED_SNAPSHOT
está habilitado o deshabilitado:
SELECT is_read_committed_snapshot_on FROM sys.databases
WHERE name= 'UiPath'
SELECT is_read_committed_snapshot_on FROM sys.databases
WHERE name= 'UiPath'
1
.
0
. Utiliza esta consulta para habilitarlo:
ALTER DATABASE UiPath
SET READ_COMMITTED_SNAPSHOT ON
ALTER DATABASE UiPath
SET READ_COMMITTED_SNAPSHOT ON
READ_COMMITTED_SNAPSHOT
debe estar habilitado también en ellas.
- Bases de datos
- Intercalación SQL
- Permisos
- Cifrados del servidor SQL
- Requisitos SQL para la búsqueda de texto completo
- Requisitos de SQL para Insights
- SQL requirements for Data Service
- SQL requirements for Process Mining
AutomationSuite_Airflow
Base de datos PostgreSQLAutomationSuite_Airflow
Base de datos de Microsoft SQL ServerAutomationSuite_ProcessMining_Warehouse
Base de datos- Requisitos de SQL para AI Center
- Requisitos para AI Center conectado a un Orchestrator externo
- Requisitos para AI Center instalado en una máquina habilitada para FIPS 140-2
- SQL requirements for HA
- Requisitos de SQL para Orchestrator