- Vue d'ensemble (Overview)
- Prérequis
- Modèles de déploiement
- Manuel : Préparation de l'installation
- Manuel : Préparation de l'installation
- Étape 2 : configurer le registre compatible OCI pour les installations hors ligne
- Étape 3 : configurer le magasin d’objets externe
- Étape 4 : Configuration de High Availability Add-on
- Étape 5 : configurer les bases de données SQL
- Étape 7 : configurer le DNS
- Étape 8 : configuration des disques
- Étape 9 : configurer les paramètres au niveau du noyau et du système d’exploitation
- Étape 10 : configuration des ports de nœud
- Étape 11 : appliquer divers paramètres
- Étape 12 : Valider et installer les packages RPM requis
- Exemple Cluster_config.json
- Configuration générale
- Configuration du profil
- Configuration du certificat
- Configuration de la base de données
- Configuration du magasin d'objets externe
- Configuration d'URL pré-signée
- Configuration d'ArgoCD
- Configuration de l'authentification Kerberos
- Configuration du registre externe compatible OCI
- Disaster Recovery : configurations actif/passif et actif/actif
- Configuration de High Availability Add-on
- Configuration spécifique à Orchestrator
- Configuration spécifique à Insights
- Configuration spécifique à Process Mining
- Configuration spécifique à Document Understanding
- Configuration spécifique à Automation Suite Robots
- Configuration spécifique à AI Center
- Configuration de la surveillance
- Facultatif : configuration du serveur proxy
- Facultatif : Activation de la résilience aux échecs locaux dans un cluster en mode production multi-nœuds compatible haute disponibilité
- Facultatif : Transmettre le fichier personnalisé resolv.conf
- Facultatif : augmentation de la tolérance aux pannes
- Ajout d'un nœud d'agent dédié avec prise en charge GPU
- Ajout d'un nœud d'agent dédié pour les Automation Suite Robots
- Étape 15 : configuration du registre Docker temporaire pour les installations hors ligne
- Étape 16 : validation des prérequis de l’installation
- Manuel : Exécution de l'installation
- Post-installation
- Administration du cluster
- Gestion des produits
- Premiers pas avec le portail d'administration du cluster
- Migration de Redis de High Availability Add-on externe vers un une version externe de High Availability Add-on
- Migration des données entre les librairies
- Migration d'un magasin d'objets intégré au cluster vers un magasin d'objets externe
- Migration du registre intégré au cluster vers un registre externe compatible OCI
- Basculer manuellement vers le cluster secondaire dans une configuration actif/passif
- Disaster Recovery : exécution d'opérations post-installation
- Conversion d'une installation existante en configuration multi-sites
- Recommandations pour mettre à niveau un déploiement actif/passif ou actif/actif
- Recommandations pour sauvegarder et restaurer un déploiement actif/passif ou actif/actif
- Mise à l'échelle d'un déploiement à nœud unique (évaluation) vers un déploiement multi-nœuds (HA)
- Surveillance et alerte
- Migration et mise à niveau
- Migration entre les clusters Automation Suite
- Mettre à niveau Automation Suite
- Téléchargement des packages d'installation et obtention de l'ensemble des fichiers sur le premier nœud de serveur
- Récupération de la dernière configuration appliquée à partir du cluster
- Mise à jour de la configuration du cluster
- Configuration du registre compatible OCI pour les installations hors ligne
- Exécution de la mise à niveau
- Exécution d'opérations post-mise à niveau
- Configuration spécifique au produit
- Configuration des paramètres d'Orchestrator
- Configuration des paramètres d'application
- Configuration de la taille maximale de la requête
- Remplacement de la configuration du stockage au niveau du cluster
- Configuration de NLog
- Enregistrement des journaux du robot dans Elasticsearch
- Configuration des magasins d'informations d'identification
- Configuration de la clé de chiffrement par locataire
- Nettoyer la base de données Orchestrator
- Rotation des informations d’identification de stockage d’objets blob
- Désactivation de l'utilisation d'URL pré-signées lors du téléchargement de données vers le stockage Amazon S3
- Configuration de la sécurité de l'application de processus
- Configurer une authentification Kerberos avec l’authentification MSSQL de base pour Process Mining
- Bonnes pratiques et maintenance
- Résolution des problèmes
- Comment résoudre les problèmes des services lors de l'installation
- Comment désinstaller le cluster
- Comment nettoyer les artefacts hors ligne pour améliorer l'espace disque
- Comment effacer les données Redis
- Comment activer la journalisation Istio
- Comment nettoyer manuellement les journaux
- Comment nettoyer les anciens journaux stockés dans le compartiment sf-logs
- Comment désactiver les journaux de diffusion pour AI Center
- Comment déboguer les installations d'Automation Suite ayant échoué
- Comment supprimer des images de l’ancien programme d’installation après la mise à niveau
- Comment désactiver le déchargement de la somme de contrôle txt
- Comment définir manuellement le niveau de journalisation d’ArgoCD sur Info
- Comment augmenter le stockage d’AI Center
- Comment générer la valeur pull_secret_value encodée pour les registres externes
- Comment résoudre les chiffrements faibles dans TLS 1.2
- Comment vérifier la version TLS
- Comment travailler avec les certificats
- Comment planifier la sauvegarde et la restauration des données Ceph
- Comment collecter les données d'utilisation de DU avec le magasin d'objets intégré au cluster (Ceph)
- Comment installer RKE2 SELinux dans des environnements isolés
- How to clean up old differential backups on an NFS server
- Erreur lors du téléchargement du bundle
- L'installation hors ligne échoue en raison d'un fichier binaire manquant
- Problème de certificat dans l'installation hors ligne
- Erreur de validation de la chaîne de connexion SQL
- Disque Azure non marqué comme SSD
- Échec après la mise à jour du certificat
- L'antivirus provoque des problèmes d'installation
- Automation Suite ne fonctionne pas après la mise à niveau du système d'exploitation
- Automation Suite requiert que backlog_wait_time soit défini sur 0
- L'installation du registre temporaire échoue sur RHEL 8.9
- Problème de redémarrage fréquent dans les déploiements d'espace de noms uipath lors des installations hors ligne
- Paramètres DNS non respectés par CoreDNS
- Échec de la mise à niveau en raison d’un Ceph défectueux
- RKE2 ne démarre pas en raison d'un problème d'espace
- La mise à niveau échoue en raison d’objets classiques dans la base de données Orchestrator
- Cluster Ceph trouvé dans un état dégradé après une mise à niveau côte à côte
- La mise à niveau du service échoue pour Apps
- Délais d'attente de mise à niveau sur place
- La mise à niveau échoue dans les environnements hors ligne
- Le pod d'instantané-contrôleur-crds dans l'état CrashLoopBackOff après la mise à niveau
- La mise à niveau échoue en raison du remplacement des tailles de PVC Insights
- Définition d'un délai d'expiration pour les portails de gestion
- L'authentification ne fonctionne pas après la migration
- kinit : Impossible de trouver le KDC pour le domaine <AD Domain> lors de l'obtention des informations d'identification initiales
- Kinit : Keytab ne contient aucune clé appropriée pour *** lors de l'obtention des informations d'identification initiales
- L'opération GSSAPI a échoué en raison d'un code de statut non valide
- Alarme reçue pour l'échec de la tâche Kerberos-tgt-update
- Fournisseur SSPI : serveur introuvable dans la base de données Kerberos
- La connexion a échoué pour l'utilisateur AD en raison d'un compte désactivé
- Échec de connexion à ArgoCD
- Mettre à jour les connexions du répertoire sous-jacent
- Impossible d'obtenir l'image du bac à sable
- Les pods ne s'affichent pas dans l'interface utilisateur ArgoCD
- Échec de la sonde Redis
- Le serveur RKE2 ne démarre pas
- Secret introuvable dans l'espace de noms UiPath
- ArgoCD passe à l'état Progression (Progressing) après la première installation
- Métriques Ceph-rook manquantes dans les tableaux de bord de surveillance
- Discordance dans les erreurs signalées lors des vérifications de l'intégrité des diagnostics
- Aucun problème sain en amont
- Redis startup blocked by antivirus
- Document Understanding n'est pas affiché sur la barre de gauche d'Automation Suite
- État Échec (Failed) lors de la création d'une session de labellisation des données
- État Échec (Failed) lors de la tentative de déploiement d'une compétence ML
- La tâche de migration échoue dans ArgoCD
- La reconnaissance de l'écriture manuscrite avec l'Extracteur de formulaires intelligents (Intelligent Form Extractor) ne fonctionne pas
- Exécution de la haute disponibilité avec Process Mining
- Échec de l’ingestion de Process Mining lors de la connexion à l’aide de Kerberos
- Impossible de se connecter à la base de données AutomationSuite_ProcessMining_Authentication à l'aide d'une chaîne de connexion au format pyodbc
- L'installation d'airflow échoue avec sqlalchemy.exc.ArgumentError: impossible d'analyser l'URL rfc1738 de la chaîne ''
- Comment ajouter une règle de table d'adresse IP pour utiliser le port SQL Server 1433
- Le certificat Automation Suite n'est pas approuvé depuis le serveur sur lequel CData Sync est en cours d'exécution
- Exécution de l'outil de diagnostic
- Utilisation du pack d'assistance Automation Suite
- Explorer les journaux
- Explorer la télémétrie résumée

Guide d'installation d'Automation Suite sur Linux
- Seul le pilote Microsoft ODBC 17 est pris en charge.
- Automation Suite versions 2.2510.0 and higher are compatible with SQL versions 2019 and higher.
Chaque produit d'Automation Suite nécessite sa propre base de données SQL avec ses spécifications correspondantes.
Par défaut, le programme d'installation créera toutes les bases de données pour vous lors du processus d'installation. Vous devez fournir les autorisations nécessaires pour que le programme d'installation puisse le faire sur votre serveur SQL.
Vous avez également la possibilité de créer vos propres bases de données. Référez-vous au tableau suivant pour les noms que vous devez utiliser.
Si vous choisissez d’apporter vos propres bases de données dans le cadre d’une nouvelle installation Automation Suite, nous vous recommandons fortement de créer de nouvelles bases de données plutôt que d’utiliser les bases existantes. Cette précaution est nécessaire afin d’éviter tout conflit avec le fonctionnement d’Automation Suite qui pourrait être provoqué par la présence de métadonnées relatives à d’anciennes bases de données.
Le tableau suivant répertorie les noms de bases de données et leur format correspondant.
|
Produit/service |
Nom de la base de données par défaut |
Format de chaîne de connexion |
|---|---|---|
|
Capacités partagées des plates-formes |
| |
|
Orchestrator |
| |
|
Action Center |
| |
|
Robots Automation Suite |
| |
|
Automation Hub |
| |
| Automation Ops | AutomationSuite_Platform | ADO.NET |
|
Data Service |
| |
|
Insights |
| |
|
Test Manager |
| |
|
AI Center |
| |
|
Apps | AutomationSuite_Apps1 | ODBC |
|
Document Understanding |
| |
|
Process Mining2 |
AutomationSuite_ProcessMining_Warehouse3AutomationSuite_Airflow4 | |
| Solutions |
|
#{.
2To minimize latency issues, it is strongly recommended to deploy the Process Mining databases in the same region as the compute resource (Kubernetes cluster).
AutomationSuite_ProcessMining_Warehouse uses both ADO.NET and PYODBC formats.
AutomationSuite_Airflow PostgreSQL database uses SQLAlchemy connection string format. The connection to the AutomationSuite_Airflow database can not begin with a { character.
Si vous définissez manuellement les chaînes de connexion dans le fichier de configuration, vous pouvez échapper les mots de passe SQL, JDBC ou ODBC comme suit :
- pour SQL : ajoutez
'au début et à la fin du mot de passe, et doublez tout autre'. - pour JDBC/ODBC : ajoutez
{au début du mot de passe et}à la fin, et doublez tout autre}.
Vous pouvez utiliser les bases de données dans un pool Elastic pour une meilleure rentabilité.
SQL_Latin1_General_CP1_CI_AS au niveau du serveur et de la base de données. Pour des performances et une stabilité optimales, nous recommandons fortement d’utiliser cette configuration.
Bien que vous ayez la possibilité d’utiliser le classement de votre choix, sachez que des configurations non testées sont susceptibles d’entraîner des problèmes inattendus.
Nous vous déconseillons d'utiliser SQL binaire ou tout classement sensible à la casse, car ils provoquent des problèmes connus lors de l'installation d'Automation Suite.
dbcreator au compte SQL utilisé pour se connecter à la base de données.
db_owner pour toutes les bases de données Automation Suite.
db_owner, le compte SQL doit avoir les rôles et autorisations suivants sur toutes les bases de données (la seule exception est Insights qui nécessite toujours db_owner).
db_securityadmindb_ddladmindb_datawriterdb_datareader- Autorisation
EXECUTEsur le schéma dbo
db_securityadmin et db_ddladmin lors de l'installation, ou bien si les bases de données sont réenregistrées. Vous avez donc la possibilité de révoquer ces autorisations ultérieurement.
Seuls les chiffrements SQL répertoriés sont pris en charge dans Automation Suite :
TLS_AES_256_GCM_SHA384TLS_ChaCha20_PoLy1305_SHA256TLS_AES_128_GCM_SHA256TLS_AES_128_CCM_SHA256ECDHE-ECDSA-AES256-GCM-SHA384ECDHE-RSA-AES256-GCM-SHA384ECDHE-ECDSA-ChaCha20-PoLy1305ECDHE-RSA-ChaCha20-PoLy1305ECDHE-ECDSA-AES256-CCMECDHE-ECDSA-AES128-GCM-SHA256ECDHE-RSA-AES128-GCM-SHA256ECDHE-ECDSA-AES128-CCMECDHE-ECDSA-AES128-SHA256ECDHE-RSA-AES128-SHA256ECDHE-ECDSA-AES256-SHAECDHE-RSA-AES256-SHAECDHE-ECDSA-AES128-SHAECDHE-RSA-AES128-SHAAES256-GCM-SHA384AES 256-CCMAES128-GCM-SHA256AES128-CCMAES256-SHA256AES128-SHA256AES256-SHAAES128-SHADHE-RSA-AES256-GCM-SHA384DHE-RSA-ChaCha20-Poly1305DHE-RSA-AES256-CCDHE-RSA-AES128-GCM-SHA256DHE-RSA-AES128-CCMDHE-RSA-AES256-SHA256DHE-RSA-AES128-SHA256DHE-RSA-AES256-SHADHE-RSA-AES128-SHAPSK-AES256-GCM-SHA384PSK-ChaCha20-PoLy1305PSK-AES256-CCMPSK-AES128-GCM-SHA256PSK-AES128-CCMPSK-AES256-CBC-SHAPSK-AES128-CBC-SHA256PSK-AES128-CBC-SHADHE-PSK-AES256-GCM-SHA384DHE-PSK-ChaCha20-Poly1305DHE-PSK-AES256-CCMDHE-PSK-AES128-GCM-SHA256DHE-PSK-AES128-CCMDHE-PSK-AES256-CBC-SHADHE-PSK-AES128-CBC-SHA256DHE-PSK-AES128-CBC-SHAECDHE-PSK-ChaCha20-Poly1305ECDHE-PSK-AES256-CBC-SHAECDHE-PSK-AES128-CBC-SHA256ECDHE-PSK-AES128-CBC-SHARSA-PSK-AES256-GCM-SHA384RSA-PSK-ChaCha20-Poly1305RSA-PSK-AES128-GCM-SHA256RSA-PSK-AES256-CBC-SHARSA-PSK-AES128-CBC-SHA256RSA-PSK-AES128-CBC-SHA
Document Understanding nécessite que SQL Server dispose du composant de recherche en texte intégral du moteur de base de données SQL Server, qui n'est pas toujours installé par défaut.
Si vous n'avez pas sélectionné la recherche en texte intégral lors de l'installation de SQL Server, exécutez à nouveau le programme d'installation de SQL Server pour l'ajouter avant de configurer Document Understanding.
Pour plus d'informations, consultez ce guide sur la façon d'ajouter/d'installer des fonctionnalités sur le serveur SQL. Vous pouvez également vérifier ici tous les composants qui peuvent être ajoutés au serveur SQL, qui comprend également la recherche en texte intégral.
.json . SQL Server Enterprise est recommandé en raison d'un threading et d'une évolutivité plus efficaces.
Pour Azure SQL, assurez-vous que la base de données correspond à l'objectif de service S3 ou plus.
Assurez-vous que le niveau de compatibilité de la base de données Insights est défini sur 130 ou plus. Dans la plupart des cas, les paramètres par défaut répondent à cette exigence. Pour plus d'informations, reportez-vous à Afficher ou modifier le niveau de compatibilité d'une base de données - SQL Server (View or Change the Compatibility level of a Database - SQL Server).
L'installation valide les deux conditions et vous avertit si les exigences minimales ne sont pas remplies.
Data Service nécessite un serveur SQL de version 2016 ou ultérieure.
Si vous créez votre propre base de données à l'aide du serveur SQL version 2019 ou ultérieure, veillez à accorder les autorisations Data Service suivantes à vos utilisateurs :
GRANT ALTER ANY SENSITIVITY CLASSIFICATION TO {userName};
GRANT VIEW ANY SENSITIVITY CLASSIFICATION TO {userName};GRANT ALTER ANY SENSITIVITY CLASSIFICATION TO {userName};
GRANT VIEW ANY SENSITIVITY CLASSIFICATION TO {userName};AutomationSuite_Airflow.
AutomationSuite_Airflow database.
AutomationSuite_Airflow Base de données PostgreSQL
AutomationSuite_Airflow. The PostgreSQL database for Airflow will not be created automatically by the installer.
Lors de la migration de Microsoft SQL Server vers PostgreSQL, la migration des données de la base de données n'est pas requise. Avec une configuration de configuration correcte, la base de données est reconstruite lors de l'exécution de Sync Airflow.
Versions de PostgreSQL prises en charge
Les versions 12.x à 16.x de PostgreSQL sont prises en charge. Il est recommandé d'utiliser la version la plus récente de PostgreSQL dans cette plage pour une compatibilité et des performances optimales.
Prérequis matériels
La machine sur laquelle la base de données PostgreSQL pour Airflow est installée doit répondre aux exigences matérielles suivantes.
-
Cœurs : 4
-
Mémoire : 16 Gio
-
Storage: 128 GiB
-
IOPS : >=500 IOPS
Autorisations requises
L’utilisateur PostgreSQL Airflow (ou tout utilisateur de base de données dédié) doit avoir
-
Autorisations « Tous les privilèges » (All Privileges) pour la base de données Airflow désignée.
-
« toutes les autorisations » sur le schéma public du serveur.
-
« search_path » est défini sur « public ».
pg_hba.conf pour ajouter l'utilisateur Airflow à la liste de contrôle d'accès à la base de données et recharger la configuration de la base de données pour appliquer les modifications.
CREATE DATABASE airflow_db
WITH ENCODING 'UTF8'
LC_COLLATE='en_US.UTF-8'
LC_CTYPE='en_US.UTF-8'
TEMPLATE template0;
CREATE USER airflow_user WITH PASSWORD 'airflow_pass';
GRANT ALL PRIVILEGES ON DATABASE airflow_db TO airflow_user;
-- PostgreSQL 15 requires additional privileges:
GRANT ALL ON SCHEMA public TO airflow_user;CREATE DATABASE airflow_db
WITH ENCODING 'UTF8'
LC_COLLATE='en_US.UTF-8'
LC_CTYPE='en_US.UTF-8'
TEMPLATE template0;
CREATE USER airflow_user WITH PASSWORD 'airflow_pass';
GRANT ALL PRIVILEGES ON DATABASE airflow_db TO airflow_user;
-- PostgreSQL 15 requires additional privileges:
GRANT ALL ON SCHEMA public TO airflow_user;
SELECT pg_encoding_to_char(encoding) AS encoding
FROM pg_database
WHERE datname = 'airflow_db';SELECT pg_encoding_to_char(encoding) AS encoding
FROM pg_database
WHERE datname = 'airflow_db';Reportez-vous à la documentation officielle de Airflow pour plus d'informations sur la configuration d'une base de données PostgreSQL pour Airflow.
Port du serveur par défaut
5432. Si vous utilisez le pooler de connexion PgBounder, il est courant d'utiliser le port 6432.
5432.
Exemple de chaîne de connexion :
postgresql+psycopg2://testadmin:<password>@test-cu231009v3-postgresql.postgres.database.azure.com:5432/automationsuite_airflowpostgresql+psycopg2://testadmin:<password>@test-cu231009v3-postgresql.postgres.database.azure.com:5432/automationsuite_airflowpostgresql+psycopg2://kerberos_user:@kerberospostgres.AUTOSUITEAD.LOCAL:5432/automationsuite_airflowpostgresql+psycopg2://kerberos_user:@kerberospostgres.AUTOSUITEAD.LOCAL:5432/automationsuite_airflowpostgresql+psycopg2://testmanagedidentity:@test-postgresql-1.postgres.database.azure.com/airflow-ci-sfasaksqacu8524745postgresql+psycopg2://testmanagedidentity:@test-postgresql-1.postgres.database.azure.com/airflow-ci-sfasaksqacu8524745Le port de serveur par défaut peut être configuré pour utiliser n'importe quel port disponible selon les exigences de votre système.
LanceurPg
Étant donné que Airflow utilise des connexions de courte durée, il est fortement recommandé de configurer PgBounder. PgBounder est un pooler de connexions léger pour PostgreSQL.
Reportez-vous à la documentation officielle de PgBounder pour plus d'informations sur la configuration de PgBounder.
Lors de la migration de Microsoft SQL Server vers PostgreSQL, la migration des données de la base de données n'est pas requise. Avec une configuration de configuration correcte, la base de données est reconstruite lors de l'exécution de Sync Airflow.
AutomationSuite_ProcessMining_Warehouse Base de données
AutomationSuite_ProcessMining_Warehouse afin de stocker les données des applications de processus Process Mining.
Pour assurer un bon fonctionnement de Process Mining, il est recommandé d'utiliser Microsoft SQL Server 2022.
AutomationSuite_ProcessMining_Warehouse.
Pour calculer la configuration matérielle requise, vous devez disposer des éléments suivants :
- le nombre de (millions) d'événements dans votre processus.
-
le nombre de champs d'incident et d'événement dans vos données de sortie.
Remarque : dans un environnement de développement, pour des raisons de performances, il est recommandé de travailler sur un petit ensemble de données de développement avec un nombre limité d'enregistrements.
Vous pouvez utiliser le calculateur de dimensionnement d'installation d'UiPath Automation Suite pour déterminer la configuration matérielle requise en vue de configurer une machine Microsoft SQL Server dédiée pour Process Mining. Lorsque vous ajoutez Process Mining à la section Produit (Product), la configuration minimale requise pour une machine SQL Server dédiée s'affiche.
Reportez-vous à la configuration matérielle requise pour plus d'informations.
db_securityadmin pendant et après l’installation pour activer la sécurité par application sur le serveur SQL de l’entrepôt de données Process Mining. Pour plus de détails, consultez la documentation officielle de Microsoft sur les rôles de niveau base de données.
Reportez-vous à Configuration de la sécurité de l'application de processus pour plus d'informations.
Il est recommandé d'activer la sensibilité à la casse dans les noms de tables et de colonnes à l'aide de la commande suivante :
ALTER DATABASE AutomationSuite_ProcessMining_Warehouse COLLATE SQL_Latin1_General_CP1_CS_AS
Cela permet d'éviter les erreurs lors du chargement de données causées par des colonnes possédant des noms similaires, telles que ID et id. Elle garantit également que les valeurs textuelles qui ne diffèrent que par le biais d’une casse sont traitées comme distincts. Par exemple :
« Activité 1 » == « Activité 1 »'Activité 1' != 'Activité 1'
Exigences pour AI Center connecté à une installation Orchestrator externe
AutomationSuite_Platform pour les services AI Events et AI Storage.
Exigences pour AI Center installé sur une machine compatible FIPS 140-2
-
Avant de commencer l'installation d'Automation Suite, procédez comme suit :
-
Activez FIPS 140-2 sur la machine sur laquelle vous prévoyez d'installer Microsoft Server en suivant les instructions de Microsoft.
-
Installez le serveur Microsoft SQL sur la machine compatible FIPS 140-2.
-
Obtenez le certificat Microsoft SQL Server en exécutant la commande suivante à partir de SQL Server ou de tout serveur pouvant se connecter au serveur SQL avec le nom d'hôte SQL configuré :
nmap -sV -p <port> -vv --script ssl-cert domainnmap -sV -p <port> -vv --script ssl-cert domain
-
-
Lors de l'installation d'Automation Suite, procédez comme suit :
-
Ajoutez les valeurs suivantes à la chaîne de connexion
sql_connection_string_template_jdbcd'AI Center dans le fichiercluster_config.json:encrypt=true;trustServerCertificate=false;fips=true;.Exemple :
jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net:1433;database=DB_NAME_PLACEHOLDER;user=testadmin;password=***;encrypt=true;trustServerCertificate=false;fips=true;Connection Timeout=30;hostNameInCertificate=sfdev1804627-c83f074b-sql.database.windows.net"jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net:1433;database=DB_NAME_PLACEHOLDER;user=testadmin;password=***;encrypt=true;trustServerCertificate=false;fips=true;Connection Timeout=30;hostNameInCertificate=sfdev1804627-c83f074b-sql.database.windows.net"Pour plus de détails sur la configuration de la base de données, voir Expérience d'installation avancée et Mise à jour de la base de données SQL.
-
Ajoutez le certificat exporté de l'étape 1.c. au magasin approuvé de la machine hôte. Pour plus de détails, consultez Mise à jour des certificats CA.
-
Pour une configuration haute disponibilité du serveur SQL, sélectionnez un groupe de disponibilité Toujours activé (Always On). Pour plus d'informations, consultez Présentation des groupes de disponibilité Toujours activé (Always On).
READ_COMMITTED_SNAPSHOT est définie sur ON.
READ_COMMITTED_SNAPSHOT est activé ou désactivé :
SELECT is_read_committed_snapshot_on FROM sys.databases
WHERE name like 'PLACEHOLDER'SELECT is_read_committed_snapshot_on FROM sys.databases
WHERE name like 'PLACEHOLDER' Assurez-vous de remplacer PLACEHOLDER par le nom de votre base de données Orchestrator.
1.
0. Utilisez cette requête pour l'activer :
ALTER DATABASE PLACEHOLDER
SET READ_COMMITTED_SNAPSHOT ONALTER DATABASE PLACEHOLDER
SET READ_COMMITTED_SNAPSHOT ONREAD_COMMITTED_SNAPSHOT doit également être activé sur celles-ci.
- Bases de données
- Classement SQL
- Autorisations
- Chiffrements de SQL server
- Exigences SQL pour la recherche en texte intégral
- Exigences SQL pour Insights
- Exigences SQL pour Data Service
- Exigences SQL pour Process Mining
AutomationSuite_AirflowBase de données PostgreSQLAutomationSuite_ProcessMining_WarehouseBase de données- Exigences SQL pour AI Center
- Exigences pour AI Center connecté à une installation Orchestrator externe
- Exigences pour AI Center installé sur une machine compatible FIPS 140-2
- Exigences SQL pour la haute disponibilité (HA)
- Exigences SQL pour Orchestrator