- Vue d'ensemble (Overview)
- Prérequis
- Installation
- Questions et réponses : modèles de déploiement
- Configuration des machines
- Configuration du magasin d'objets externe
- Configuration d'un registre Docker externe
- Configurer l'équilibreur de charge
- Configuration du DNS
- Configuration de Microsoft SQL Server
- Configuration des certificats
- Installation de production en ligne multi-nœuds compatible haute disponibilité
- Installation de production hors ligne multi-nœuds compatible haute disponibilité
- Disaster Recovery - Installation du cluster secondaire
- Téléchargement des packages d'installation
- install-uipath.sh parameters
- Activation du module complémentaire Redis High Availability Add-on pour le cluster
- Fichier de configuration de Document Understanding
- Ajout d'un nœud d'agent dédié avec prise en charge GPU
- Ajout d'un nœud d'agent dédié pour Task Mining
- Connexion de l'application Task Mining
- Ajout d'un nœud d'agent dédié pour les Automation Suite Robots
- Post-installation
- Administration du cluster
- Gestion des produits
- Premiers pas avec le portail d'administration du cluster
- Migration d'un magasin d'objets d'un volume persistant vers des disques bruts
- Migration des données entre les librairies
- Migration d'un magasin d'objets intégré au cluster vers un magasin d'objets externe
- Basculer vers le cluster secondaire
- Disaster Recovery : exécution d'opérations post-installation
- Conversion d'une installation existante en configuration multi-sites
- Directives sur la mise à niveau d'un déploiement actif/passif
- Directives pour la sauvegarde et la restauration d'un déploiement actif/passif
- Surveillance et alerte
- Migration et mise à niveau
- Chemins de mise à niveau Automation Suite
- Automatisée : mise à niveau en ligne
- Automatisée : mise à niveau hors ligne
- Manuel : mise à niveau en ligne
- Manuel : mise à niveau hors ligne
- Annulation en cas d'erreur
- Migration d'un disque physique Longhorn vers LVM
- Migration de Canal vers Cilium CNI
- Rétrogradation de Ceph de la version 16.2.6 à la version 15.2.9
- Options de migration :
- Étape 1 : Déplacement des données d'organisation Identity d'installation autonome vers Automation Suite
- Étape 2 : Restauration de la base de données du produit autonome
- Étape 3 : Sauvegarder la base de données de la plate-forme dans Automation Suite
- Étape 4 : Fusion des organisations dans Automation Suite
- Étape 5 : Mise à jour des chaînes de connexion du produit migré
- Étape 6 : migration de la version autonome d’Insights
- Étape 7 : suppression du locataire par défaut
- B) Migration à locataire unique
- Configuration spécifique au produit
- Rotation des informations d’identification de stockage d’objets blob
- Désactivation de l'utilisation d'URL pré-signées lors du téléchargement de données vers le stockage Amazon S3
- Configuration de la sécurité de l'application de processus
- Configurer une authentification Kerberos avec l’authentification MSSQL de base pour Process Mining
- Bonnes pratiques et maintenance
- Résolution des problèmes
- Comment résoudre les problèmes des services lors de l'installation
- Comment désinstaller le cluster
- Comment nettoyer les artefacts hors ligne pour améliorer l'espace disque
- Comment effacer les données Redis
- Comment activer la journalisation Istio
- Comment nettoyer manuellement les journaux
- Comment nettoyer les anciens journaux stockés dans le bundle sf-logs
- Comment désactiver les journaux de diffusion pour AI Center
- Comment déboguer les installations d'Automation Suite ayant échoué
- Comment supprimer des images de l’ancien programme d’installation après la mise à niveau
- Comment nettoyer automatiquement les instantanés Longhorn
- Comment désactiver le déchargement de la somme de contrôle txt
- Comment définir manuellement le niveau de journalisation d’ArgoCD sur Info
- Comment générer la valeur pull_secret_value encodée pour les registres externes
- Comment résoudre les chiffrements faibles dans TLS 1.2
- Impossible d'exécuter une installation hors ligne sur le système d'exploitation RHEL 8.4
- Erreur lors du téléchargement du bundle
- L'installation hors ligne échoue en raison d'un fichier binaire manquant
- Problème de certificat dans l'installation hors ligne
- La première installation échoue lors de la configuration de Longhorn
- Erreur de validation de la chaîne de connexion SQL
- Échec de la vérification des prérequis pour le module selinux iscsid
- Disque Azure non marqué comme SSD
- Échec après la mise à jour du certificat
- L'antivirus provoque des problèmes d'installation
- Automation Suite ne fonctionne pas après la mise à niveau du système d'exploitation
- Automation Suite requiert que backlog_wait_time soit défini sur 0
- Nœud GPU affecté par l'indisponibilité des ressources
- Volume impossible à monter car il n'est pas prêt pour les charges de travail
- Échec de la mise à niveau du nœud unique à l’étape Fabric
- Cluster défectueux après la mise à niveau automatisée à partir de la version 2021.10
- Échec de la mise à niveau en raison d’un Ceph défectueux
- RKE2 ne démarre pas en raison d'un problème d'espace
- Échec de la validation SQL lors de la mise à niveau
- Échec du chargement ou du téléchargement des données dans l'objectstore
- Le redimensionnement de la PVC ne répare pas Ceph
- Échec du redimensionnement du PVC
- Échec du redimensionnement du PVC objectstore
- Rook Ceph ou pod Looker bloqué dans l'état Init
- Erreur de pièce jointe du volume Ensembles d'états.
- Échec de la création de volumes persistants
- Correctif de récupération du stockage
- La sauvegarde a échoué en raison de l’erreur TropInstantanés (TooManySnapshots)
- Toutes les répliques Longhorn sont défaillantes
- Définition d'un délai d'expiration pour les portails de gestion
- Mettre à jour les connexions du répertoire sous-jacent
- L'authentification ne fonctionne pas après la migration
- kinit : Impossible de trouver le KDC pour le domaine <AD Domain> lors de l'obtention des informations d'identification initiales
- Kinit : Keytab ne contient aucune clé appropriée pour *** lors de l'obtention des informations d'identification initiales
- L'opération GSSAPI a échoué en raison d'un code de statut non valide
- Alarme reçue pour l'échec de la tâche Kerberos-tgt-update
- Fournisseur SSPI : serveur introuvable dans la base de données Kerberos
- La connexion a échoué pour l'utilisateur AD en raison d'un compte désactivé
- Échec de connexion à ArgoCD
- Impossible d'obtenir l'image du bac à sable
- Les pods ne s'affichent pas dans l'interface utilisateur ArgoCD
- Échec de la sonde Redis
- Le serveur RKE2 ne démarre pas
- Secret introuvable dans l'espace de noms UiPath
- ArgoCD passe à l'état Progression (Progressing) après la première installation
- Problèmes d'accès au compte ArgoCD en lecture seule
- Pods MongoDB en mode CrashLoopBackOff ou enregistrement PVC en attente après suppression
- Services défectueux après la restauration ou l'annulation du cluster
- Pods bloqués dans Init:0/X
- Prometheus en état CrashloopBackoff avec erreur de mémoire insuffisante (OOM)
- Métriques Ceph-rook manquantes dans les tableaux de bord de surveillance
- Document Understanding n'est pas affiché sur la barre de gauche d'Automation Suite
- État Échec (Failed) lors de la création d'une session de labellisation des données
- État Échec (Failed) lors de la tentative de déploiement d'une compétence ML
- La tâche de migration échoue dans ArgoCD
- La reconnaissance de l'écriture manuscrite avec l'Extracteur de formulaires intelligents (Intelligent Form Extractor) ne fonctionne pas
- Exécution de la haute disponibilité avec Process Mining
- Échec de l’ingestion de Process Mining lors de la connexion à l’aide de Kerberos
- Impossible de se connecter à la base de données AutomationSuite_ProcessMining_Authentication à l'aide d'une chaîne de connexion au format pyodbc
- L'installation d'airflow échoue avec sqlalchemy.exc.ArgumentError: impossible d'analyser l'URL rfc1738 de la chaîne ''
- Comment ajouter une règle de table d'adresse IP pour utiliser le port SQL Server 1433
- Utilisation de l'outil de diagnostic d'Automation Suite
- Utilisation de l'outil Automation Suite Support Bundle
- Explorer les journaux
Manuel : Expérience d'installation avancée
cluster_config.json
définit les paramètres et préférences appliqués aux produits UiPath déployés via Automation Suite. Vous devez mettre à jour ce fichier pour modifier les valeurs par défaut et utiliser une configuration avancée pour votre cluster.
cluster_config.json
, vous pouvez utiliser :
- un éditeur de texte Linux, tel que vi ou GNU nano, directement sur la machine Linux via SSH (par exemple, commande :
vi cluster_config.json
) ; - votre éditeur de texte préféré, puis copier-coller le fichier sur la machine.
cluster_config.json
vous permet de configurer les produits UiPath que vous souhaitez déployer. Sachez que les produits peuvent avoir des dépendances. Pour plus de détails, consultez Dépendances entre produits.
cluster_config.json
, utilisez true
ou false
pour l'indicateur enabled
.
{
"fqdn": "PLACEHOLDER",
"cluster_fqdn": "PLACEHOLDER",
"fixed_rke_address": "PLACEHOLDER",
"admin_username": "PLACEHOLDER",
"admin_password": "PLACEHOLDER",
"rke_token": "PLACEHOLDER ",
"zone_resilience": false,
"registries": {
"docker": {
"url": "registry.uipath.com"
},
"helm": {
"url": "registry.uipath.com"
}
},
"sql_connection_string_template": "PLACEHOLDER",
"sql_connection_string_template_jdbc": "PLACEHOLDER",
"sql_connection_string_template_odbc": "PLACEHOLDER",
"sql_connection_string_template_sqlalchemy_pyodbc": "PLACEHOLDER",
"orchestrator": {
"testautomation": {
"enabled": true
},
"updateserver": {
"enabled": true
},
"enabled": true
},
"infra": {
"docker_registry": {
"username": " PLACEHOLDER ",
"password": " PLACEHOLDER "
},
"pod_log_path": ""
},
"platform": {
"enabled": true
},
"automation_hub": {
"enabled": true
},
"automation_ops": {
"enabled": true
},
"action_center": {
"enabled": true
},
"aicenter": {
"enabled": true
},
"documentunderstanding": {
"enabled": true,
"datamanager": {}
},
"task_mining": {
"enabled": true
},
"apps": {
"enabled": true
},
"test_manager": {
"enabled": true
},
"insights": {
"enabled": true
},
"dataservice": {
"enabled": true
},
"asrobots": {
"enabled": true,
"packagecaching": true,
"packagecachefolder": "/uipath_asrobots_package_cache"
},
"processmining": {
"enabled": true
},
"external_object_storage": {
"enabled": false
},
"identity_certificate": {},
"profile": "ha",
"telemetry_optout": false,
"alternative_fqdn": "",
"server_certificate": {
"ca_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/rootCA.crt",
"tls_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/server.crt",
"tls_key_file": "/opt/UiPathAutomationSuite/UiPath_Installer/server.key"
},
"alternative_certificate": {
"ca_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-rootCA.crt",
"tls_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-server.crt",
"tls_key_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-server.key"
}
}
{
"fqdn": "PLACEHOLDER",
"cluster_fqdn": "PLACEHOLDER",
"fixed_rke_address": "PLACEHOLDER",
"admin_username": "PLACEHOLDER",
"admin_password": "PLACEHOLDER",
"rke_token": "PLACEHOLDER ",
"zone_resilience": false,
"registries": {
"docker": {
"url": "registry.uipath.com"
},
"helm": {
"url": "registry.uipath.com"
}
},
"sql_connection_string_template": "PLACEHOLDER",
"sql_connection_string_template_jdbc": "PLACEHOLDER",
"sql_connection_string_template_odbc": "PLACEHOLDER",
"sql_connection_string_template_sqlalchemy_pyodbc": "PLACEHOLDER",
"orchestrator": {
"testautomation": {
"enabled": true
},
"updateserver": {
"enabled": true
},
"enabled": true
},
"infra": {
"docker_registry": {
"username": " PLACEHOLDER ",
"password": " PLACEHOLDER "
},
"pod_log_path": ""
},
"platform": {
"enabled": true
},
"automation_hub": {
"enabled": true
},
"automation_ops": {
"enabled": true
},
"action_center": {
"enabled": true
},
"aicenter": {
"enabled": true
},
"documentunderstanding": {
"enabled": true,
"datamanager": {}
},
"task_mining": {
"enabled": true
},
"apps": {
"enabled": true
},
"test_manager": {
"enabled": true
},
"insights": {
"enabled": true
},
"dataservice": {
"enabled": true
},
"asrobots": {
"enabled": true,
"packagecaching": true,
"packagecachefolder": "/uipath_asrobots_package_cache"
},
"processmining": {
"enabled": true
},
"external_object_storage": {
"enabled": false
},
"identity_certificate": {},
"profile": "ha",
"telemetry_optout": false,
"alternative_fqdn": "",
"server_certificate": {
"ca_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/rootCA.crt",
"tls_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/server.crt",
"tls_key_file": "/opt/UiPathAutomationSuite/UiPath_Installer/server.key"
},
"alternative_certificate": {
"ca_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-rootCA.crt",
"tls_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-server.crt",
"tls_key_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-server.key"
}
}
Paramètres obligatoires |
Description |
---|---|
|
Le nom de domaine de l'équilibreur de charge (mode de production multi-nœuds compatible haute disponibilité) ou de la machine (mode d'évaluation à nœud unique). |
|
Adresse fixe utilisée pour équilibrer la charge de l'enregistrement des nœuds et des requêtes de l'API kube. Il doit s'agir du nom de domaine complet si l'équilibreur de charge est configuré comme recommandé. Sinon, il doit s'agir du nom de domaine complet du 1er nœud de serveur. Référez-vous à Configurer l'équilibreur de charge. Peut être l'IP/le FQDN du premier serveur rke2 de votre configuration. |
|
Défini sur
true lors du choix d'un profil de production multi-nœuds compatible haute disponibilité. La valeur de cet indicateur est définie automatiquement par le programme d'installation interactif. Elle est utilisée à des fins internes uniquement et ne doit pas être modifiée manuellement. |
|
Le nom d'utilisateur que vous souhaitez définir comme administrateur (par exemple : admin) pour l'organisation hôte. |
|
Mot de passe de l'administrateur hôte à définir. |
|
Utilisez un GUID nouvellement généré ici. Il s'agit d'une clé secrète pré-partagée, spécifique au cluster. Elle est nécessaire pour tous les nœuds rejoignant le cluster. |
|
Définit le profil de l'installation. Les profils disponibles sont :
La valeur de cet indicateur est définie automatiquement par le programme d'installation interactif. Elle est utilisée à des fins internes uniquement et ne doit pas être modifiée manuellement. |
|
Le nom d'utilisateur que vous souhaitez définir pour l'installation du registre docker. |
|
Le mot de passe que vous souhaitez définir pour l'installation du registre docker. |
Paramètres facultatifs |
Description |
---|---|
|
true ou false - utilisé pour désactiver le renvoi de la télémétrie à UiPath. Il est défini sur false par défaut.
Si vous souhaitez le désactiver, définissez-le sur
true .
|
|
Vous permet de remplacer le chemin par défaut
/var/log/pods des journaux de pod par le chemin personnalisé de votre choix.
Remarque :
La mise à jour du chemin du journal a pour effet de supprimer les journaux du conteneur existant dans
/var/log/pods .
|
Si aucun certificat n'est fourni au moment de l'installation, le programme d'installation crée un certificat auto-émis et le configure dans le cluster.
La validité des certificats auto-signés est de 90 jours.
Pour plus de détails sur la façon d'obtenir un certificat, consultez :
pwd
pour obtenir le chemin du répertoire où les fichiers sont placés et ajoutez le nom du fichier de certificat dans cluster_config.json
.
Dans les installations en mode de production multi-nœuds compatible haute disponibilité, un certificat est requis uniquement sur le premier nœud.
Paramètre |
Description |
---|---|
|
Chemin absolu vers le certificat de l'autorité de certification. Cette autorité de certification est l'autorité qui signe le certificat TLS. Un bundle d'autorité de certification ne doit contenir que les certificats de chaîne utilisés pour signer le certificat TLS. La limite de la chaîne est de neuf certificats. Si vous utilisez un certificat auto-signé, vous devez spécifier le chemin d'accès au
rootCA.crt , que vous avez créé précédemment. Laissez ce champ vide si vous souhaitez que le programme d'installation le génère.
|
|
Chemin absolu vers le certificat TLS (
server.crt est le certificat auto-signé). Laissez ce champ vide si vous souhaitez que le programme d'installation le génère.
|
|
Chemin absolu vers la clé de certificat (
server.key est le certificat auto-signé). Laissez ce champ vide si vous souhaitez que le programme d'installation le génère.
|
|
Chemin absolu vers le certificat de signature du jeton d'identité utilisé pour signer les jetons (
identity.pfx est le certificat auto-signé). Laissez ce champ vide si vous souhaitez que le programme d'installation génère un certificat d'identité à l'aide du certificat du serveur.
|
|
Mot de passe en texte brut défini lors de l'exportation du certificat de signature du jeton d'identité. |
|
Chemin d'accès absolu au fichier contenant les certificats de l'autorité de certification supplémentaires que tous les services exécutés dans le cadre d'Automation Suite doivent approuver. Tous les certificats du fichier doivent être dans un format
PEM valide.
Par exemple, vous devez fournir le fichier contenant le certificat de l'autorité de certification du serveur SQL si le certificat n'est pas émis par une autorité de certification publique. |
Le programme d'installation interactif crée automatiquement des bases de données à l'aide du workflow suivant :
-
Le script d'installation interactif vérifie la valeur du paramètre
sql.create_db
dans le fichier cluster_config.json .-
Si
sql.create_db
est défini surtrue
, le programme d'installation génère automatiquement toutes les bases de données en votre nom. Dans ce cas, le programme d'installation utilise les noms de base de données par défaut et les modèles par défaut, et ignore tous les noms de base de données personnalisés que vous avez fournis.Pour plus de détails, consultez Créer automatiquement les bases de données nécessaires.
-
Si
sql.create_db
est défini surfalse
, vous devez apporter vos propres bases de données. Dans ce cas, vous devez configurer manuellement vos bases de données. Notez que vous pouvez utiliser des noms de base de données personnalisés, à condition de suivre les conventions d'affectation de nom fournies. Cette étape est essentielle car nous utilisons le nom de la base de données conjointement avec le modèle de connexion pour former la chaîne de connexion de la base de données. Si vous ne suivez pas la convention d’affectation de noms recommandée, vous devez fournir vous-même les chaînes de connexion SQL.Pour plus de détails, consultez Fournissez vos propres bases de données.
-
-
Le programme d'installation interactif génère les chaînes de connexion comme suit :
-
Si vous n’avez pas défini de chaîne de connexion pour votre service, le programme d’installation utilise le modèle de connexion pour générer toutes les chaînes de connexion de la base de données.
-
Si vous avez défini une chaîne de connexion pour votre service, le programme d’installation utilise la chaîne de connexion fournie pour votre base de données.
-
Si vous souhaitez que le programme d'installation crée les bases de données, remplissez les champs suivants du fichier cluster_config.json :
Paramètre |
Description |
---|---|
|
Définissez sur
true pour permettre au programme d'installation de créer les bases de données. Notez que le programme d'installation utilise les noms de base de données par défaut et les modèles par défaut, et ignore tous les noms de base de données personnalisés que vous avez fournis.
|
|
Nom de domaine complet du serveur SQL, où vous souhaitez que le programme d'installation configure la base de données. |
|
Numéro de port sur lequel une instance de base de données doit être hébergée dans le serveur SQL. |
|
Nom d'utilisateur / ID d'utilisateur pour se connecter au serveur SQL. |
|
Mot de passe du nom d'utilisateur fourni précédemment pour se connecter au serveur SQL. |
dbcreator
. Cela leur accorde l'autorisation de créer la base de données dans SQL Server. Sinon, l'installation échoue.
La connexion ODBC ne prend pas en charge les noms d'utilisateur contenant des caractères spéciaux. Pour les noms d'utilisateur de base de données pour AI Center, Document Understanding et Apps, utilisez uniquement des lettres majuscules et minuscules.
Si vous choisissez d’apporter vos propres bases de données dans le cadre d’une nouvelle installation Automation Suite, nous vous recommandons fortement de créer de nouvelles bases de données plutôt que d’utiliser les bases existantes. Cette précaution est nécessaire afin d’éviter tout conflit avec le fonctionnement d’Automation Suite qui pourrait être provoqué par la présence de métadonnées relatives à d’anciennes bases de données.
Si vous apportez votre propre base de données, vous devez fournir les chaînes de connexion SQL pour chaque base de données. Automation Suite prend en charge les formats de chaîne de connexion SQL suivants :
Paramètre |
Description |
Produits |
---|---|---|
|
Chaîne de connexion ADO.NET complète où le nom du catalogue est défini sur DB_NAME_PLACEHOLDER. Le programme d'installation remplacera cet espace réservé par les noms de base de données par défaut pour les services de la suite installée. |
Plate-forme, Orchestrator, Automation Suite Robots, Test Manager, Automation Hub, Automation Ops, Insights, Task Mining, Data Service, Process Mining, Document Understanding |
|
Chaîne de connexion ODBC complète où le nom de la base de données est défini sur DB_NAME_PLACEHOLDER. Le programme d'installation remplacera cet espace réservé par les noms de base de données par défaut pour les services de la suite installée. |
AI Center 1 |
|
Chaîne de connexion ODBC complète où le nom de la base de données est défini sur DB_NAME_PLACEHOLDER. Le programme d'installation remplacera cet espace réservé par les noms de base de données par défaut pour les services de la suite installée. |
Apps Document Understanding |
|
Chaîne de connexion PYODBC SQL complète où le nom de la base de données est défini sur DB_NAME_PLACEHOLDER. Le programme d'installation remplacera cet espace réservé par les noms de base de données par défaut pour les services de la suite installée. |
Process Mining |
sql_connection_string_template_jdbc
: encrypt=true;trustServerCertificate=false;fips=true;
.
db_securityadmin
et db_owner
pour toutes les bases de données Automation Suite. Si les restrictions de sécurité n'autorisent pas l'utilisation de db_owner
, le compte SQL doit avoir les rôles et autorisations suivants sur toutes les bases de données :
db_securityadmin
db_ddladmin
db_datawriter
db_datareader
- Autorisation
EXECUTE
sur le schéma dbo
db_securityadmin
et db_ddladmin
lors de l’installation, ou bien si les bases de données sont réenregistrées. Vous avez donc la possibilité de révoquer ces autorisations ultérieurement.
Si vous définissez manuellement les chaînes de connexion dans le fichier de configuration, vous pouvez échapper les mots de passe SQL, JDBC, ODBC ou PYODBC comme suit :
- pour SQL : ajoutez
'
au début et à la fin du mot de passe, et doublez tout autre'
. - pour JDBC/ODBC : ajoutez
{
au début du mot de passe et}
à la fin, et doublez tout autre}
. - pour PYODBC :
username
etpassword
doivent être encodés en pourcentage pour tenir compte des caractères spéciaux. Les mots de passe de la base de données Document Understanding ne peuvent pas commencer par{
.
AutomationSuite_ProcessMining_Airflow
du produit Process Mining doit avoir l'élément READ_COMMITTED_SNAPSHOT
activé.
TrustServerCertificate
est défini sur False
et vous devez fournir un certificat CA supplémentaire pour SQL Server. Ceci est requis si le certificat SQL Server est auto-signé ou signé par une autorité de certification interne. Si vous ne fournissez pas le certificat SQL Server dans ce scénario, la vérification des prérequis échouera.
Consultez Configuration du certificat sur cette page pour plus de détails.
exemple sql_connection_string_template
Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net:1433;Initial Catalog=DB_NAME_PLACEHOLDER;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;
Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net:1433;Initial Catalog=DB_NAME_PLACEHOLDER;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;
exemple sql_connection_string_template_jdbc
jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net:1433;database=DB_NAME_PLACEHOLDER;user=testadmin;password=***;encrypt=true;trustServerCertificate=false;Connection Timeout=30;hostNameInCertificate=sfdev1804627-c83f074b-sql.database.windows.net"
jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net:1433;database=DB_NAME_PLACEHOLDER;user=testadmin;password=***;encrypt=true;trustServerCertificate=false;Connection Timeout=30;hostNameInCertificate=sfdev1804627-c83f074b-sql.database.windows.net"
exemple sql_connection_string_template_odbc
SERVER=sfdev1804627-c83f074b-sql.database.windows.net,1433;DATABASE=DB_NAME_PLACEHOLDER;DRIVER={ODBC Driver 17 for SQL Server};UID=testadmin;PWD=***;MultipleActiveResultSets=False;Encrypt=YES;TrustServerCertificate=NO;Connection Timeout=30;"
SERVER=sfdev1804627-c83f074b-sql.database.windows.net,1433;DATABASE=DB_NAME_PLACEHOLDER;DRIVER={ODBC Driver 17 for SQL Server};UID=testadmin;PWD=***;MultipleActiveResultSets=False;Encrypt=YES;TrustServerCertificate=NO;Connection Timeout=30;"
sql_connection_string_template_sqlalchemy_pyodbc example
mssql+pyodbc://testuser%40sfdev3082457-sql.database.windows.net:_-%29X07_%5E3-%28%3B%25e-T@sfdev3082457-sql.database.windows.net:1433/DB_NAME_PLACEHOLDER?driver=ODBC+Driver+17+for+SQL+Server"
mssql+pyodbc://testuser%40sfdev3082457-sql.database.windows.net:_-%29X07_%5E3-%28%3B%25e-T@sfdev3082457-sql.database.windows.net:1433/DB_NAME_PLACEHOLDER?driver=ODBC+Driver+17+for+SQL+Server"
sql_connection_string_template and sql_connection_string_template_sqlalchemy_pyodbc example (Process Mining)
"sql_connection_string_template": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=DB_NAME_PLACEHOLDER;Persist Security Info=False;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='***';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
"sql_connection_string_template_sqlalchemy_pyodbc": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:07%3Cl%5Bxj-%3D~%3Az%60Ds%26nl@sfdev4515230-sql.database.windows.net:1433/DB_NAME_PLACEHOLDER?driver=ODBC+Driver+17+for+SQL+Server"
"sql_connection_string_template": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=DB_NAME_PLACEHOLDER;Persist Security Info=False;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='***';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
"sql_connection_string_template_sqlalchemy_pyodbc": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:07%3Cl%5Bxj-%3D~%3Az%60Ds%26nl@sfdev4515230-sql.database.windows.net:1433/DB_NAME_PLACEHOLDER?driver=ODBC+Driver+17+for+SQL+Server"
Noms de bases de données par défaut et facultatifs pour les services Automation Suite
{
"orchestrator": "AutomationSuite_Orchestrator",
"orchestrator_ta": "AutomationSuite_Orchestrator",
"asrobots": "AutomationSuite_Orchestrator",
"orchestrator_upd": "AutomationSuite_Platform",
"platform": "AutomationSuite_Platform",
"test_manager": "AutomationSuite_Test_Manager",
"automation_ops": "AutomationSuite_Platform",
"automation_hub": "AutomationSuite_Automation_Hub",
"insights": "AutomationSuite_Insights",
"task_mining": "AutomationSuite_Task_Mining",
"dataservice": "AutomationSuite_DataService",
"aicenter": "AutomationSuite_AICenter",
"documentunderstanding": "AutomationSuite_DU_Datamanager",
"processmining_airflow": "AutomationSuite_Airflow",
"processmining_metadata": "AutomationSuite_ProcessMining_Metadata",
"processmining_warehouse": "AutomationSuite_ProcessMining_Warehouse",
"apps": "AutomationSuite_Apps",
}
{
"orchestrator": "AutomationSuite_Orchestrator",
"orchestrator_ta": "AutomationSuite_Orchestrator",
"asrobots": "AutomationSuite_Orchestrator",
"orchestrator_upd": "AutomationSuite_Platform",
"platform": "AutomationSuite_Platform",
"test_manager": "AutomationSuite_Test_Manager",
"automation_ops": "AutomationSuite_Platform",
"automation_hub": "AutomationSuite_Automation_Hub",
"insights": "AutomationSuite_Insights",
"task_mining": "AutomationSuite_Task_Mining",
"dataservice": "AutomationSuite_DataService",
"aicenter": "AutomationSuite_AICenter",
"documentunderstanding": "AutomationSuite_DU_Datamanager",
"processmining_airflow": "AutomationSuite_Airflow",
"processmining_metadata": "AutomationSuite_ProcessMining_Metadata",
"processmining_warehouse": "AutomationSuite_ProcessMining_Warehouse",
"apps": "AutomationSuite_Apps",
}
sql_connection_str
pour ce service spécifique.
Vous devez toujours créer manuellement ces bases de données avant d'exécuter le programme d'installation.
Remplacer la chaîne de connexion par défaut pour Orchestrator et la plateforme
{
"orchestrator": {
"sql_connection_str": "Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net,1433;Initial Catalog=CustomOrchDB;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
},
"platform": {
"sql_connection_str": "Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net,1433;Initial Catalog=CustomIDDB;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
}
}
{
"orchestrator": {
"sql_connection_str": "Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net,1433;Initial Catalog=CustomOrchDB;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
},
"platform": {
"sql_connection_str": "Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net,1433;Initial Catalog=CustomIDDB;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
}
}
sql_connection_str
dans les blocs de produits correspondants. La chaîne de connexion doit avoir un format pris en charge par le produit respectif.
Exemple de définition de la chaîne de connexion à la base de données pour AI Center
Paramètre |
Description |
---|---|
|
Chaîne de connexion AICenter JDBC (voir ci-dessous pour le format JDBC) |
"aicenter": {
"enabled": true,
"sql_connection_str": "jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net;database=aicenter;user=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;password=TFgID_9GsE7_P@srCQp0WemXX_euHQZJ"
}
"aicenter": {
"enabled": true,
"sql_connection_str": "jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net;database=aicenter;user=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;password=TFgID_9GsE7_P@srCQp0WemXX_euHQZJ"
}
Exemple de chaîne de connexion Document Understanding
"documentUnderstanding": {
"datamanager": {
"sql_connection_str": "SERVER=sql-server.database.windows.net;DATABASE=datamanager;DRIVER={ODBC Driver 17 for SQL Server};UID=testadmin;PWD=myPassword"
},
"sql_connection_str": "Server=tcp:database.example.com,1433;Initial Catalog=db;Persist Security Info=False;User Id=testadmin@example.com;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;",
"cjkOcr":
{
"enabled": true
}
}
"documentUnderstanding": {
"datamanager": {
"sql_connection_str": "SERVER=sql-server.database.windows.net;DATABASE=datamanager;DRIVER={ODBC Driver 17 for SQL Server};UID=testadmin;PWD=myPassword"
},
"sql_connection_str": "Server=tcp:database.example.com,1433;Initial Catalog=db;Persist Security Info=False;User Id=testadmin@example.com;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;",
"cjkOcr":
{
"enabled": true
}
}
L'écriture manuscrite est toujours activée pour l'installation en ligne.
max_cpu_per-pod
est 2
, mais vous pouvez l'ajuster en fonction de vos besoins.
Exemple de chaîne de connexion Process Mining
"processmining": {
"enabled": true,
"warehouse": {
"sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='***';Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:07%3Cl%5Bxj-%3D~%3Az%60Ds%26nl@sfdev4515230-sql.database.windows.net:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes",
"master_sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=master;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:07%3Cl%5Bxj-%3D~%3Az%60Ds%26nl@sfdev4515230-sql.database.windows.net:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES"
"sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Metadata;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='***';Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
},
"processmining": {
"enabled": true,
"warehouse": {
"sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='***';Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:07%3Cl%5Bxj-%3D~%3Az%60Ds%26nl@sfdev4515230-sql.database.windows.net:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes",
"master_sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=master;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:07%3Cl%5Bxj-%3D~%3Az%60Ds%26nl@sfdev4515230-sql.database.windows.net:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES"
"sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Metadata;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='***';Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
},
sql_connection_string_template_sqlalchemy_pyodbc
et de la chaîne de connexion PYODBC sqlalchemy_pyodbc_sql_connection_str
utilisés lorsque vous apportez votre propre base de données sont différents. De plus, les noms de chaîne de connexion sont différents pour le modèle SQL sql_connection_string_template
et sql_connection_str
utilisé lorsque vous apportez votre propre base de données.
sql_connection_str
sqlalchemy_pyodbc_sql_connection_str
dans la section processmining
du fichier cluster_config.json
, les chaînes de connexion modèles sql_connection_string_template
et sql_connection_string_template_sqlalchemy_pyodbc
sont ignorées si spécifiées.
MultiSubnetFailover=True
n’est pas pris en charge. Assurez-vous de supprimer MultiSubnetFailover=True
de l’une des chaînes de connexion de Process Mining.
app_security_mode
, un nouvel utilisateur SQL est créé pour chaque application Process Mining par le système (app_security_mode="system_managed"
), ou bien un seul compte utilisateur SQL est créé et est utilisé pour toutes les applications de processus (app_security_mode="single_account"
). Notez que app_security_mode="system_managed"
est le paramètre par défaut, et que cela nécessite des autorisations avancées pour l'utilisateur de la base de données. Consultez Configuration de la sécurité de l'application de processus.
Exemple de chaîne de connexion Process Mining
-
Scénario : configuration avec l’authentification Kerberos.
"processmining": {
"enabled": true,
"warehouse": {
"sql_connection_str": "Server=tcp:assql2019.autosuitead.local,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes",
"master_sql_connection_str": "Server=tcp:assql2019.autosuitead.local,1433;Initial Catalog=master;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes"
},
"processmining": {
"enabled": true,
"warehouse": {
"sql_connection_str": "Server=tcp:assql2019.autosuitead.local,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes",
"master_sql_connection_str": "Server=tcp:assql2019.autosuitead.local,1433;Initial Catalog=master;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes"
},
Exemple de chaîne de connexion Process Mining
-
Scénario : la base de données de métadonnées et l’entrepôt de données utilisent un SQL Server distinct (authentification non Kerberos).
"processmining": {
"enabled": true,
"warehouse": {
"sql_connection_str": "Server=tcp:uipath-integration1.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;User Id=userid;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://userid:password@uipath-integration1.database.windows.net:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
"master_sql_connection_str": "Server=tcp:uipath-integration1.database.windows.net,1433;Initial Catalog=master;Persist Security Info=False;User Id=userid;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://userid:password@uipath-integration2.database.windows.net:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES"
"sql_connection_str": "Server=tcp:uipath-integration2.database.windows.net,1433;Initial Catalog=AutomationSuite_Airflow;Persist Security Info=False;User Id=userid;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
},
"processmining": {
"enabled": true,
"warehouse": {
"sql_connection_str": "Server=tcp:uipath-integration1.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;User Id=userid;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://userid:password@uipath-integration1.database.windows.net:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
"master_sql_connection_str": "Server=tcp:uipath-integration1.database.windows.net,1433;Initial Catalog=master;Persist Security Info=False;User Id=userid;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://userid:password@uipath-integration2.database.windows.net:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES"
"sql_connection_str": "Server=tcp:uipath-integration2.database.windows.net,1433;Initial Catalog=AutomationSuite_Airflow;Persist Security Info=False;User Id=userid;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
},
Exemple de chaîne de connexion Process Mining
-
Scénario : utilisation de
app_security_mode
personnalisés.
"processmining": {
"enabled": true,
"app_security_mode": "system_managed",
"warehouse": {
"sql_connection_str": "Server=tcp:assql2019.autosuitead.local,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes",
"master_sql_connection_str": "Server=tcp:assql2019.autosuitead.local,1433;Initial Catalog=master;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=YES"
},
"processmining": {
"enabled": true,
"app_security_mode": "system_managed",
"warehouse": {
"sql_connection_str": "Server=tcp:assql2019.autosuitead.local,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes",
"master_sql_connection_str": "Server=tcp:assql2019.autosuitead.local,1433;Initial Catalog=master;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=YES"
},
Automation Suite permet de faire appel à votre propre fournisseur de stockage externe. Vous pouvez choisir parmi les fournisseurs de stockage suivants :
- Azure
- AWS
- Compatible S3
Vous pouvez configurer le stockage d'objets externe de l'une des manières suivantes :
- lors de l'installation, à l'aide du programme d'installation interactif ;
- post-installation, à l'aide du fichier
cluster_config.json
.
- Pour qu'Automation Suite fonctionne correctement lors de l'utilisation d'URL pré-signées, vous devez vous assurer que votre magasin d'objets externe est accessible depuis le cluster Automation Suite, les navigateurs et toutes vos machines, y compris les stations de travail et les machines robots.
-
Le chiffrement côté serveur avec service de gestion des clés (SSE-KMS) peut uniquement être activé pour les compartiments Automation Suite déployés dans n’importe quelle région créée après le 30 janvier 2014.
La fonctionnalité SSE-KMS nécessite des API Pure SignV4. Les régions créées avant le 30 janvier 2014 n'utilisent pas d'API Pure SignV4 en raison de la rétrocompatibilité avec SignV2. Par conséquent, SSE-KMS fonctionne uniquement dans les régions qui utilisent SignV4 pour communiquer. Pour connaître le calendrier d'enregistrement des différentes régions, consultez la documentation AWS.
cluster_config.json
que vous pouvez utiliser pour configurer chaque fournisseur de stockage d'objets externe :
Paramètre |
Azure |
AWS |
Compatible S3 |
Description |
---|---|---|---|---|
|
|
|
|
Indiquez si vous souhaitez apporter votre propre magasin d'objets. Valeurs possibles :
true et false .
|
|
|
|
|
Indiquez si vous souhaitez enregistrer le compartiment. Valeurs possibles :
true et false .
|
|
|
|
|
Indiquez le fournisseur de stockage que vous souhaitez configurer. La valeur est sensible à la casse. Valeurs possibles :
azure et s3 .
Remarque : de nombreux magasins d'objets S3 nécessitent que CORS soit défini sur l'ensemble trafic provenant du cluster Automation Suite. Vous devez configurer la stratégie CORS au niveau du magasin d'objets pour autoriser le nom de domaine complet du cluster.
|
|
|
|
|
Indiquez le nom de domaine complet du serveur S3. Obligatoire dans le cas de l'instance AWS et d’un profil sans instance. |
|
|
|
|
Indiquez le port S3. Obligatoire dans le cas de l'instance AWS et d’un profil sans instance. |
|
|
|
|
Indiquez la région AWS où les compartiments sont hébergés. Obligatoire dans le cas de l'instance AWS et d’un profil sans instance. |
|
|
|
|
Spécifiez la clé d'accès du compte S3. Uniquement requis dans le cas du profil AWS sans instance. |
|
|
|
|
Spécifiez la clé secrète du compte S3. Uniquement requis dans le cas du profil AWS sans instance. |
|
|
|
|
Spécifiez si vous souhaitez utiliser un profil d’instance. Un profil d’instance AWS Identity and Access Management (IAM) accorde un accès sécurisé aux ressources AWS pour les applications ou les services exécutés sur des instances Amazon Elastic Compute Cloud (EC2). Si vous optez pour AWS S3, un profil d’instance permet à une instance EC2 d’interagir avec des compartiments S3 sans avoir besoin que les informations d’identification AWS explicites (telles que les clés d’accès) soient stockées sur l’instance. |
|
|
|
|
Utilisez l'identité managée avec votre compte de stockage Azure. Valeurs possibles :
true et false .
|
external_object_storage.bucket_name_prefix 1 |
|
|
|
Indiquez le préfixe des noms de compartiment. Facultatif dans le cas du profil AWS sans instance. |
external_object_storage.bucket_name_suffix 2 |
|
|
|
Indiquez le suffixe des noms de compartiment. Facultatif dans le cas du profil AWS sans instance. |
|
|
|
|
Spécifiez la clé de compte Azure. Uniquement requis lors de l’utilisation d’une identité non managée. |
|
|
|
|
Spécifiez le nom du compte Azure. |
|
|
|
|
Spécifiez le suffixe du nom de domaine complet Azure. Paramètre facultatif. |
|
|
|
|
Indiquez votre ID de client Azure. Uniquement requis lors de l’utilisation de l’identité gérée. |
bucket_name_prefix
et bucket_name_suffix
. De plus, le suffixe et le préfixe doivent avoir une longueur combinée de 25 caractères maximum, et vous ne devez pas terminer le préfixe ou commencer le suffixe par un trait d'union (-
) car nous ajoutons déjà le caractère pour vous automatiquement.
Vous pouvez utiliser les paramètres décrits dans la section Configuration générale (General configuration ) pour mettre à jour la configuration générale d'Automation Suite. Cela signifie que tous les produits installés partageraient la même configuration. Si vous souhaitez configurer un ou plusieurs produits différemment, vous pouvez remplacer la configuration générale. Il vous suffit de spécifier le ou les produits pour lesquels vous souhaitez configurer différemment le stockage d'objets externes et d'utiliser les mêmes paramètres pour définir votre configuration. Notez que tous les autres produits installés continueront d'hériter de la configuration générale.
L'exemple suivant montre comment remplacer la configuration générale d'Orchestrator :
"external_object_storage": {
"enabled": false, // <true/false>
"create_bucket": true, // <true/false>
"storage_type": "s3", // <s3,azure,aws>
"fqdn": "", // <needed in the case of aws instance and non-instance profile>
"port": 443, // <needed in the case of aws instance and non-instance profile>
"region": "",
"access_key": "", // <needed in case of aws non instance profile>
"secret_key": "", // <needed in case of aws non instance profile>
"use_managed_identity": false, // <true/false>
"bucket_name_prefix": "",
"bucket_name_suffix": "",
"account_key": "", // <needed only when using non managed identity>
"account_name": "",
"azure_fqdn_suffix": "core.windows.net",
"client_id": "" // <optional field in case of managed identity>
},
"orchestrator": {
"external_object_storage": {
"enabled": false, // <true/false>
"create_bucket": true, // <true/false>
"storage_type": "s3", // <s3,azure>
"fqdn": "", // <needed in the case of aws instance and non-instance profile>
"port": 443, // <needed in the case of aws instance and non-instance profile>
"region": "",
"access_key": "", // <needed in case of aws non instance profile>
"secret_key": "", // <needed in case of aws non instance profile>
"use_managed_identity": false, // <true/false>
"bucket_name_prefix": "",
"bucket_name_suffix": "",
"account_key": "", // <needed only when using non managed identity>
"account_name": "",
"azure_fqdn_suffix": "core.windows.net",
"client_id": "" // <optional field in case of managed identity>
}
}
"external_object_storage": {
"enabled": false, // <true/false>
"create_bucket": true, // <true/false>
"storage_type": "s3", // <s3,azure,aws>
"fqdn": "", // <needed in the case of aws instance and non-instance profile>
"port": 443, // <needed in the case of aws instance and non-instance profile>
"region": "",
"access_key": "", // <needed in case of aws non instance profile>
"secret_key": "", // <needed in case of aws non instance profile>
"use_managed_identity": false, // <true/false>
"bucket_name_prefix": "",
"bucket_name_suffix": "",
"account_key": "", // <needed only when using non managed identity>
"account_name": "",
"azure_fqdn_suffix": "core.windows.net",
"client_id": "" // <optional field in case of managed identity>
},
"orchestrator": {
"external_object_storage": {
"enabled": false, // <true/false>
"create_bucket": true, // <true/false>
"storage_type": "s3", // <s3,azure>
"fqdn": "", // <needed in the case of aws instance and non-instance profile>
"port": 443, // <needed in the case of aws instance and non-instance profile>
"region": "",
"access_key": "", // <needed in case of aws non instance profile>
"secret_key": "", // <needed in case of aws non instance profile>
"use_managed_identity": false, // <true/false>
"bucket_name_prefix": "",
"bucket_name_suffix": "",
"account_key": "", // <needed only when using non managed identity>
"account_name": "",
"azure_fqdn_suffix": "core.windows.net",
"client_id": "" // <optional field in case of managed identity>
}
}
Pour effectuer une rotation des informations d'identification de stockage d'objets blob pour Process Mining dans Automation Suite, les clés secrètes stockées doivent être mises à jour avec les nouvelles informations d'identification. Voir Rotation des informations d'identification de stockage d'objets blob.
- Certains produits Automation Suite ne sont pas pris en charge dans Disaster Recovery - Actif/Passif. Vous pouvez installer ces produits lors de l'installation du cluster principal uniquement.
- Une fois que vous avez fourni au programme d'installation tous les paramètres liés à votre configuration, le programme d'installation vous invitera à continuer ou à quitter. Vous devez quitter le programme d'installation pour modifier le
cluster_config.json
généré avec les paramètres multi-sites avancés.
Vous devez installer les deux clusters Automation Suite séparément.
cluster_config.json
que vous devez utiliser pour installer les clusters principal et secondaire :
Paramètre |
Description |
---|---|
|
Indique que le module HAA est activé. Cela est nécessaire pour autoriser Redis en mode haute disponibilité. Obligatoire et doit être défini sur
true .
|
|
Cela indique la licence Redis (HAA). Il s'agit d'une valeur obligatoire et doit être une chaîne valide encodée en base64. |
|
Indique le nom de domaine complet de l'équilibreur de charge du cluster. Il s'agit d'une valeur obligatoire. |
|
Indique qu'Automation Suite doit être configurée pour fonctionner sur plusieurs sites. Doit être défini sur
true .
|
|
Indique que ce cluster est un cluster principal et qu'il doit être défini sur
true . Sa valeur par défaut est false pour désigner le cluster secondaire.
|
|
Il indique le fichier kubeconfig encodé en base64 d'un autre cluster. Lors de l'installation du cluster Automation Suite principal, cette valeur n'est pas disponible et peut être laissée telle quelle. Cependant, vous devez fournir la valeur lors de la reconstruction ultérieure d'Automation Suite principale au cours de la récupération. |
|
Indique l'adresse où toutes les demandes de jonction de nœud doivent être effectuées. C'est généralement la même que la valeur
cluster_fqdn (le FQDN de l'équilibreur de charge)
|
{
"fabric": {
"redis": {
"ha": true,
"license": "xyz" //base64 encoded redis license
}
},
"cluster_fqdn": "automationsuite-primary.mycompany.com",
"multisite": {
"enabled": true,
"primary": true,
"other_kube_config": xxx, //another cluster kubeconfig
},
"fixed_rke_address": "automationsuite-primary.mycompany.com"
}
{
"fabric": {
"redis": {
"ha": true,
"license": "xyz" //base64 encoded redis license
}
},
"cluster_fqdn": "automationsuite-primary.mycompany.com",
"multisite": {
"enabled": true,
"primary": true,
"other_kube_config": xxx, //another cluster kubeconfig
},
"fixed_rke_address": "automationsuite-primary.mycompany.com"
}
cluster_config.json
:
Paramètre |
Description |
---|---|
|
Spécifiez les registres Docker externes que vous souhaitez utiliser. |
|
URL du registre. |
|
Le nom d'utilisateur du registre pour se connecter. |
| Le mot de passe du registre pour se connecter. |
|
La clé secrète d'extraction du registre. |
pull_secret_value
, notamment celle qui utilise Docker. Pour plus de détails, consultez la section Comment générer la valeur pull_secret_value encodée pour les registres externes.
Exemple de configuration :
{
"registries": {
"docker": {
"url": "registry.domain.io",
"username": "username",
"password": "password",
"pull_secret_value": "pull-secret-value"
},
"helm": {
"url": "registry.domain.io",
"username": "username",
"password": "password"
}
},
}
{
"registries": {
"docker": {
"url": "registry.domain.io",
"username": "username",
"password": "password",
"pull_secret_value": "pull-secret-value"
},
"helm": {
"url": "registry.domain.io",
"username": "username",
"password": "password"
}
},
}
orchestrator.block_classic_executions
sur true
dans le fichier cluster_config.json
. L'utilisation de l'indicateur montre que vous êtes d'accord avec le blocage des exécutions de dossiers classiques. La non-utilisation de l'indicateur entraîne l'échec de l'opération de mise à niveau. Ce paramètre n'est pas requis dans les nouvelles installations.
orchestrator.orchestrator_robot_logs_elastic
. Si ce paramètre n'est pas configuré, les journaux des évènements du Robot seront enregistrés dans la base de données d'Orchestrator.
orchestrator.orchestrator_robot_logs_elastic
:
Paramètre |
Description |
---|---|
orchestrator_robot_logs_elastic |
Configuration d'Elasticsearch. |
|
L'adresse de l'instance Elasticsearch devant être utilisée. Elle doit être fournie sous la forme d'un URI. Si celle-ci est fournie, alors le nom d'utilisateur et le mot de passe sont également requis. |
|
Le nom d'utilisateur Elasticsearch, utilisé pour l'authentification. |
|
Le mot de passe Elasticsearch, utilisé pour l'authentification. |
Exemple
"orchestrator": {
"enabled": true,
"block_classic_executions": true,
"orchestrator_robot_logs_elastic": {
"elastic_uri": "https://elastic.example.com:9200",
"elastic_auth_username": "elastic-user",
"elastic_auth_password": "elastic-password"
}
}
"orchestrator": {
"enabled": true,
"block_classic_executions": true,
"orchestrator_robot_logs_elastic": {
"elastic_uri": "https://elastic.example.com:9200",
"elastic_auth_username": "elastic-user",
"elastic_auth_password": "elastic-password"
}
}
Si vous activez Insights, les utilisateurs peuvent inclure la configuration du serveur SMTP qui sera utilisée pour envoyer des e-mails/e-mails d'alerte programmés. S'ils ne sont pas fournis, les e-mails programmés et les e-mails d'alerte ne fonctionneront pas.
insights.smtp_configuration
:
Paramètre |
Description |
---|---|
|
Les valeurs valides sont
TLSv1_2 , TLSv1_1 , SSLv23 . Omettez complètement la clé si vous n'utilisez pas TLS.
|
|
Adresse à partir de laquelle les e-mails d'alerte/programmés seront envoyés. |
|
Nom d'hôte du serveur SMTP. |
|
Le port du serveur SMTP. |
|
Nom d’utilisateur pour l’authentification du serveur SMTP. |
|
Mot de passe pour l’authentification du serveur SMTP. |
enable_realtime_monitoring | Indicateur permettant d'activer la surveillance en temps réel d'Insights. Les valeurs valides sont true , false . La valeur par défaut est false .
|
Exemple
"insights": {
"enabled": true,
"enable_realtime_monitoring": true,
"smtp_configuration": {
"tls_version": "TLSv1_2",
"from_email": "test@test.com",
"host": "smtp.sendgrid.com",
"port": 587,
"username": "login",
"password": "password123"
}
}
"insights": {
"enabled": true,
"enable_realtime_monitoring": true,
"smtp_configuration": {
"tls_version": "TLSv1_2",
"from_email": "test@test.com",
"host": "smtp.sendgrid.com",
"port": 587,
"username": "login",
"password": "password123"
}
}
processmining
:
Paramètre |
Description |
---|---|
|
Chaîne de connexion au format DotNet avec la base de données définie comme espace réservé :
Initial Catalog=DB_NAME_PLACEHOLDER .
|
|
Chaîne de connexion au format Sqlalchemy PYODBC pour l'emplacement des métadonnées personnalisées :
sqlServer:1433/DB_NAME_PLACEHOLDER .
Exemple :
Où Utilisateur :
testadmin%40myhost Remarque :
Si le nom d'utilisateur contient « @ », son URL doit être codée sur %40. Exemple : (configuration de SQL Server avec l’authentification Kerberos)
|
|
Chaîne de connexion SQL au format DotNet au serveur SQL de l'entrepôt de données processmining avec un espace réservé pour le nom de base de données : Initial Catalog=DB_NAME_PLACEHOLDER .
|
|
Chaîne de connexion SQL au format Sqlalchemy PYODBC à l'entrepôt de données processmining SQL Server avec un espace réservé pour le nom de base de données : sqlServer:1433/DB_NAME_PLACEHOLDER .
|
|
Si le programme d'installation crée des bases de données via le paramètre
sql.create_db: true , une chaîne de connexion SQL principale au format DotNet doit être fournie pour le serveur SQL de l'entrepôt de données processmining. La base de données dans la chaîne de connexion doit être définie sur master .
|
Exemple de chaîne de connexion Process Mining
"processmining": {
"enabled": true,
"app_security_mode": "system_managed",
"sql_connection_str": "Server=tcp:shared_sqlserver_fqdn,1433;Initial Catalog=AutomationSuite_ProcessMining_Metadata;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://username:password@shared_sqlserver_fqdn:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
"warehouse": {
"sql_connection_str": "Server=tcp:dedicated_sqlserver_fqdn,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://useername:password@dedicated_sqlserver_fqdn:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
"master_sql_connection_str": "Server=tcp:dedicated_sqlserver_fqdn,1433;Initial Catalog=master;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"blob_storage_account_use_presigned_uri": true
},
"processmining": {
"enabled": true,
"app_security_mode": "system_managed",
"sql_connection_str": "Server=tcp:shared_sqlserver_fqdn,1433;Initial Catalog=AutomationSuite_ProcessMining_Metadata;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://username:password@shared_sqlserver_fqdn:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
"warehouse": {
"sql_connection_str": "Server=tcp:dedicated_sqlserver_fqdn,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://useername:password@dedicated_sqlserver_fqdn:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
"master_sql_connection_str": "Server=tcp:dedicated_sqlserver_fqdn,1433;Initial Catalog=master;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"blob_storage_account_use_presigned_uri": true
},
Lorsque vous configurez Microsoft SQL Server, veillez à ce que le fuseau horaire est défini sur UTC dans la machine SQL Server où la base de données Airflow et la base de données Process Mining dédiée ont été installées.
sql_connection_string_template_sqlalchemy_pyodbc
et de la chaîne de connexion PYODBC sqlalchemy_pyodbc_sql_connection_str
utilisés lorsque vous apportez votre propre base de données sont différents. De plus, les noms de chaîne de connexion sont différents pour le modèle SQL sql_connection_string_template
et sql_connection_str
utilisé lorsque vous apportez votre propre base de données.
sql_connection_str
sqlalchemy_pyodbc_sql_connection_str
dans la section processmining
du fichier cluster_config.json
, les chaînes de connexion modèles sql_connection_string_template
et sql_connection_string_template_sqlalchemy_pyodbc
sont ignorées si spécifiées.
1433
pour les bases de données suivantes :
warehouse.sql_connection_str
warehouse.sqlalchemy_pyodbc_sql_connection_str
warehouse.master_sql_connection_str
Les ports de serveur SQL non standard ne sont pas pris en charge.
Les Automation Suite Robots peuvent utiliser la mise en cache des packages pour optimiser vos exécutions de processus et leur permettre de s'exécuter plus rapidement. Les packages NuGet sont récupérés à partir du système de fichiers au lieu d'être téléchargés à partir d'Internet/du réseau. Ils nécessitent un espace supplémentaire d'au moins 10 Go et doivent être attribués à un dossier sur le système de fichiers de la machine hôte des nœuds dédiés.
cluster_config.json
suivants :
Paramètre |
Valeur par défaut |
Description |
---|---|---|
|
|
Lorsqu'il est défini sur
true , les robots utilisent un cache local pour la résolution des packages.
|
|
|
L'emplacement du disque sur le nœud de l'agent sans serveur où les packages sont stockés. |
aicenter.external_object_storage.port
et aicenter.external_object_storage.fqdn
dans le fichier cluster_config.json
.
aicenter
section du cluster_config.json
fichier même si vous avez configuré la external_object_storage
section du fichier.
cluster_config.json
valide pour AI Center :"aicenter": {
"external_object_storage" {
"port": 443,
"fqdn": "s3.us-west-2.amazonaws.com"
}
},
"external_object_storage": {
"enabled": true,
"create_bucket": false,
"storage_type": "s3",
"region": "us-west-2",
"use_instance_profile": true
}
...
"aicenter": {
"external_object_storage" {
"port": 443,
"fqdn": "s3.us-west-2.amazonaws.com"
}
},
"external_object_storage": {
"enabled": true,
"create_bucket": false,
"storage_type": "s3",
"region": "us-west-2",
"use_instance_profile": true
}
...
Pour enregistrer suffisamment de ressources pour la surveillance (voir Utilisation de la pile de surveillance), vous devez tenir compte du nombre de vCPU dans le cluster et de la quantité de rétention de métriques souhaitée. Voir ci-dessous pour savoir comment définir les configurations de ressources de surveillance suivantes.
Le tableau suivant décrit les détails du champ de surveillance :
Paramètre |
Description |
---|---|
|
En jours. Il s'agit du nombre de jours pendant lesquels les métriques seront conservées à des fins de visualisation dans Grafana et de requête manuelle via la console Prometheus. La valeur par défaut est
7 .
|
|
En Gio. Quantité d'espace de stockage à réserver par réplica Prometheus. Une bonne règle de base consiste à définir cette valeur sur :
Exemple : Si vous définissez
prometheus_retention sur 14 jours et que votre cluster comporte 80 cœurs répartis sur 5 machines, cela devient :
La valeur par défaut est
45 et ne doit pas être inférieure.
Si Prometheus commence à manquer d'espace de stockage, une alerte sera déclenchée avec des instructions de correction spécifiques. Voir ici. |
|
En Mio. Quantité de mémoire à laquelle limiter chaque réplica Prometheus. Une bonne règle de base consiste à définir cette valeur sur :
Exemple : Si vous avez défini
prometheus_retention sur 14 jours et que votre cluster comporte 80 cœurs répartis sur 5 machines, cela devient :
La valeur par défaut est
3200 pour le mode d'évaluation à nœud unique et 6000 pour le mode de production multi-nœuds compatible haute disponibilité ; elle ne doit jamais être inférieure.
Si Prometheus commence à manquer de mémoire, une alerte sera déclenchée avec des instructions de correction spécifiques. Voir ici. |
Exemple
"monitoring": {
"prometheus_retention": 14,
"prometheus_memory_limit": 16000,
"prometheus_storage_size": 104
}
"monitoring": {
"prometheus_retention": 14,
"prometheus_memory_limit": 16000,
"prometheus_storage_size": 104
}
Assurez-vous que vous répondez aux exigences du serveur proxy avant de configurer le serveur proxy lors de l'installation.
Pour plus de détails, consultez Étape 2 : Ajout de la configuration du proxy à chaque nœud.
cluster_config.json
lors de l'étape de configuration avancée.
Vous devez ajouter les éléments suivants au fichier de configuration à l'aide de vim ou de votre éditeur préféré dans le fichier de configuration :
"proxy": {
"enabled": true,
"http_proxy": "http://<PROXY-SERVER-IP>:<PROXY-PORT>",
"https_proxy": "http://<PROXY-SERVER-IP>:<PROXY-PORT>",
"no_proxy": "alm.<fqdn>,<fixed_rke_address>:9345,<fixed_rke_address>:6443,<named server address>,<metadata server address>,<k8s address range>,<private_subnet_ip>,<sql server host>,<Comma separated list of ips that should not go through proxy server>"
}
"proxy": {
"enabled": true,
"http_proxy": "http://<PROXY-SERVER-IP>:<PROXY-PORT>",
"https_proxy": "http://<PROXY-SERVER-IP>:<PROXY-PORT>",
"no_proxy": "alm.<fqdn>,<fixed_rke_address>:9345,<fixed_rke_address>:6443,<named server address>,<metadata server address>,<k8s address range>,<private_subnet_ip>,<sql server host>,<Comma separated list of ips that should not go through proxy server>"
}
Paramètres obligatoires |
Description |
---|---|
|
Utilisez
true ou false pour activer ou désactiver les paramètres de proxy.
|
|
Utilisé pour acheminer les requêtes sortantes HTTP à partir du cluster. Il doit s'agir du nom de domaine complet et du port du serveur proxy. |
|
Utilisé pour acheminer les requêtes sortantes HTTPS à partir du cluster. Il doit s'agir du nom de domaine complet et du port du serveur proxy. |
|
Liste d'hôtes, d'adresses IP ou de plages d'adresses IP au format CIDR séparée par des virgules et que vous ne souhaitez pas acheminer via le serveur proxy. Il doit s'agir d'une plage de sous-réseaux privés, d'un hôte de serveur sql, d'une adresse de serveur nommée, d'une adresse de serveur de métadonnées :
*.<fqdn>,<fixed_rke_address>:9345,<fixed_rke2_address>:6443 .
Important :
Si vous utilisez AI Center avec une installation Orchestrator externe, vous devez ajouter le domaine Orchestrator externe à la liste
no_proxy .
|
Facultatif : Activation de la résilience aux échecs locaux dans un cluster en mode production multi-nœuds compatible haute disponibilité
Pour activer la résilience aux défaillances zonales dans un cluster multi-nœuds, procédez comme suit :
cluster_config.json
à l'aide de l'assistant d'installation interactif, quittez l'étape de configuration avancée et ajoutez ce qui suit au fichier de configuration à l'aide de vim ou de votre éditeur préféré :
"zone_resilience": true
"zone_resilience": true
Paramètres obligatoires |
Description |
---|---|
|
Utilisez
true ou false pour activer ou désactiver la résilience aux défaillances de zone.
|
--zone
et --region
est :
- recommandée si vous enregistrez vos machines sur AWS, Azure ou GCP et que les services de métadonnées sont activés lorsque le programme d'installation renseigne les détails de la zone et de la région.
- obligatoire si vous enregistrez vos machines sur AWS, Azure ou GCP et que les services de métadonnées sont désactivés, ou si vous optez pour un autre fournisseur de cloud.
/etc/resolv.conf
. Kubernetes ne fonctionne pas avec les résolveurs DNS locaux (127.0.0.1 ou 127.0.0.0/8) : si vous avez des serveurs de noms de ce type configurés dans le fichier /etc/resolv.conf
, vous devez transmettre une référence de fichier avec les bonnes entrées de serveur de noms accessibles de n'importe où sur la VM dans le paramètre .infra.custom_dns_resolver
dans cluster_config.json
.
Pour plus de détails sur une limitation connue, consultez la documentation de Kubernetes.
Paramètres facultatifs |
Description |
---|---|
|
Chemin d'accès au fichier avec les entrées correctes du serveur de noms accessibles depuis n'importe où sur la machine virtuelle. Ces entrées du serveur de noms ne doivent pas provenir de
127.0.0.0/8 .
|
fault_tolerance
dans le fichier cluster_config.json
. Le paramètre modifie le facteur de réplication des composants de stockage en cluster tels que Ceph et Longhorn.
1
, assurez-vous que votre environnement répond aux exigences suivantes :
- Votre cluster se compose d'un minimum de
2x+1
nœuds de serveur, oùx
est la tolérance aux défaillances requise pour le nœud de serveur ; - Chaque nœud de serveur a un périphérique brut configuré.
1
, procédez comme suit :
- Définissez
fault_tolerance
sur la valeur requise dans le fichiercluster_config.json
. Si vous le définissez avant de commencer l'opération d'installation ou de mise à niveau, vous n'avez pas besoin de prendre d'étapes supplémentaires. - Exécutez le programme d'installation
uipathctl.sh
pour modifier le facteur de réplication du magasin d'objets Ceph dans le cluster. Attendez que l'opération se termine avec succès. - Exécutez le programme d'installation
install-uipath.sh
pour modifier le facteur de réplication des volumes Longhorn. Attendez que l'opération se termine avec succès.
- Exemple Cluster_config.json
- Configuration générale
- Configuration du certificat
- Configuration de la base de données
- Workflow de création de base de données
- Créer automatiquement les bases de données nécessaires
- Fournissez votre propre base de données
- Configuration du magasin d'objets externe
- Configuration générale
- Configuration spécifique au produit
- Rotation des identifiants de stockage d'objets blob pour Process Mining
- Disaster Recovery : configuration active/passive
- Configuration du registre Docker externe
- Configuration spécifique à Orchestrator
- Configuration spécifique à Insights
- Configuration spécifique à Process Mining
- Configuration spécifique à Automation Suite Robots
- Configuration spécifique à AI Center
- Configuration de la surveillance
- Facultatif : configuration du serveur proxy
- Facultatif : Activation de la résilience aux échecs locaux dans un cluster en mode production multi-nœuds compatible haute disponibilité
- Facultatif : Transmettre le fichier personnalisé resolv.conf
- Facultatif : augmentation de la tolérance aux pannes
- Prérequis matériels
- Comment augmenter la tolérance aux défaillances