- Vue d'ensemble (Overview)
- Prérequis
- Installation
- Questions et réponses : modèles de déploiement
- Configuration des machines
- Configuration du magasin d'objets externe
- Configuration d'un registre Docker externe
- Configurer l'équilibreur de charge
- Configuration du DNS
- Configuration de Microsoft SQL Server
- Configuration des certificats
- Installation de production en ligne multi-nœuds compatible haute disponibilité
- Installation de production hors ligne multi-nœuds compatible haute disponibilité
- Disaster Recovery - Installation du cluster secondaire
- Téléchargement des packages d'installation
- install-uipath.sh parameters
- Activation du module complémentaire Redis High Availability Add-on pour le cluster
- Fichier de configuration de Document Understanding
- Ajout d'un nœud d'agent dédié avec prise en charge GPU
- Ajout d'un nœud d'agent dédié pour Task Mining
- Connexion de l'application Task Mining
- Ajout d'un nœud d'agent dédié pour les Automation Suite Robots
- Post-installation
- Administration du cluster
- Gestion des produits
- Premiers pas avec le portail d'administration du cluster
- Migration d'un magasin d'objets d'un volume persistant vers des disques bruts
- Migration des données entre les librairies
- Migration d'un magasin d'objets intégré au cluster vers un magasin d'objets externe
- Basculer vers le cluster secondaire
- Disaster Recovery : exécution d'opérations post-installation
- Conversion d'une installation existante en configuration multi-sites
- Directives sur la mise à niveau d'un déploiement actif/passif
- Directives pour la sauvegarde et la restauration d'un déploiement actif/passif
- Surveillance et alerte
- Migration et mise à niveau
- Chemins de mise à niveau Automation Suite
- Automatisée : mise à niveau en ligne
- Automatisée : mise à niveau hors ligne
- Manuel : mise à niveau en ligne
- Manuel : mise à niveau hors ligne
- Annulation en cas d'erreur
- Migration d'un disque physique Longhorn vers LVM
- Migration de Canal vers Cilium CNI
- Rétrogradation de Ceph de la version 16.2.6 à la version 15.2.9
- Options de migration :
- Étape 1 : Déplacement des données d'organisation Identity d'installation autonome vers Automation Suite
- Étape 2 : Restauration de la base de données du produit autonome
- Étape 3 : Sauvegarder la base de données de la plate-forme dans Automation Suite
- Étape 4 : Fusion des organisations dans Automation Suite
- Étape 5 : Mise à jour des chaînes de connexion du produit migré
- Étape 6 : migration de la version autonome d’Insights
- Étape 7 : suppression du locataire par défaut
- B) Migration à locataire unique
- Configuration spécifique au produit
- Rotation des informations d’identification de stockage d’objets blob
- Désactivation de l'utilisation d'URL pré-signées lors du téléchargement de données vers le stockage Amazon S3
- Configuration de la sécurité de l'application de processus
- Configurer une authentification Kerberos avec l’authentification MSSQL de base pour Process Mining
- Bonnes pratiques et maintenance
- Résolution des problèmes
- Comment résoudre les problèmes des services lors de l'installation
- Comment désinstaller le cluster
- Comment nettoyer les artefacts hors ligne pour améliorer l'espace disque
- Comment effacer les données Redis
- Comment activer la journalisation Istio
- Comment nettoyer manuellement les journaux
- Comment nettoyer les anciens journaux stockés dans le compartiment sf-logs
- Comment désactiver les journaux de diffusion pour AI Center
- Comment déboguer les installations d'Automation Suite ayant échoué
- Comment supprimer des images de l’ancien programme d’installation après la mise à niveau
- Comment nettoyer automatiquement les instantanés Longhorn
- Comment désactiver le déchargement de la somme de contrôle txt
- Comment définir manuellement le niveau de journalisation d’ArgoCD sur Info
- Comment générer la valeur pull_secret_value encodée pour les registres externes
- Comment résoudre les chiffrements faibles dans TLS 1.2
- Impossible d'exécuter une installation hors ligne sur le système d'exploitation RHEL 8.4
- Erreur lors du téléchargement du bundle
- L'installation hors ligne échoue en raison d'un fichier binaire manquant
- Problème de certificat dans l'installation hors ligne
- La première installation échoue lors de la configuration de Longhorn
- Erreur de validation de la chaîne de connexion SQL
- Échec de la vérification des prérequis pour le module selinux iscsid
- Disque Azure non marqué comme SSD
- Échec après la mise à jour du certificat
- L'antivirus provoque des problèmes d'installation
- Automation Suite ne fonctionne pas après la mise à niveau du système d'exploitation
- Automation Suite requiert que backlog_wait_time soit défini sur 0
- Nœud GPU affecté par l'indisponibilité des ressources
- Volume impossible à monter car il n'est pas prêt pour les charges de travail
- Échec de la collecte du journal du pack d'assistance
- Échec de la mise à niveau du nœud unique à l’étape Fabric
- Cluster défectueux après la mise à niveau automatisée à partir de la version 2021.10
- Échec de la mise à niveau en raison d’un Ceph défectueux
- RKE2 ne démarre pas en raison d'un problème d'espace
- Échec de la validation SQL lors de la mise à niveau
- Le pod d'instantané-contrôleur-crds dans l'état CrashLoopBackOff après la mise à niveau
- Échec du chargement ou du téléchargement des données dans l'objectstore
- Le redimensionnement de la PVC ne répare pas Ceph
- Échec du redimensionnement du PVC
- Échec du redimensionnement du PVC objectstore
- Rook Ceph ou pod Looker bloqué dans l'état Init
- Erreur de pièce jointe du volume Ensembles d'états.
- Échec de la création de volumes persistants
- Correctif de récupération du stockage
- La sauvegarde a échoué en raison de l’erreur TropInstantanés (TooManySnapshots)
- Toutes les répliques Longhorn sont défaillantes
- Définition d'un délai d'expiration pour les portails de gestion
- Mettre à jour les connexions du répertoire sous-jacent
- L'authentification ne fonctionne pas après la migration
- kinit : Impossible de trouver le KDC pour le domaine <AD Domain> lors de l'obtention des informations d'identification initiales
- Kinit : Keytab ne contient aucune clé appropriée pour *** lors de l'obtention des informations d'identification initiales
- L'opération GSSAPI a échoué en raison d'un code de statut non valide
- Alarme reçue pour l'échec de la tâche Kerberos-tgt-update
- Fournisseur SSPI : serveur introuvable dans la base de données Kerberos
- La connexion a échoué pour l'utilisateur AD en raison d'un compte désactivé
- Échec de connexion à ArgoCD
- Impossible d'obtenir l'image du bac à sable
- Les pods ne s'affichent pas dans l'interface utilisateur ArgoCD
- Échec de la sonde Redis
- Le serveur RKE2 ne démarre pas
- Secret introuvable dans l'espace de noms UiPath
- ArgoCD passe à l'état Progression (Progressing) après la première installation
- Problèmes d'accès au compte ArgoCD en lecture seule
- Pods MongoDB en mode CrashLoopBackOff ou enregistrement PVC en attente après suppression
- Services défectueux après la restauration ou l'annulation du cluster
- Pods bloqués dans Init:0/X
- Prometheus en état CrashloopBackoff avec erreur de mémoire insuffisante (OOM)
- Métriques Ceph-rook manquantes dans les tableaux de bord de surveillance
- Les pods ne peuvent pas communiquer avec le nom de domaine complet dans un environnement proxy
- Document Understanding n'est pas affiché sur la barre de gauche d'Automation Suite
- État Échec (Failed) lors de la création d'une session de labellisation des données
- État Échec (Failed) lors de la tentative de déploiement d'une compétence ML
- La tâche de migration échoue dans ArgoCD
- La reconnaissance de l'écriture manuscrite avec l'Extracteur de formulaires intelligents (Intelligent Form Extractor) ne fonctionne pas
- Exécution de la haute disponibilité avec Process Mining
- Échec de l’ingestion de Process Mining lors de la connexion à l’aide de Kerberos
- Impossible de se connecter à la base de données AutomationSuite_ProcessMining_Authentication à l'aide d'une chaîne de connexion au format pyodbc
- L'installation d'airflow échoue avec sqlalchemy.exc.ArgumentError: impossible d'analyser l'URL rfc1738 de la chaîne ''
- Comment ajouter une règle de table d'adresse IP pour utiliser le port SQL Server 1433
- Utilisation de l'outil de diagnostic d'Automation Suite
- Utilisation du pack d'assistance Automation Suite
- Explorer les journaux
Guide d'installation d'Automation Suite sur Linux
Configuration de Microsoft SQL Server
Chaque produit d'Automation Suite nécessite sa propre base de données SQL avec ses spécifications correspondantes.
Par défaut, le programme d'installation créera toutes les bases de données pour vous lors du processus d'installation. Vous devez fournir les autorisations nécessaires pour que le programme d'installation puisse le faire sur votre serveur SQL.
Vous avez également la possibilité de créer vos propres bases de données. Référez-vous au tableau suivant pour les noms que vous devez utiliser.
Si vous choisissez d’apporter vos propres bases de données dans le cadre d’une nouvelle installation Automation Suite, nous vous recommandons fortement de créer de nouvelles bases de données plutôt que d’utiliser les bases existantes. Cette précaution est nécessaire afin d’éviter tout conflit avec le fonctionnement d’Automation Suite qui pourrait être provoqué par la présence de métadonnées relatives à d’anciennes bases de données.
Le tableau suivant répertorie les noms de bases de données et leur format correspondant.
Produit/service |
Nom de la base de données par défaut |
Format de chaîne de connexion |
---|---|---|
Capacités partagées des plates-formes |
| |
Orchestrator |
| |
Action Center |
| |
Robots Automation Suite |
| |
Automation Hub |
| |
Data Service |
| |
Insights |
| |
Test Manager |
| |
Task Mining |
| |
AI Center |
| |
Apps | AutomationSuite_Apps 1 | ODBC |
Document Understanding |
| |
Process Mining |
AutomationSuite_ProcessMining_Warehouse 2AutomationSuite_Airflow 3 |
#{
.
AutomationSuite_ProcessMining_Warehouse
utilise à la fois les formats ADO.NET et PYODBC.
AutomationSuite_Airflow
utilise le format de chaîne de connexion PYODBC. AutomationSuite_Airflow
doit avoir READ_COMMITTED_SNAPSHOT
activé lors de la création manuelle de bases de données. La connexion à la base de données AutomationSuite_Airflow
ne peut pas commencer par un caractère {
.
Si vous définissez manuellement les chaînes de connexion dans le fichier de configuration, vous pouvez échapper les mots de passe SQL, JDBC ou ODBC comme suit :
- pour SQL : ajoutez
'
au début et à la fin du mot de passe, et doublez tout autre'
. - pour JDBC/ODBC : ajoutez
{
au début du mot de passe et}
à la fin, et doublez tout autre}
.
Vous pouvez utiliser les bases de données dans un pool Elastic pour une meilleure rentabilité.
SQL_Latin1_General_CP1_CI_AS
au niveau du serveur et de la base de données. Pour des performances et une stabilité optimales, nous recommandons fortement d’utiliser cette configuration.
Bien que vous ayez la possibilité d’utiliser le classement de votre choix, sachez que des configurations non testées sont susceptibles d’entraîner des problèmes inattendus.
We do not recommend using Binary SQL or any collations that are case-sensitive, as they cause known issues while installing Automation Suite.
dbcreator
au compte SQL utilisé pour se connecter à la base de données.
db_owner
et db_securityadmin
pour toutes les bases de données Automation Suite.
db_owner
, le compte SQL doit avoir les rôles et autorisations suivants sur toutes les bases de données (la seule exception est Insights qui nécessite toujours db_owner
).
db_securityadmin
db_ddladmin
db_datawriter
db_datareader
- Autorisation
EXECUTE
sur le schéma dbo
db_securityadmin
et db_ddladmin
lors de l'installation, ou bien si les bases de données sont réenregistrées. Vous avez donc la possibilité de révoquer ces autorisations ultérieurement.
Document Understanding nécessite que SQL Server dispose du composant de recherche en texte intégral du moteur de base de données SQL Server, qui n'est pas toujours installé par défaut.
Si vous n'avez pas sélectionné la recherche en texte intégral lors de l'installation de SQL Server, exécutez à nouveau le programme d'installation de SQL Server pour l'ajouter avant de configurer Document Understanding.
Pour plus d'informations, consultez ce guide sur la façon d'ajouter/d'installer des fonctionnalités sur le serveur SQL. Vous pouvez également vérifier ici tous les composants qui peuvent être ajoutés au serveur SQL, qui comprend également la recherche en texte intégral.
.json
.
Pour Azure SQL, assurez-vous que la base de données correspond à l'objectif de service S3 ou supérieur.
Assurez-vous que le niveau de compatibilité de la base de données Insights est défini sur 130 ou plus. Dans la plupart des cas, les paramètres par défaut répondent à cette exigence. Pour plus d'informations, reportez-vous à Afficher ou modifier le niveau de compatibilité d'une base de données - SQL Server (View or Change the Compatibility level of a Database - SQL Server).
L'installation valide les deux conditions et vous avertit si les exigences minimales ne sont pas remplies.
Data Service nécessite un serveur SQL de version 2016 ou ultérieure.
Si vous créez votre propre base de données à l'aide du serveur SQL version 2019 ou ultérieure, veillez à accorder les autorisations Data Service suivantes à vos utilisateurs :
GRANT ALTER ANY SENSITIVITY CLASSIFICATION TO {userName};
GRANT VIEW ANY SENSITIVITY CLASSIFICATION TO {userName};
GRANT ALTER ANY SENSITIVITY CLASSIFICATION TO {userName};
GRANT VIEW ANY SENSITIVITY CLASSIFICATION TO {userName};
AutomationSuite_ProcessMining_Warehouse
afin de stocker les données des applications de processus Process Mining.
AutomationSuite_ProcessMining_Warehouse
. Les ports de SQL server non standard ne sont pas pris en charge.
AutomationSuite_ProcessMining_Warehouse
.
Lorsque vous configurez Microsoft SQL Server, veillez à ce que le fuseau horaire est défini sur UTC dans la machine SQL Server où la base de données Airflow et la base de données Process Mining dédiée ont été installées.
Pour calculer la configuration matérielle requise, vous devez disposer des éléments suivants :
- le nombre de (millions) d'événements dans votre processus.
-
le nombre de champs d'incident et d'événement dans vos données de sortie.
Remarque : dans un environnement de développement, pour des raisons de performances, il est recommandé de travailler sur un petit ensemble de données de développement avec un nombre limité d'enregistrements.
Vous pouvez utiliser le Calculateur de capacité pour déterminer la configuration matérielle requise en vue de configurer une machine Microsoft SQL Server dédiée pour Process Mining. Lorsque vous ajoutez Process Mining à la section Produit(Product), la configuration minimale requise pour une machine SQL Server dédiée s'affiche.
Consultez également la section Configuration matérielle requise.
db_securityadmin
pendant et après l’installation pour activer la sécurité par application sur le serveur SQL de l’entrepôt de données Process Mining. Pour plus de détails, consultez la documentation officielle de Microsoft sur les rôles de niveau base de données.
AutomationSuite_Platform
pour les services AI Events et AI Storage.
-
Avant de commencer l'installation d'Automation Suite, procédez comme suit :
-
Activez FIPS 140-2 sur la machine sur laquelle vous prévoyez d'installer Microsoft Server en suivant les instructions de Microsoft.
-
Installez le serveur Microsoft SQL sur la machine compatible FIPS 140-2.
-
Obtenez le certificat Microsoft SQL Server en exécutant la commande suivante à partir de SQL Server ou de tout serveur pouvant se connecter au serveur SQL avec le nom d'hôte SQL configuré :
nmap -sV -p <port> -vv --script ssl-cert domain
nmap -sV -p <port> -vv --script ssl-cert domain
-
-
Lors de l'installation d'Automation Suite, procédez comme suit :
-
Ajoutez les valeurs suivantes à la chaîne de connexion
sql_connection_string_template_jdbc
d'AI Center dans le fichiercluster_config.json
:encrypt=true;trustServerCertificate=false;fips=true;
.Exemple :
jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net:1433;database=DB_NAME_PLACEHOLDER;user=testadmin;password=***;encrypt=true;trustServerCertificate=false;fips=true;Connection Timeout=30;hostNameInCertificate=sfdev1804627-c83f074b-sql.database.windows.net"
jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net:1433;database=DB_NAME_PLACEHOLDER;user=testadmin;password=***;encrypt=true;trustServerCertificate=false;fips=true;Connection Timeout=30;hostNameInCertificate=sfdev1804627-c83f074b-sql.database.windows.net"Pour plus de détails sur la configuration de la base de données, voir Expérience d'installation avancée et Mise à jour de la base de données SQL.
-
Ajoutez le certificat exporté de l'étape 1.c. au magasin approuvé de la machine hôte. Pour plus de détails, consultez Mise à jour des certificats CA.
-
Pour une configuration haute disponibilité du serveur SQL, sélectionnez un groupe de disponibilité Toujours activé (Always On). Pour plus d'informations, consultez Présentation des groupes de disponibilité Toujours activé (Always On).
READ_COMMITTED_SNAPSHOT
est définie sur ON
.
READ_COMMITTED_SNAPSHOT
est activé ou désactivé :
SELECT is_read_committed_snapshot_on FROM sys.databases
WHERE name= 'UiPath'
SELECT is_read_committed_snapshot_on FROM sys.databases
WHERE name= 'UiPath'
1
.
0
. Utilisez cette requête pour l'activer :
ALTER DATABASE UiPath
SET READ_COMMITTED_SNAPSHOT ON
ALTER DATABASE UiPath
SET READ_COMMITTED_SNAPSHOT ON
READ_COMMITTED_SNAPSHOT
doit également être activé sur celles-ci.
- Bases de données
- SQL collation
- Autorisations
- Exigences SQL pour la recherche en texte intégral
- Exigences SQL pour Insights
- Exigences SQL pour Data Service
- Exigences SQL pour Process Mining
- Exigences SQL pour AI Center
- Exigences pour AI Center connecté à une installation Orchestrator externe
- Exigences pour AI Center installé sur une machine compatible FIPS 140-2
- Exigences SQL pour la haute disponibilité (HA)
- Exigences SQL pour Orchestrator