- Vue d'ensemble (Overview)
- Prérequis
- Modèles de déploiement
- Manuel : Préparation de l'installation
- Manuel : Préparation de l'installation
- Étape 2 : configurer le registre compatible OCI pour les installations hors ligne
- Étape 3 : configurer le magasin d’objets externe
- Étape 4 : Configuration de High Availability Add-on
- Étape 5 : configurer les bases de données SQL
- Étape 6 : configurer l’équilibreur de charge
- Étape 7 : configurer le DNS
- Étape 8 : configuration des disques
- Étape 9 : configurer les paramètres au niveau du noyau et du système d’exploitation
- Étape 10 : configuration des ports de nœud
- Étape 11 : appliquer divers paramètres
- Étape 12 : Valider et installer les packages RPM requis
- Étape 13 : génération du fichier cluster_config.json
- Configuration du certificat
- Configuration de la base de données
- Configuration du magasin d'objets externe
- Configuration d'URL pré-signée
- Configuration de l'authentification Kerberos
- Configuration du registre externe compatible OCI
- Disaster Recovery : configurations actif/passif et actif/actif
- Configuration de High Availability Add-on
- Configuration spécifique à Orchestrator
- Configuration spécifique à Insights
- Configuration spécifique à Process Mining
- Configuration spécifique à Document Understanding
- Configuration spécifique à Automation Suite Robots
- Configuration de la surveillance
- Facultatif : configuration du serveur proxy
- Facultatif : Activation de la résilience aux échecs locaux dans un cluster en mode production multi-nœuds compatible haute disponibilité
- Facultatif : Transmettre le fichier personnalisé resolv.conf
- Facultatif : augmentation de la tolérance aux pannes
- install-uipath.sh parameters
- Ajout d'un nœud d'agent dédié avec prise en charge GPU
- Ajout d'un nœud d'agent dédié pour Task Mining
- Connexion de l'application Task Mining
- Ajout d'un nœud d'agent dédié pour les Automation Suite Robots
- Étape 15 : configuration du registre Docker temporaire pour les installations hors ligne
- Étape 16 : validation des prérequis de l’installation
- Manuel : Exécution de l'installation
- Post-installation
- Administration du cluster
- Gestion des produits
- Premiers pas avec le portail d'administration du cluster
- Migration d'un magasin d'objets d'un volume persistant vers des disques bruts
- Migration de High Availability Add-on du cluster vers une version externe
- Migration des données entre les librairies
- Migration d'un magasin d'objets intégré au cluster vers un magasin d'objets externe
- Migration du registre intégré au cluster vers un registre externe compatible OCI
- Basculer manuellement vers le cluster secondaire dans une configuration actif/passif
- Disaster Recovery : exécution d'opérations post-installation
- Conversion d'une installation existante en configuration multi-sites
- Recommandations pour mettre à niveau un déploiement actif/passif ou actif/actif
- Recommandations pour sauvegarder et restaurer un déploiement actif/passif ou actif/actif
- Rediriger vers le cluster principal le trafic pour les services non pris en charge
- Mise à l'échelle d'un déploiement à nœud unique (évaluation) vers un déploiement multi-nœuds (HA)
- Surveillance et alerte
- Migration et mise à niveau
- Étape 1 : Déplacement des données d'organisation Identity d'installation autonome vers Automation Suite
- Étape 2 : Restauration de la base de données du produit autonome
- Étape 3 : Sauvegarder la base de données de la plate-forme dans Automation Suite
- Étape 4 : Fusion des organisations dans Automation Suite
- Étape 5 : Mise à jour des chaînes de connexion du produit migré
- Étape 6 : migration de la version autonome d'Orchestrator
- Étape 7 : Migration d’Insights en version autonome
- Étape 8 : Migration de Test Manager autonome
- Étape 9 : suppression du locataire par défaut
- Exécution d'une seule migration de locataire
- Migration d'Automation Suite sur Linux vers Automation Suite sur EKS/AKS
- Mettre à niveau Automation Suite
- Téléchargement des packages d'installation et obtention de l'ensemble des fichiers sur le premier nœud de serveur
- Récupération de la dernière configuration appliquée à partir du cluster
- Mise à jour de la configuration du cluster
- Configuration du registre compatible OCI pour les installations hors ligne
- Exécution de la mise à niveau
- Exécution d'opérations post-mise à niveau
- Configuration spécifique au produit
- Utilisation de l'outil Orchestrator Configurator
- Configuration des paramètres d'Orchestrator
- Paramètres de l'application Orchestrator
- Configuration des paramètres d'application
- Configuration de la taille maximale de la requête
- Remplacement de la configuration du stockage au niveau du cluster
- Configuration des magasins d'informations d'identification
- Configuration de la clé de chiffrement par locataire
- Nettoyer la base de données Orchestrator
- Rotation des informations d’identification de stockage d’objets blob
- Désactivation de l'utilisation d'URL pré-signées lors du téléchargement de données vers le stockage Amazon S3
- Configuration de la sécurité de l'application de processus
- Configurer une authentification Kerberos avec l’authentification MSSQL de base pour Process Mining
- Bonnes pratiques et maintenance
- Résolution des problèmes
- Comment résoudre les problèmes des services lors de l'installation
- Comment désinstaller le cluster
- Comment nettoyer les artefacts hors ligne pour améliorer l'espace disque
- Comment effacer les données Redis
- Comment activer la journalisation Istio
- Comment nettoyer manuellement les journaux
- Comment nettoyer les anciens journaux stockés dans le compartiment sf-logs
- Comment désactiver les journaux de diffusion pour AI Center
- Comment déboguer les installations d'Automation Suite ayant échoué
- Comment supprimer des images de l’ancien programme d’installation après la mise à niveau
- Comment désactiver le déchargement de la somme de contrôle txt
- Comment mettre à niveau Automation Suite 2022.10.10 et 2022.4.11 vers 2023.10.2
- Comment définir manuellement le niveau de journalisation d’ArgoCD sur Info
- Comment augmenter le stockage d’AI Center
- Comment générer la valeur pull_secret_value encodée pour les registres externes
- Comment résoudre les chiffrements faibles dans TLS 1.2
- Comment travailler avec les certificats
- Comment transférer les journaux d'application vers Splunk
- Comment nettoyer les images Docker inutilisées à partir des pods de registre
- Comment collecter les données d'utilisation de DU avec le magasin d'objets intégré au cluster (Ceph)
- Comment installer RKE2 SELinux dans des environnements isolés
- Comment nettoyer les anciennes sauvegardes différentielles sur un serveur NFS
- Impossible d'exécuter une installation hors ligne sur le système d'exploitation RHEL 8.4
- Erreur lors du téléchargement du bundle
- L'installation hors ligne échoue en raison d'un fichier binaire manquant
- Problème de certificat dans l'installation hors ligne
- La première installation échoue lors de la configuration de Longhorn
- Erreur de validation de la chaîne de connexion SQL
- Échec de la vérification des prérequis pour le module selinux iscsid
- Disque Azure non marqué comme SSD
- Échec après la mise à jour du certificat
- L'antivirus provoque des problèmes d'installation
- Automation Suite ne fonctionne pas après la mise à niveau du système d'exploitation
- Automation Suite requiert que backlog_wait_time soit défini sur 0
- Volume impossible à monter car il n'est pas prêt pour les charges de travail
- Échec de la collecte du journal du pack d'assistance
- La chaîne de connexion SQL de l’automatisation de test est ignorée
- Paramètres DNS non respectés par CoreDNS
- Perte de données lors de la réinstallation ou de la mise à niveau d'Insights après la mise à niveau d'Automation Suite
- Échec de la mise à niveau du nœud unique à l’étape Fabric
- Cluster défectueux après la mise à niveau automatisée à partir de la version 2021.10
- Échec de la mise à niveau en raison d’un Ceph défectueux
- RKE2 ne démarre pas en raison d'un problème d'espace
- Le volume ne peut pas être monté et reste à l'état de boucle d'attachement/détachement
- La mise à niveau échoue en raison d’objets classiques dans la base de données Orchestrator
- Cluster Ceph trouvé dans un état dégradé après une mise à niveau côte à côte
- Un composant Insights défectueux entraîne l’échec de la migration
- La mise à niveau du service échoue pour Apps
- Délais d'attente de mise à niveau sur place
- Migration du registre Docker bloquée lors de la suppression du PVC
- Échec de l’enregistrement d’AI Center après la mise à niveau vers la version 2023.10 ou une version ultérieure
- La mise à niveau échoue dans les environnements hors ligne
- Échec de la validation SQL lors de la mise à niveau
- Le pod d'instantané-contrôleur-crds dans l'état CrashLoopBackOff après la mise à niveau
- Erreur de mise à niveau/réinstallation du point de terminaison de l'API REST Longhorn
- La mise à niveau échoue en raison du remplacement des tailles de PVC Insights
- La mise à niveau du service échoue lors de l'exécution du script de pré-service
- Échec du chargement ou du téléchargement des données dans l'objectstore
- Le redimensionnement de la PVC ne répare pas Ceph
- Échec du redimensionnement du PVC objectstore
- Rook Ceph ou pod Looker bloqué dans l'état Init
- Erreur de pièce jointe du volume Ensembles d'états.
- Échec de la création de volumes persistants
- Échec de la compression des métriques en raison de blocs corrompus dans Thanos
- Définition d'un délai d'expiration pour les portails de gestion
- L'authentification ne fonctionne pas après la migration
- kinit : Impossible de trouver le KDC pour le domaine <AD Domain> lors de l'obtention des informations d'identification initiales
- Kinit : Keytab ne contient aucune clé appropriée pour *** lors de l'obtention des informations d'identification initiales
- L'opération GSSAPI a échoué en raison d'un code de statut non valide
- Alarme reçue pour l'échec de la tâche Kerberos-tgt-update
- Fournisseur SSPI : serveur introuvable dans la base de données Kerberos
- La connexion a échoué pour l'utilisateur AD en raison d'un compte désactivé
- Échec de connexion à ArgoCD
- Mettre à jour les connexions du répertoire sous-jacent
- Impossible d'obtenir l'image du bac à sable
- Les pods ne s'affichent pas dans l'interface utilisateur ArgoCD
- Échec de la sonde Redis
- Le serveur RKE2 ne démarre pas
- Secret introuvable dans l'espace de noms UiPath
- ArgoCD passe à l'état Progression (Progressing) après la première installation
- Services défectueux après la restauration ou l'annulation du cluster
- Pods bloqués dans Init:0/X
- Métriques Ceph-rook manquantes dans les tableaux de bord de surveillance
- Les pods ne peuvent pas communiquer avec le nom de domaine complet dans un environnement proxy
- Échec de la configuration des alertes par e-mail après la mise à niveau
- Aucun problème sain en amont
- Échec de l'ajout de nœuds d'agent dans les environnements hors ligne
- L'accès au nom de domaine complet renvoie RBAC : erreur d'accès refusé
- Document Understanding n'est pas affiché sur la barre de gauche d'Automation Suite
- État Échec (Failed) lors de la création d'une session de labellisation des données
- État Échec (Failed) lors de la tentative de déploiement d'une compétence ML
- La tâche de migration échoue dans ArgoCD
- La reconnaissance de l'écriture manuscrite avec l'Extracteur de formulaires intelligents (Intelligent Form Extractor) ne fonctionne pas
- Échec du déploiement de la compétence ML en raison de l'expiration du jeton
- Exécution de la haute disponibilité avec Process Mining
- Échec de l’ingestion de Process Mining lors de la connexion à l’aide de Kerberos
- Après Disaster Recovery, Dapr ne fonctionne pas correctement pour Process Mining
- Configuration de Dapr avec Redis en mode cluster
- Impossible de se connecter à la base de données AutomationSuite_ProcessMining_Authentication à l'aide d'une chaîne de connexion au format pyodbc
- L'installation d'airflow échoue avec sqlalchemy.exc.ArgumentError: impossible d'analyser l'URL rfc1738 de la chaîne ''
- Comment ajouter une règle de table d'adresse IP pour utiliser le port SQL Server 1433
- Le certificat Automation Suite n'est pas approuvé depuis le serveur sur lequel CData Sync est en cours d'exécution
- Exécution de l'outil de diagnostic
- Utilisation du pack d'assistance Automation Suite
- Explorer les journaux
- Explorer la télémétrie résumée

Guide d'installation d'Automation Suite sur Linux
Étape 1 : Préparation du déploiement Azure
Pour éviter la perte de données, assurez-vous que l'infrastructure que vous utilisez ne supprime pas automatiquement les disques du cluster lors du redémarrage ou de l'arrêt du cluster. Si cette fonctionnalité est activée, veillez à la désactiver.
Abonnement et autorisations Azure
Le déploiement nécessite l’accès à un abonnement Azure et à un groupe de ressources avec le rôle RBAC Propriétaire. Le rôle Propriétaire est nécessaire pour créer une identité gérée attribuée par l’utilisateur avec le rôle Contributeur attribué au niveau de l’étendue du groupe de ressources. L'identité gérée est nécessaire pour gérer les machines virtuelles.
Vous pouvez vérifier l'attribution de votre rôle en procédant comme suit :
Groupe de ressources (Resource Group) → Contrôle d'accès (Access Control) (IAM) → Vérifier l'accès (Check Access) → Afficher mon accès (View My Access)

Quotas
Le déploiement provisionne un certain nombre de machines virtuelles Standard_D (à usage général), Standard_F et/ou Standard_NC (avec GPU). L'abonnement Azure a un quota sur le nombre de cœurs qui peuvent être enregistrés pour la famille de machines virtuelles.
Certaines des machines virtuelles déployées doivent être dotées de disques SSD Premium et, selon la configuration, de disques SSD Ultra. Assurez-vous que ces disques SSD sont disponibles et ne sont bloqués par aucune stratégie.
Nous utilisons des pools élastiques SQL pour déployer les bases de données. Assurez-vous que les pools élastiques SQL ne sont bloqués par aucune stratégie.
Pour vérifier le quota d'abonnement, accédez à Utilisation + quotas (Usage + quotas) sur le portail Azure.

Assurez-vous que votre quota est suffisant pour le déploiement d'Automation Suite, sinon le déploiement échouera. Demandez à l'augmenter en sélectionnant Demander une augmentation.
Protection des instances
Dans le cadre du processus d'installation, nous ajoutons une protection d'instance contre les opérations de groupes identiques à tous les nœuds du Groupe identique de serveurs. Étant donné que ces opérations sont effectuées à partir d'Azure, sans le contexte du serveur, le dysfonctionnement du cluster est évité. Nous fournissons des runbooks pour les opérations de gestion de cluster. Pour en savoir plus sur la protection des instances groupe identique, consultez la documentation Azure.
Résiliation d'instance
La fermeture des instances de machine virtuelle de serveur entraînera très probablement une perte de données et entraînera le blocage du cluster. N'essayez pas de résilier les instances de machine virtuelle de serveur.
Nous fournissons une prise en charge de la résiliation d’instance pour les instances de machine virtuelle d’agent. Cela signifie que lorsqu'une instance de machine virtuelle d'agent est arrêtée, nous bloquons, drainons et supprimons ce nœud du cluster Automation Suite.
Nous exécutons un script sur chaque instance de machine virtuelle d’agent qui regroupe le service de métadonnées d’instance pour les événements de fin d’exécution. Chaque fois que nous recevons un événement, nous déclenchons une commande bouclage et une commande de drainage sur le nœud respectif, et un serveur exécute également une commande de suppression de nœud pour ce nœud spécifique.
Des journaux étendus sont disponibles pour ce processus. Vous pouvez trouver les journaux de chaque opération de terminaison de nœud sous le compte de stockage principal de déploiement dans le conteneur logs . Chaque fichier journal contient le nom du nœud et a le suffixe -termination.log .

Disponibilité de la région de la famille des machines virtuelles
Assurez-vous que les références SKU de machine virtuelle sont disponibles pour la région dans laquelle vous déployez.
Vous pouvez vérifier la disponibilité sur : Produits Azure par région (Azure Products by Region).
Cluster certificate configuration
Le modèle Azure vous permet de fournir des certificats pour un domaine personnalisé que vous spécifiez lors du déploiement afin que vous n'ayez pas besoin de le faire manuellement après le déploiement. Cependant, vous devez vous assurer que les certificats .crt sont encodés en Base64 avant de les fournir.
Le script suivant génère les chaînes encodées en Base64 à partir d'un seul certificat .pfx (certificat de serveur). Vous pouvez ensuite utiliser ces chaînes lors du remplissage des paramètres du modèle. Vous pouvez exécuter ce script bash sur une machine Windows à l'aide du sous-système Windows pour Linux (Windows Subsystem for Linux). Il utilise openssl pour convertir les certificats. Gardez à l'esprit que le certificat de serveur (.pfx) doit répondre à certaines exigences.
Exécutez les commandes suivantes une par une, car certaines nécessitent le mot de passe du certificat .pfx :
pfxFile=<path of the pfx file>
# Key
openssl pkcs12 -in $pfxFile -nocerts -out serverCertKeyEncrypted.key
openssl rsa -in serverCertKeyEncrypted.key -out serverCertKeyDecrypted.key
# Server cert
openssl pkcs12 -in $pfxFile -clcerts -nokeys -out serverCert.crt
# CA Bundle:
openssl pkcs12 -in $pfxFile -cacerts -nokeys -chain | sed -ne '/-BEGIN CERTIFICATE-/,/-END CERTIFICATE-/p' > caBundle.crt
# Converting to base64 and removing newlines
cat serverCertKeyDecrypted.key | base64 | tr -d '\n' > base64CertKey
cat serverCert.crt | base64 | tr -d '\n' > base64Cert
cat caBundle.crt | base64 | tr -d '\n' > base64CABundle
pfxFile=<path of the pfx file>
# Key
openssl pkcs12 -in $pfxFile -nocerts -out serverCertKeyEncrypted.key
openssl rsa -in serverCertKeyEncrypted.key -out serverCertKeyDecrypted.key
# Server cert
openssl pkcs12 -in $pfxFile -clcerts -nokeys -out serverCert.crt
# CA Bundle:
openssl pkcs12 -in $pfxFile -cacerts -nokeys -chain | sed -ne '/-BEGIN CERTIFICATE-/,/-END CERTIFICATE-/p' > caBundle.crt
# Converting to base64 and removing newlines
cat serverCertKeyDecrypted.key | base64 | tr -d '\n' > base64CertKey
cat serverCert.crt | base64 | tr -d '\n' > base64Cert
cat caBundle.crt | base64 | tr -d '\n' > base64CABundle
External Orchestrator certificates
Pour connecter AI Center à une installation Orchestrator externe, vous devez définir Connect AiCenter to an external Orchestrator sur true et fournir des certificats pour Orchestrator et Identity aux paramètres répertoriés dans la section Déploiement d'Automation Suite vers Azure. Pour plus de détails sur la façon d'obtenir les certificats, consultez la section Certificats de chaîne.
Pour coder les certificats en Base64, exécutez les commandes suivantes :
cat orchestrator.cer | base64 | tr -d '\n' > orchestratorCert
cat identity.cer | base64 | tr -d '\n' > identityCert
cat orchestrator.cer | base64 | tr -d '\n' > orchestratorCert
cat identity.cer | base64 | tr -d '\n' > identityCert
Pour enregistrer AI Center dans une installation Orchestrator externe, vous devez exécuter le runbook RegisterAiCenterExternalOrchestrator.
Résilience aux défaillances zonales dans un cluster en mode de production multi-nœuds compatible haute disponibilité
Par défaut, les modèles déploient les machines virtuelles sur autant de zones de disponibilité Azure que possible pour activer la résilience aux défaillances zonales dans un cluster de mode de production multi-nœuds compatible haute disponibilité.
Toutes les régions Azure ne prennent pas en charge les zones de disponibilité. Voir Régions Azure (Azure Geographies) pour plus de détails. Les références SKU de machine virtuelle ont des restrictions de zones de disponibilité supplémentaires que vous pouvez vérifier à l'aide de la cmdlet de CLI. Voir Get-AzComputeResourceSku pour plus de détails.
Le cluster est considéré comme résilient aux défaillances zonales si les serveurs sont répartis sur trois zones de disponibilité Azure. Si la région Azure ne prend pas en charge les zones de disponibilité pour le type de machine virtuelle sélectionné pour les serveurs, le déploiement se poursuivra sans résilience de zone.
Dns
Le modèle enregistre un équilibreur de charge Azure avec une adresse IP publique et une étiquette DNS pour accéder aux services.
L'étiquette DNS appartient à Microsoft et doit avoir un format similaire à : <dnsName>.<regionName>.cloudapp.azure.com.
Nous déployons également une zone DNS privée, pour que les MV du cluster puissent résoudre plusieurs sous-domaines. Ceci est nécessaire pour le processus d'installation. Pour résoudre les enregistrements dans une zone DNS privée à partir du réseau virtuel, assurez-vous que le serveur DNS est défini sur Azure-provided ou 168.63.129.16.
Si vous souhaitez accéder au cluster via Internet, vous pouvez consulter Étape 3 : Étapes de post-déploiement.
Déploiement dans un réseau virtuel existant
Le modèle vous permet de déployer les nœuds dans un réseau virtuel existant. Cependant, le réseau virtuel doit avoir un sous-réseau qui répond aux exigences suivantes :
- dispose de suffisamment d'espace d'adressage libre pour accueillir tous les nœuds et l'équilibreur de charge interne
- connectivité sortante, de préférence configurée via une passerelle NAT , selon la recommandation de Microsoft ;
- autorise le trafic HTTPS sur le port
443 - Facultatif : possède un point de terminaison de service configuré pour
Microsoft.Storage. Cela est nécessaire si vous activez la sauvegarde au moment du déploiement.
Lors du déploiement dans un réseau virtuel existant, vous devez disposer du rôle RBAC de propriétaire pour créer une attribution de rôle de collaborateur dans son étendue. Cela est nécessaire pour l'opération d'actualisation de l'instance lors de la montée en puissance parallèle.
Sauvegarde
Le modèle vous permet d'activer la sauvegarde au moment du déploiement. Cela implique de créer un compte de stockage Microsoft avec une capacité de stockage variable (en fonction du nombre de nœuds de serveur - # of server nodes x 512 Go) utilisé comme partage NFS et de configurer la sauvegarde pour le cluster. Par défaut, l'intervalle de sauvegarde est défini sur 90 minutes et l'intervalle de rétention est de 72 heures. Vous pouvez modifier les intervalles de sauvegarde et de rétention après le déploiement. Pour plus de détails, consultez BackupCluster.
- Abonnement et autorisations Azure
- Quotas
- Protection des instances
- Résiliation d'instance
- Disponibilité de la région de la famille des machines virtuelles
- Cluster certificate configuration
- External Orchestrator certificates
- Résilience aux défaillances zonales dans un cluster en mode de production multi-nœuds compatible haute disponibilité
- Dns
- Déploiement dans un réseau virtuel existant
- Sauvegarde