- Vue d'ensemble (Overview)
- Prérequis
- Installation
- Questions et réponses : modèles de déploiement
- Configuration des machines
- Configuration du magasin d'objets externe
- Configuration d'un registre Docker externe
- Configurer l'équilibreur de charge
- Configuration du DNS
- Configuration de Microsoft SQL Server
- Configuration des certificats
- Installation de production en ligne multi-nœuds compatible haute disponibilité
- Installation de production hors ligne multi-nœuds compatible haute disponibilité
- Disaster Recovery - Installation du cluster secondaire
- Téléchargement des packages d'installation
- install-uipath.sh parameters
- Activation du module complémentaire Redis High Availability Add-on pour le cluster
- Fichier de configuration de Document Understanding
- Ajout d'un nœud d'agent dédié avec prise en charge GPU
- Ajout d'un nœud d'agent dédié pour Task Mining
- Connexion de l'application Task Mining
- Ajout d'un nœud d'agent dédié pour les Automation Suite Robots
- Post-installation
- Administration du cluster
- Gestion des produits
- Premiers pas avec le portail d'administration du cluster
- Migration d'un magasin d'objets d'un volume persistant vers des disques bruts
- Migration des données entre les librairies
- Migration d'un magasin d'objets intégré au cluster vers un magasin d'objets externe
- Basculer vers le cluster secondaire
- Disaster Recovery : exécution d'opérations post-installation
- Conversion d'une installation existante en configuration multi-sites
- Directives sur la mise à niveau d'un déploiement actif/passif
- Directives pour la sauvegarde et la restauration d'un déploiement actif/passif
- Surveillance et alerte
- Migration et mise à niveau
- Chemins de mise à niveau Automation Suite
- Automatisée : mise à niveau en ligne
- Automatisée : mise à niveau hors ligne
- Manuel : mise à niveau en ligne
- Manuel : mise à niveau hors ligne
- Annulation en cas d'erreur
- Migration d'un disque physique Longhorn vers LVM
- Migration de Canal vers Cilium CNI
- Rétrogradation de Ceph de la version 16.2.6 à la version 15.2.9
- Options de migration :
- Étape 1 : Déplacement des données d'organisation Identity d'installation autonome vers Automation Suite
- Étape 2 : Restauration de la base de données du produit autonome
- Étape 3 : Sauvegarder la base de données de la plate-forme dans Automation Suite
- Étape 4 : Fusion des organisations dans Automation Suite
- Étape 5 : Mise à jour des chaînes de connexion du produit migré
- Étape 6 : migration de la version autonome d’Insights
- Étape 7 : suppression du locataire par défaut
- B) Migration à locataire unique
- Configuration spécifique au produit
- Rotation des informations d’identification de stockage d’objets blob
- Désactivation de l'utilisation d'URL pré-signées lors du téléchargement de données vers le stockage Amazon S3
- Configuration de la sécurité de l'application de processus
- Configurer une authentification Kerberos avec l’authentification MSSQL de base pour Process Mining
- Bonnes pratiques et maintenance
- Résolution des problèmes
- Comment résoudre les problèmes des services lors de l'installation
- Comment désinstaller le cluster
- Comment nettoyer les artefacts hors ligne pour améliorer l'espace disque
- Comment effacer les données Redis
- Comment activer la journalisation Istio
- Comment nettoyer manuellement les journaux
- Comment nettoyer les anciens journaux stockés dans le bundle sf-logs
- Comment désactiver les journaux de diffusion pour AI Center
- Comment déboguer les installations d'Automation Suite ayant échoué
- Comment supprimer des images de l’ancien programme d’installation après la mise à niveau
- Comment nettoyer automatiquement les instantanés Longhorn
- Comment désactiver le déchargement de la somme de contrôle txt
- Comment définir manuellement le niveau de journalisation d’ArgoCD sur Info
- Comment générer la valeur pull_secret_value encodée pour les registres externes
- Comment résoudre les chiffrements faibles dans TLS 1.2
- Impossible d'exécuter une installation hors ligne sur le système d'exploitation RHEL 8.4
- Erreur lors du téléchargement du bundle
- L'installation hors ligne échoue en raison d'un fichier binaire manquant
- Problème de certificat dans l'installation hors ligne
- La première installation échoue lors de la configuration de Longhorn
- Erreur de validation de la chaîne de connexion SQL
- Échec de la vérification des prérequis pour le module selinux iscsid
- Disque Azure non marqué comme SSD
- Échec après la mise à jour du certificat
- L'antivirus provoque des problèmes d'installation
- Automation Suite ne fonctionne pas après la mise à niveau du système d'exploitation
- Automation Suite requiert que backlog_wait_time soit défini sur 0
- Nœud GPU affecté par l'indisponibilité des ressources
- Volume impossible à monter car il n'est pas prêt pour les charges de travail
- Échec de la mise à niveau du nœud unique à l’étape Fabric
- Cluster défectueux après la mise à niveau automatisée à partir de la version 2021.10
- Échec de la mise à niveau en raison d’un Ceph défectueux
- RKE2 ne démarre pas en raison d'un problème d'espace
- Échec de la validation SQL lors de la mise à niveau
- Échec du chargement ou du téléchargement des données dans l'objectstore
- Le redimensionnement de la PVC ne répare pas Ceph
- Échec du redimensionnement du PVC
- Échec du redimensionnement du PVC objectstore
- Rook Ceph ou pod Looker bloqué dans l'état Init
- Erreur de pièce jointe du volume Ensembles d'états.
- Échec de la création de volumes persistants
- Correctif de récupération du stockage
- La sauvegarde a échoué en raison de l’erreur TropInstantanés (TooManySnapshots)
- Toutes les répliques Longhorn sont défaillantes
- Définition d'un délai d'expiration pour les portails de gestion
- Mettre à jour les connexions du répertoire sous-jacent
- L'authentification ne fonctionne pas après la migration
- kinit : Impossible de trouver le KDC pour le domaine <AD Domain> lors de l'obtention des informations d'identification initiales
- Kinit : Keytab ne contient aucune clé appropriée pour *** lors de l'obtention des informations d'identification initiales
- L'opération GSSAPI a échoué en raison d'un code de statut non valide
- Alarme reçue pour l'échec de la tâche Kerberos-tgt-update
- Fournisseur SSPI : serveur introuvable dans la base de données Kerberos
- La connexion a échoué pour l'utilisateur AD en raison d'un compte désactivé
- Échec de connexion à ArgoCD
- Impossible d'obtenir l'image du bac à sable
- Les pods ne s'affichent pas dans l'interface utilisateur ArgoCD
- Échec de la sonde Redis
- Le serveur RKE2 ne démarre pas
- Secret introuvable dans l'espace de noms UiPath
- ArgoCD passe à l'état Progression (Progressing) après la première installation
- Problèmes d'accès au compte ArgoCD en lecture seule
- Pods MongoDB en mode CrashLoopBackOff ou enregistrement PVC en attente après suppression
- Services défectueux après la restauration ou l'annulation du cluster
- Pods bloqués dans Init:0/X
- Prometheus en état CrashloopBackoff avec erreur de mémoire insuffisante (OOM)
- Métriques Ceph-rook manquantes dans les tableaux de bord de surveillance
- Document Understanding n'est pas affiché sur la barre de gauche d'Automation Suite
- État Échec (Failed) lors de la création d'une session de labellisation des données
- État Échec (Failed) lors de la tentative de déploiement d'une compétence ML
- La tâche de migration échoue dans ArgoCD
- La reconnaissance de l'écriture manuscrite avec l'Extracteur de formulaires intelligents (Intelligent Form Extractor) ne fonctionne pas
- Exécution de la haute disponibilité avec Process Mining
- Échec de l’ingestion de Process Mining lors de la connexion à l’aide de Kerberos
- Impossible de se connecter à la base de données AutomationSuite_ProcessMining_Authentication à l'aide d'une chaîne de connexion au format pyodbc
- L'installation d'airflow échoue avec sqlalchemy.exc.ArgumentError: impossible d'analyser l'URL rfc1738 de la chaîne ''
- Comment ajouter une règle de table d'adresse IP pour utiliser le port SQL Server 1433
- Utilisation de l'outil de diagnostic d'Automation Suite
- Utilisation de l'outil Automation Suite Support Bundle
- Explorer les journaux
Questions et réponses : modèles de déploiement
Q: pour le profil de production multi-nœuds compatible haute disponibilité, le processeur requis pour la sélection complète de produits est de 96 (v-)CPU/cœurs. Cette exigence inclut-elle les nœuds de serveur et d'agent, ou fait-elle référence aux nœuds de serveur ou d'agent ?
R: Notre documentation indique que le profil de production multi-nœuds compatible haute disponibilité nécessite au moins 3 nœuds de serveur avec un minimum de processeur/RAM par nœud. Tant que cette condition est remplie, les exigences CPU/RAM restantes peuvent être réparties sur des nœuds de serveur ou d'agent supplémentaires qui répondent également aux exigences minimales en matière de CPU/RAM.
Q: Un GPU est-il requis pour Task Mining ?
R: Non, le GPU n'est pas requis pour Task Mining.
Q : À quoi fait référence la tolérance aux pannes relatives aux nœuds dans le calculateur de dimensionnement d’installation d’UiPath® Automation Suite ? Cela couvre-t-il les nœuds d’agent, les nœuds de serveur uniquement, ou bien les deux ?
R : le calculateur de dimensionnement d’installation d’UiPath® Automation Suite fonde la recommandation sur la tolérance aux pannes afin qu’un minimum de 3 nœuds de serveur soient toujours disponibles dans le pire des cas. Vous pouvez augmenter le nombre de serveurs pouvant tomber en panne sans entraîner l’échec du déploiement.
Q: Puis-je utiliser un domaine privé dans Amazon Route 53 ?
R: Oui, les zones hébergées privées sont prises en charge.
Q: Dois-je également spécifier les enregistrements DNS dans la solution cloud (par exemple, AWS) ? Puis-je utiliser une solution DNS locale avec un déploiement AWS d'Automation Suite ? Par exemple, dans le cas d'une URL à laquelle l'utilisateur final accède, l'enregistrement doit-il pouvoir être résolu dans le cloud ou le DNS local ?
R: vous pouvez utiliser une infrastructure DNS non Amazon Route 53. Cependant, le DNS doit pouvoir être résolu dans le VPC sur lequel vous effectuez le déploiement.
Q : Quel plugin CNI est utilisé dans le cadre de Kubernetes ? Par exemple, lorsqu'elle est fournie par le fournisseur, la solution Kubernetes prend en charge l'intégration avec VPC/VNET. Si vous utilisez AWS Kubernetes, chaque fois que le fournisseur crée et déploie une charge de travail, les pods obtiennent les adresses IP du VPC lui-même. Cela signifie que la charge de travail est accessible par les services AWS ou Azure.
R: Nous utilisons Cilium CNI. La distribution Kubernetes est livrée avec 3 CNI pris en charge, mais pas celui spécifique à AWS.
Q: Personnalisez-vous les plages IP de service et IP de POD ?
10.42.0.0/16
.
Q: Lors du déploiement d'Automation Suite sur AWS dans un VPC existant, est-il possible d'utiliser TerraForm au lieu de CloudFormation ?
R: Non, ce n'est pas possible. Nous utilisons l’outil natif Infrastructure as Code du fournisseur de cloud (CloudFormation pour AWS, ARM pour Azure).
Q:En ce qui concerne la question précédente, si ma norme pour IaaC est Terraform, cela signifie-t-il que je dois développer le code Terraform ?
R: Si vous souhaitez déployer Automation Suite manuellement (sans utiliser les modèles AWS ou Azure existants), alors oui, vous devrez développer le code Terraform. Vous pouvez également utiliser le modèle CloudFormation existant pour le déploiement ou comme base pour vous aider à créer le code Terraform.
Q: Comment puis-je estimer le nombre de nœuds spécialisés requis par Task Mining ?
R: Task Mining nécessite/prend en charge 1 nœud dédié prêt à l'emploi.
Q: Puis-je utiliser des processus basés sur Graviton pour le déploiement ?
R: Non, la distribution Kubernetes ne prend pas en charge ARM.
Q: Automation Suite peut-il être hébergé sur AMD ou uniquement sur des processeurs Intel ?
R: L'un ou l'autre est parfait tant que vous répondez aux exigences de l'architecture.
Q: Puis-je déployer des modèles Automation Suite sur Ubuntu et CentOS ?
R: Non, Ubuntu et CentOS ne sont pas pris en charge.
Q: Pour un déploiement AWS, si un EFS est déployé automatiquement, combien d'espace réserve-t-il ?
R : EFS n'est pas fourni avec une taille pré-enregistrée. Il s'agit d'un paiement à l'utilisation. EFS conservera toutes les sauvegardes de tous les disques du cluster, ce qui signifie qu'il utilisera 6 Tio de données, la somme de tous les espaces disque de stockage de données de nœuds.
Q: Le déploiement Azure déploie-t-il une solution NFS, comme le fait AWS ? Si c'est le cas, combien d'espace réserve-t-il ?
R : NFS est un protocole qui a plusieurs implémentations possibles. AWS Elastic File System est l'une de ces implémentations. NFS Server est une autre implémentation. Azure a une implémentation différente appelée Azure Files. Si vous souhaitez disposer d'une sauvegarde, vous avez besoin de l'un de ces éléments d'infrastructure.
Q: Quel est le fournisseur de services cloud préféré : Azure ou AWS ?
R: Nous n'avons pas de fournisseur de services cloud préféré. Nous soutenons les deux.
Q: Si la mise à l'échelle automatique est activée, le nœud nécessite-t-il des images personnalisées ?
R : la mise à l’échelle automatique utilise votre image RedHat, sur laquelle le logiciel UiPath® sera installé. Nous ne disposons pas de données claires pour le moment, mais le démarrage à froid est compris entre 5 et 10 minutes.
Q: Puis-je utiliser l'édition Standard de Microsoft SQL Server ?
R: Nous prenons en charge les éditions Standard et Enterprise de Microsoft SQL Server 2016, 2017 et 2019. Pour en savoir plus sur les exigences SQL, consultez notre documentation.
Q: L'exigence totale de vCPU de 96 cœurs est-elle requise dès le début ou peut-elle faire partie de l'autoscaling, qui ajoutera ou supprimera des nœuds en fonction des besoins en ressources ?
R : 96 cœurs sont nécessaires pour mettre le système sous tension. Par la suite, vous pouvez utiliser différentes stratégies de mise à l'échelle. Cependant, vous ne devez pas passer en dessous de ce nombre.
Q: Dois-je sélectionner l'image RHEL ou est-ce que cela est prescrit dans les modèles AWS ou Azure ? Si je dois la sélectionner, quelle version de RHEL dois-je utiliser lors du déploiement via des modèles ?
R: Le déploiement utilise une image RHEL de base (déterminée au moment de l'exécution) et crée un modèle de groupe d'autoscaling qui est appliqué lors de l'enregistrement de la machine virtuelle. Cela signifie que tous les logiciels sont installés lorsqu'une nouvelle instance EC2 est créée. Les modèles utilisent désormais RHEL 8.2.
Q: Des machines virtuelles autres que le cluster Kubernetes sont-elles nécessaires ?
R : Pour exécuter Automation Suite, aucune machine virtuelle supplémentaire n’est requise en dehors du cluster. Cependant, si vous ne disposez pas de machines existantes pour exécuter le robot UiPath®, celles-ci seront probablement nécessaires, en plus de toutes les machines virtuelles ou bureaux de développeur pour UiPath Studio (IDE).
Q: Y aura- t-il une intégration avec les journaux CloudWatch ou Azure Monitor pour Kubernetes ?
R: Pour l'instant, il n'y a pas d'intégration pour transférer les journaux vers CloudWatch.
Q: Automation Suite peut-il utiliser des solutions de base de données open source, telles que MySQL ou PostgreSQL ?
R: La configuration requise pour Microsoft SQL Server est indépendante du cloud sur lequel Automation Suite est déployée.