- Vue d'ensemble (Overview)
- Prérequis
- Pré-installation
- Installation
- Post-installation
- Migration et mise à niveau
- Mettre à niveau Automation Suite
- Migration de produits autonomes vers Automation Suite
- Étape 1 : Restauration de la base de données du produit autonome
- Étape 2 : Mise à jour du schéma de la base de données de produits restaurée
- Étape 3 : Déplacement des données d’organisation depuis une version autonome d’Identity vers Automation Suite
- Étape 4 : Sauvegarder la base de données de la plate-forme dans Automation Suite
- Étape 5 : Fusion des organisations dans Automation Suite
- Étape 6 : Mise à jour des chaînes de connexion du produit migré
- Étape 7 : migration de la version autonome d'Orchestrator
- Étape 8 : migration de la version autonome d’Insights
- Step 9: Migrating standalone Test Manager
- Step 10: Deleting the default tenant
- Exécution d'une seule migration de locataire
- Migration entre les clusters Automation Suite
- Migration d' Automation Suite sur EKS/AKS vers Automation Suite sur OpenShift
- Surveillance et alerte
- Administration du cluster
- Configuration spécifique au produit
- Configuration des paramètres d'Orchestrator
- Configuration des paramètres d'application
- Configuration de la taille maximale de la requête
- Remplacement de la configuration du stockage au niveau du cluster
- Configuration de NLog
- Enregistrement des journaux du robot dans Elasticsearch
- Configuration des magasins d'informations d'identification
- Configuration de la clé de chiffrement par locataire
- Nettoyer la base de données Orchestrator
- Rotation des informations d’identification de stockage d’objets blob
- Désactivation de l'utilisation d'URL pré-signées lors du téléchargement de données vers le stockage Amazon S3
- Configuration de la sécurité de l'application de processus
- Configurer une authentification Kerberos avec l’authentification MSSQL de base pour Process Mining
- Résolution des problèmes
- Impossible d’accéder à Automation Hub après la mise à niveau vers Automation Suite 2024.10.0
- Échec de l’enregistrement d’AI Center après la mise à niveau vers la version 2023.10 ou une version ultérieure
- Volumes Insights créés dans deux zones différentes après la migration
- La mise à niveau échoue en raison du remplacement des tailles de PVC Insights
- La configuration de sauvegarde ne fonctionne pas en raison d’un échec de connexion à Azure Government
- Pods dans l'espace de noms uipath bloqués lors de l'activation des rejets de nœuds personnalisés
- Impossible de lancer Automation Hub et Apps avec la configuration proxy
- Le Robot ne peut pas se connecter à une instance Automation Suite Orchestrator
- La diffusion des journaux ne fonctionne pas dans les configurations proxy
- La sauvegarde de Velero échoue avec l'erreur FailedValidation
- L'accès au nom de domaine complet renvoie RBAC : erreur d'accès refusé

Guide d'installation d'Automation Suite sur EKS/AKS
En plus de Microsoft SQL Server, le cluster Automation Suite nécessite un composant de stockage pour stocker les fichiers. Automation Suite nécessite le magasin d'objets et le stockage bloc/fichier, selon le type de service que vous choisissez.
Services de la plateforme UiPath®
Les services suivants nécessitent le composant de stockage. Ceux-ci ne sont nécessaires que si vous avez choisi de les activer dans le cadre de l'installation d'Automation Suite ou de versions ultérieures.
|
Service |
Type de stockage |
Objectif |
Estimation |
|---|---|---|---|
|
Orchestrator |
Magasin d'objets |
|
En règle générale, la taille d'un package est de 5 Mo, et les compartiments, le cas échéant, font moins de 1 Mo. Une Enterprise mature déploie environ 10 Go de packages et 12 Go de files d'attente. |
|
Action Center |
Magasin d'objets |
|
En règle générale, un document prend 0,15 Mo, et les formulaires à remplir prennent 0,15 Ko supplémentaire. Dans une entreprise expérimentée, cela peut totaliser 4 Go. |
|
Test Manager |
Magasin d'objets |
|
En règle générale, tous les fichiers et pièces jointes totalisent environ 5 Go. |
|
Insights |
Blockstore |
|
2 Go sont requis pour l'activation, l'empreinte de stockage augmentant avec le nombre. Un déploiement bien établi à l'échelle de l' Enterprisenécessite quelques Go supplémentaires pour tous les tableaux de bord. Environ 10 Go de stockage devraient suffire. |
| Integration Service | Magasin d'objets |
| La taille des connecteurs varie, mais l'installation de tous les connecteurs disponibles doit consommer moins de 100 Mo. Le nombre d'événements de déclencheur varie en fonction de l'utilisation, mais 5 Go devraient être suffisants. |
| Studio Web | Magasin de fichiers |
|
|
|
Apps |
Magasin d'objets |
|
En règle générale, la base de données occupe environ 5 Go et une application complexe typique consomme environ 15 Mo. |
|
AI Center |
Magasin d'objets/Filestore |
|
Une installation standard et établie consommera 8 Go pour cinq packages et 1 Go supplémentaire pour les jeux de données. Un pipeline peut consommer 50 Go supplémentaires de stockage de blocs, mais uniquement lorsqu’il est en cours d’exécution active. |
|
Document Understanding |
Magasin d'objets |
|
Dans un déploiement avancé, 12 Go seront affectés au modèle ML, 17 Go à l'OCR et 50 Go à tous les documents stockés. |
|
Task Mining |
Magasin d'objets |
|
Environ 200 Go de données de journal d'activité doivent être analysés pour suggérer une automatisation significative. Cependant, les tâches hautement répétitives peuvent nécessiter beaucoup moins de données. |
|
Robots Automation Suite |
Magasin de fichiers |
|
En règle générale, une entreprise expérimentée déploie environ 10 Go de packages. |
|
Process Mining |
Magasin d'objets |
|
L'empreinte minimale est uniquement utilisée pour stocker les fichiers SQL. Environ un Go de stockage devrait suffire au début. |
Services de suite partagée
Les services de la suite partagée suivants nécessitent le composant de stockage. Ceux-ci ne sont nécessaires que si vous avez choisi de les installer dans le cadre de l'installation d' Automation Suite .
|
Service |
Type de stockage |
Objectif |
Estimation |
|---|---|---|---|
|
Surveillance |
Bloquer le stockage |
Kubernetes et les données de métriques liées à l'infrastructure |
Environ 100 Go pour stocker les dix derniers jours de données de surveillance |
|
Journalisation |
Bloquer le stockage |
Journaux d’exécution de l’application |
Environ 20 Go pour conserver les journaux des derniers jours |
|
Kubernetes |
Magasin d'objets |
Authentification prise en charge |
|---|---|---|
|
EKS |
Amazon S3 |
|
|
AKS |
Stockage Azure (objet blob) |
|
Configuration de la politique CORS
En outre, vous devrez peut-être activer la stratégie CORS suivante au niveau du compte/compartiment de stockage si vous rencontrez une erreur liée à CORS lors de la connexion S3 en utilisant le cluster Automation Suite .
{{fqdn}} par le nom de domaine complet du cluster Automation Suite dans la stratégie CORS suivante.
L’exemple suivant montre la stratégie CORS au format JSON :
[
{
"AllowedHeaders": [
"*"
],
"AllowedMethods": [
"POST",
"GET",
"HEAD",
"DELETE",
"PUT"
],
"AllowedOrigins": [
"https://{{fqdn}}"
],
"ExposeHeaders": [
"etag",
"x-amz-server-side-encryption",
"x-amz-request-id",
"x-amz-id-2"
],
"MaxAgeSeconds": 3000
}
][
{
"AllowedHeaders": [
"*"
],
"AllowedMethods": [
"POST",
"GET",
"HEAD",
"DELETE",
"PUT"
],
"AllowedOrigins": [
"https://{{fqdn}}"
],
"ExposeHeaders": [
"etag",
"x-amz-server-side-encryption",
"x-amz-request-id",
"x-amz-id-2"
],
"MaxAgeSeconds": 3000
}
]L’exemple suivant montre la stratégie CORS au format XML :
<CORSConfiguration>
<CORSRule>
<AllowedOrigin>{{fqdn}}</AllowedOrigin>
<AllowedMethod>HEAD</AllowedMethod>
<AllowedMethod>GET</AllowedMethod>
<AllowedMethod>PUT</AllowedMethod>
<AllowedMethod>POST</AllowedMethod>
<AllowedMethod>DELETE</AllowedMethod>
<AllowedHeader>*</AllowedHeader>
<MaxAgeSeconds>3000</MaxAgeSeconds>
<ExposeHeader>x-amz-server-side-encryption</ExposeHeader>
<ExposeHeader>x-amz-request-id</ExposeHeader>
<ExposeHeader>x-amz-id-2</ExposeHeader>
<ExposeHeader>etag</ExposeHeader>
</CORSRule>
</CORSConfiguration><CORSConfiguration>
<CORSRule>
<AllowedOrigin>{{fqdn}}</AllowedOrigin>
<AllowedMethod>HEAD</AllowedMethod>
<AllowedMethod>GET</AllowedMethod>
<AllowedMethod>PUT</AllowedMethod>
<AllowedMethod>POST</AllowedMethod>
<AllowedMethod>DELETE</AllowedMethod>
<AllowedHeader>*</AllowedHeader>
<MaxAgeSeconds>3000</MaxAgeSeconds>
<ExposeHeader>x-amz-server-side-encryption</ExposeHeader>
<ExposeHeader>x-amz-request-id</ExposeHeader>
<ExposeHeader>x-amz-id-2</ExposeHeader>
<ExposeHeader>etag</ExposeHeader>
</CORSRule>
</CORSConfiguration>Configuration
Pour configurer le magasin d'objets, consultez Configuration du magasin d'objets externe.
Étant donné que les conteneurs sont créés dans l'étendue du compte Azure Storage, il est recommandé d'avoir un conteneur distinct pour chaque service.
De même, dans AWS, il est fortement recommandé d'avoir un compartiment dédié pour chaque service installé sur Automation Suite . Cependant, si le compartiment est créé globalement, vous pouvez rencontrer des limitations dans la fourniture du compartiment dédié pour chaque service. Dans ce cas, vous pouvez configurer un seul compartiment et l'utiliser à toutes fins utiles.
make . Vous pouvez également enregistrer les conteneurs/compartiments requis avant l'installation, ainsi que leurs informations, dans le programme d'installation.
Compartiments requis pour Integration Service
Dans une installation AKS, vous devez créer plusieurs compartiments de stockage blob dans le stockage Azure. Cette étape n'est pas requise dans une installation EKS, qui utilise des compartiments uniques.
Vous devez créer manuellement les compartiments suivants avant l'installation :
-
finals-interrogateurs-data -
final -
finalapps-notification- robot -
galpx-webhook -
Execution-Trace
Exigences de stockage
|
Stockage |
Prérequis |
|---|---|
|
Magasin d'objets |
500 Go |
La taille du magasin d'objets dépend de la taille de l'automatisation déployée et en cours d'exécution. Par conséquent, il peut être difficile de fournir une estimation précise du magasin d'objets au départ lors de l'installation. Vous pouvez commencer avec une taille de magasin d'objets de 350 Go à 500 Go. Pour comprendre l'utilisation du magasin d'objets, consultez Estimation du stockage pour chaque composant Automation Suite.
-
Au fur et à mesure que votre automatisation évolue, vous devrez peut-être tenir compte de l'augmentation de la taille de votre magasin d'objets.
Le stockage par blocs doit avoir des pilotes CSI configurés avec les classes de stockage Kubernetes.
Le tableau suivant fournit des détails sur le stockage par blocs, la classe de stockage et l'approvisionneur :
|
Cloud/Kubernetes |
Stockage |
ClasseStockage |
Fournisseur |
|---|---|---|---|
|
AWS |
Volumes EBS |
|
|
|
Azure |
Disque de gestion Azure |
Disque LRS Premium |
|
Configuration
Vous pouvez suivre les guides officiels de AWS et Azure pour créer une classe de stockage dans vos clusters EKS et AKS.
storage_class dans le fichier input.json .
-
Parfois, le cluster EKS ou AKS installe le pilote CSI et fournit la classe de stockage. Si ces classes de stockage ne sont pas configurées, vous devez les configurer avant l'installation d'Automation Suite.
-
Vous devez faire de la classe de stockage pour le stockage de blocs celle par défaut, comme illustré dans l'exemple suivant.
Exemple
input.json lors de l'installation :
|
Configuration | input.json | StorageClass |
|---|---|---|
|
Azure |
|
|
|
AWS |
|
|
Exigences de stockage
|
Configuration |
Prérequis |
|---|---|
|
Bloquer le stockage |
50 Go |
La taille du magasin de blocs dépend de la taille de l'automatisation déployée et en cours d'exécution. Par conséquent, il peut être difficile de fournir une estimation précise au départ lors de l'installation. Vous pouvez commencer avec une taille de stockage de bloc de 50 Go. Pour comprendre l'utilisation du magasin de blocs, consultez Estimation du stockage pour chaque composant Automation Suite.
Le stockage de fichiers doit avoir des pilotes CSI configurés avec les classes de stockage Kubernetes.
|
Cloud/Kubernetes |
Stockage |
ClasseStockage |
Fournisseur |
|---|---|---|---|
|
AWS |
EFS |
|
|
|
Azure |
Fichiers Azure |
azurefile-csi-premium *
|
|
azurefile-csi-premium pour Studio Web sur AKS.
* Il est recommandé de configurer le ZRS (ou la réplication) pour le stockage Studio Web afin de garantir une haute disponibilité.
Configuration
Vous pouvez suivre les guides officiels de AWS et Azure pour créer une classe de stockage dans vos clusters EKS et AKS.
storage_class_single_replica dans le fichier input.json .
Parfois, le cluster EKS ou AKS installe le pilote CSI et fournit la classe de stockage. Si cette classe de stockage n'est pas configurée, vous devez la configurer avant l'installation d'Automation Suite.
Exemple
input.json lors de l'installation :
|
Configuration |
|
|
|---|---|---|
|
Azure | | |
|
AWS | | Remarque :
Remplacez
$(EFS_ID) par l'ID de partage de fichiers réel que vous avez créé lors de l'enregistrement de l'infrastructure.
|
La classe de stockage du partage de fichiers doit avoir les autorisations requises définies sur 700 pour le répertoire et les fichiers.
UID et GID doivent être définis sur 1 000 dans Azure, et gidRangeStart et gidRangeEnd sur 1 000 et 2 000, respectivement, dans AWS.
Exigences de stockage
|
Stockage |
Prérequis |
|---|---|
|
Stockage de fichiers |
512 Go |
La taille du magasin de fichiers dépend de la taille de l'automatisation déployée et en cours d'exécution. Par conséquent, il peut être difficile de fournir une estimation réelle au départ, lors de l'installation. Cependant, vous devez vous attendre à ce qu'une taille de stockage d'environ 510 Go soit suffisante pour exécuter dix pipelines d'entraînement simultanés et pour les robots Automation Suite. Pour comprendre l'utilisation du magasin de fichiers, consultez Estimation du stockage pour chaque composant Automation Suite.
Au fur et à mesure que votre automatisation évolue, vous devrez peut-être tenir compte d'une augmentation de la taille de votre stockage de fichiers.
Vous devez créer manuellement les files d’attente suivantes dans votre fournisseur de cloud avant l’installation. Ces files d'attente sont requises pour prendre en charge les événements et les webhooks.
finals-debogage-Engrenage-tâchesFiAx - Engine-Tasksgalupx-cron-tasksgallox-ticket-tâchesuniquement.galupx-event-tasks.finals-de-notification-tâchesrobot-webhook-Engrenage-tâchesfinals- prise en charge du moteur-tâches
Pour Automation Suite sur EKS, vous devez ajouter manuellement un préfixe spécifique aux files d'attente, comme illustré dans les exemples suivants :
<queuePrefix>-Gallupx-debug-Engine-tasks<queuePrefix>-Gallupx-Engine-Tasks<queuePrefix>-Gallupx-cron-tasks<queuePrefix>-Gallupx-ticket-tasks<queuePrefix>-Gallupx-event-tasks<queuePrefix>-Gallupx-notification-tasks<queuePrefix>-Gallupx-webhook-Engine-tasks<queuePrefix>-Gallupx- prise en charge du moteur-tâches
queuePrefix doit correspondre à la valeur du paramètre obligatoire queue_prefix utilisé dans EKS input.json.
Si vous utilisez Amazon Simple Queue Service (SQS), vous devez créer huit files d'attente supplémentaires de lettre UiPath (DLQ). Vous devez associer chaque DLQ à sa file d'attente principale correspondante.
gallupx-engine-tasks avec les paramètres suivants :
- Délai de rétention des messages : 14 jours
- Taille maximale du message : 256 ko
- File d'attente d'échéance : Activé
- Délai d’expiration de visibilité par défaut : 30 secondes
gallupx-engine-tasks avec les mêmes paramètres, sauf :
- Délai d’expiration de visibilité par défaut : 15 minutes
Vous devez avoir 18 files d'attente au total, neuf files d'attente principales et neuf files d'attente associées, comme le montre l'exemple suivant :
prefix-gallupx-core
prefix-gallupx-core-deadletter
prefix-gallupx-cron-tasks
prefix-gallupx-cron-tasks-deadletter
prefix-gallupx-debug-engine-tasks
prefix-gallupx-debug-engine-tasks-deadletter
prefix-gallupx-engine-tasks
prefix-gallupx-engine-tasks-deadletter
prefix-gallupx-event-tasks
prefix-gallupx-event-tasks-deadletter
prefix-gallupx-fps-engine-tasks
prefix-gallupx-fps-engine-tasks-deadletter
prefix-gallupx-notification-tasks
prefix-gallupx-notification-tasks-deadletter
prefix-gallupx-tick-tasks
prefix-gallupx-tick-tasks-deadletter
prefix-gallupx-webhook-engine-tasks
prefix-gallupx-webhook-engine-tasks-deadletter
prefix-gallupx-core
prefix-gallupx-core-deadletter
prefix-gallupx-cron-tasks
prefix-gallupx-cron-tasks-deadletter
prefix-gallupx-debug-engine-tasks
prefix-gallupx-debug-engine-tasks-deadletter
prefix-gallupx-engine-tasks
prefix-gallupx-engine-tasks-deadletter
prefix-gallupx-event-tasks
prefix-gallupx-event-tasks-deadletter
prefix-gallupx-fps-engine-tasks
prefix-gallupx-fps-engine-tasks-deadletter
prefix-gallupx-notification-tasks
prefix-gallupx-notification-tasks-deadletter
prefix-gallupx-tick-tasks
prefix-gallupx-tick-tasks-deadletter
prefix-gallupx-webhook-engine-tasks
prefix-gallupx-webhook-engine-tasks-deadletter
Pour sauvegarder le cluster Automation Suite , vous avez besoin d'un objectstore supplémentaire pour sauvegarder la configuration du cluster et les données utilisateur.
Le tableau suivant décrit le stockage pris en charge pour la sauvegarde :
|
Kubernetes |
Magasin d'objets |
|---|---|
|
EKS |
AWS S3 |
|
AKS |
Compte de stockage Azure |
Un objectstore distinct est recommandé pour stocker la sauvegarde.
Accès à votre compte de stockage basé sur l'identité de la charge de travail depuis AKS
Pour des informations générales sur l'identité de la charge de travail, consultez Configuration de l'identité de la charge de travail.
az role assignment create --assignee $userAssignedManagedIdentityObjectId --role "Storage Account Contributor" --scope "/subscriptions/$($infraJson.subscription_id)/resourceGroups/$(TARGET_RG)/providers/Microsoft.Storage/storageAccounts/$(STORAGE_ACCOUNT_NAME)"
az role assignment create --assignee $userAssignedManagedIdentityObjectId --role "Storage Blob Data Owner" --scope "/subscriptions/$($infraJson.subscription_id)/resourceGroups/$(TARGET_RG)/providers/Microsoft.Storage/storageAccounts/$(STORAGE_ACCOUNT_NAME)"
az role assignment create --assignee $userAssignedManagedIdentityObjectId --role "Storage Queue Data Contributor" --scope "/subscriptions/$($infraJson.subscription_id)/resourceGroups/$(TARGET_RG)/providers/Microsoft.Storage/storageAccounts/$(STORAGE_ACCOUNT_NAME)"az role assignment create --assignee $userAssignedManagedIdentityObjectId --role "Storage Account Contributor" --scope "/subscriptions/$($infraJson.subscription_id)/resourceGroups/$(TARGET_RG)/providers/Microsoft.Storage/storageAccounts/$(STORAGE_ACCOUNT_NAME)"
az role assignment create --assignee $userAssignedManagedIdentityObjectId --role "Storage Blob Data Owner" --scope "/subscriptions/$($infraJson.subscription_id)/resourceGroups/$(TARGET_RG)/providers/Microsoft.Storage/storageAccounts/$(STORAGE_ACCOUNT_NAME)"
az role assignment create --assignee $userAssignedManagedIdentityObjectId --role "Storage Queue Data Contributor" --scope "/subscriptions/$($infraJson.subscription_id)/resourceGroups/$(TARGET_RG)/providers/Microsoft.Storage/storageAccounts/$(STORAGE_ACCOUNT_NAME)"input.json valide pour un compte de stockage Azure :"external_object_storage": {
"enabled": true,
"storage_type": "azure",
"account_name": "storaccid5730469",
"azure_fqdn_suffix": "core.windows.net",
"use_managed_identity": false,
"use_workload_identity": true
},"external_object_storage": {
"enabled": true,
"storage_type": "azure",
"account_name": "storaccid5730469",
"azure_fqdn_suffix": "core.windows.net",
"use_managed_identity": false,
"use_workload_identity": true
},- Estimation du stockage pour chaque composant Automation Suite
- Services de la plateforme UiPath®
- Services de suite partagée
- Magasin d'objets
- Configuration de la politique CORS
- Configuration
- Exigences de stockage
- Bloquer le stockage
- Configuration
- Exigences de stockage
- Stockage de fichiers
- Configuration
- Exigences de stockage
- Files d'attente (Queues)
- Sauvegarde et restauration
- Authentification du stockage
- Accès à votre compte de stockage basé sur l'identité de la charge de travail depuis AKS