automation-suite
2024.10
true
Important :
Veuillez noter que ce contenu a été localisé en partie à l’aide de la traduction automatique. La localisation du contenu nouvellement publié peut prendre 1 à 2 semaines avant d’être disponible.
UiPath logo, featuring letters U and I in white

Guide d'installation d'Automation Suite sur EKS/AKS

Dernière mise à jour 10 févr. 2025

Stockage

En plus de Microsoft SQL Server, le cluster Automation Suite nécessite un composant de stockage pour stocker les fichiers. Automation Suite nécessite le magasin d'objets et le stockage bloc/fichier, selon le type de service que vous choisissez.

Estimation du stockage pour chaque composant Automation Suite

Services de la plateforme UiPath®

Les services suivants nécessitent le composant de stockage. Ceux-ci ne sont nécessaires que si vous avez choisi de les activer dans le cadre de l'installation d'Automation Suite ou de versions ultérieures.

Service

Type de stockage

Objectif

Estimation

Orchestrator

Magasin d'objets

  • Packages d'automatisation NuGet pour l'automatisation déployée

  • Files d’attente et leurs données

En règle générale, la taille d'un package est de 5 Mo, et les compartiments, le cas échéant, font moins de 1 Mo. Une Enterprise mature déploie environ 10 Go de packages et 12 Go de files d'attente.

Action Center

Magasin d'objets

  • Documents stockés par l'utilisateur dans des tâches de document

En règle générale, un document prend 0,15 Mo, et les formulaires à remplir prennent 0,15 Ko supplémentaire. Dans une entreprise expérimentée, cela peut totaliser 4 Go.

Test Manager

Magasin d'objets

  • Pièces jointes et captures d'écran stockées par les utilisateurs

En règle générale, tous les fichiers et pièces jointes totalisent environ 5 Go.

Insights

Blockstore

  • Tableaux de bord publiés et leurs métadonnées

2 Go sont requis pour l'activation, l'empreinte de stockage augmentant avec le nombre. Un déploiement bien établi à l'échelle de l' Enterprisenécessite quelques Go supplémentaires pour tous les tableaux de bord. Environ 10 Go de stockage devraient suffire.

Integration ServiceMagasin d'objets
  • Métadonnées du connecteur
  • Déclencheurs d'évènement
La taille des connecteurs varie, mais l'installation de tous les connecteurs disponibles doit consommer moins de 100 Mo. Le nombre d'événements de déclencheur varie en fonction de l'utilisation, mais 5 Go devraient être suffisants.
Studio Web Magasin de fichiers
  • Packages NuGet téléchargés à partir des flux spécifiés (flux officiel UiPath, api.nuget.org)
  • Projets créés ou importés dans Studio Web
  • Packages NuGet : 220 Go
  • Projets utilisateur : 50 Go

Apps

Magasin d'objets

  • Pièces jointes téléchargées vers Apps

En règle générale, la base de données occupe environ 5 Go et une application complexe typique consomme environ 15 Mo.

AI Center

Magasin d'objets/Filestore

  • Paquets ML

  • Ensembles de données pour analyse

  • Pipelines d'entraînement

Une installation standard et établie consommera 8 Go pour cinq packages et 1 Go supplémentaire pour les jeux de données.

Un pipeline peut consommer 50 Go supplémentaires de stockage de blocs, mais uniquement lorsqu’il est en cours d’exécution active.

Document Understanding

Magasin d'objets

  • Modèle ML

  • Modèle OCR

  • Documents enregistrés

Dans un déploiement avancé, 12 Go seront affectés au modèle ML, 17 Go à l'OCR et 50 Go à tous les documents stockés.

Task Mining

Magasin d'objets

  • Les données sur les activités des utilisateurs sont requises pour les analyses et pour suggérer des modèles d'automatisation

Environ 200 Go de données de journal d'activité doivent être analysés pour suggérer une automatisation significative. Cependant, les tâches hautement répétitives peuvent nécessiter beaucoup moins de données.

Robots Automation Suite

Magasin de fichiers

  • Mise en cache des packages requis pour exécuter une automatisation

En règle générale, une Enterprise mature déploie environ 10 Go de packages.

Process Mining

Magasin d'objets

  • Fichiers SQL requis pour exécuter des requêtes dans l'entrepôt SQL

L'empreinte minimale est uniquement utilisée pour stocker les fichiers SQL. Environ un Go de stockage devrait suffire au début.

Services de suite partagée

Les services de la suite partagée suivants nécessitent le composant de stockage. Ceux-ci ne sont nécessaires que si vous avez choisi de les installer dans le cadre de l'installation d' Automation Suite .

Service

Type de stockage

Objectif

Estimation

Surveillance

Bloquer le stockage

Kubernetes et les données de métriques liées à l'infrastructure

Environ 100 Go pour stocker les dix derniers jours de données de surveillance

Journalisation

Bloquer le stockage

Journaux d’exécution de l’application

Environ 20 Go pour conserver les journaux des derniers jours

Magasin d'objets

Automation Suite prend en charge les magasins d'objets suivants :

Kubernetes

Magasin d'objets

Authentification prise en charge

EKS

Amazon S3

  • Profil de l'instance AWS

  • Clé d’accès et clé secrète

AKS

Stockage Azure (objet blob)

  • accountKey

  • Identité de charge de travail*

*Insights et Task Mining ne prennent actuellement pas en charge l'identité de la charge de travail pour l'authentification.

Configuration de la politique CORS

En outre, vous devrez peut-être activer la stratégie CORS suivante au niveau du compte/compartiment de stockage si vous rencontrez une erreur liée à CORS lors de la connexion S3 en utilisant le cluster Automation Suite .

Assurez-vous de remplacer {{fqdn}} par le nom de domaine complet du cluster Automation Suite dans la stratégie CORS suivante.

L’exemple suivant montre la stratégie CORS au format JSON :

JSON
[
    {
        "AllowedHeaders": [
            "*"
        ],
        "AllowedMethods": [
            "POST",
            "GET",
            "HEAD",
            "DELETE",
            "PUT"
        ],
        "AllowedOrigins": [
            "https://{{fqdn}}"
        ],
        "ExposeHeaders": [
            "etag",
            "x-amz-server-side-encryption",
            "x-amz-request-id",
            "x-amz-id-2"
        ],
        "MaxAgeSeconds": 3000
    }
][
    {
        "AllowedHeaders": [
            "*"
        ],
        "AllowedMethods": [
            "POST",
            "GET",
            "HEAD",
            "DELETE",
            "PUT"
        ],
        "AllowedOrigins": [
            "https://{{fqdn}}"
        ],
        "ExposeHeaders": [
            "etag",
            "x-amz-server-side-encryption",
            "x-amz-request-id",
            "x-amz-id-2"
        ],
        "MaxAgeSeconds": 3000
    }
]

L’exemple suivant montre la stratégie CORS au format XML :

XML
<CORSConfiguration>
 <CORSRule>
   <AllowedOrigin>{{fqdn}}</AllowedOrigin>
   <AllowedMethod>HEAD</AllowedMethod>
   <AllowedMethod>GET</AllowedMethod>
   <AllowedMethod>PUT</AllowedMethod>
   <AllowedMethod>POST</AllowedMethod>
   <AllowedMethod>DELETE</AllowedMethod>
   <AllowedHeader>*</AllowedHeader>
  <MaxAgeSeconds>3000</MaxAgeSeconds>
  <ExposeHeader>x-amz-server-side-encryption</ExposeHeader>
  <ExposeHeader>x-amz-request-id</ExposeHeader>
  <ExposeHeader>x-amz-id-2</ExposeHeader>
  <ExposeHeader>etag</ExposeHeader>
 </CORSRule>
</CORSConfiguration><CORSConfiguration>
 <CORSRule>
   <AllowedOrigin>{{fqdn}}</AllowedOrigin>
   <AllowedMethod>HEAD</AllowedMethod>
   <AllowedMethod>GET</AllowedMethod>
   <AllowedMethod>PUT</AllowedMethod>
   <AllowedMethod>POST</AllowedMethod>
   <AllowedMethod>DELETE</AllowedMethod>
   <AllowedHeader>*</AllowedHeader>
  <MaxAgeSeconds>3000</MaxAgeSeconds>
  <ExposeHeader>x-amz-server-side-encryption</ExposeHeader>
  <ExposeHeader>x-amz-request-id</ExposeHeader>
  <ExposeHeader>x-amz-id-2</ExposeHeader>
  <ExposeHeader>etag</ExposeHeader>
 </CORSRule>
</CORSConfiguration>

Configuration

Pour configurer le magasin d'objets, consultez Configuration du magasin d'objets externe.

Remarque :

Étant donné que les conteneurs sont créés dans l'étendue du compte Azure Storage, il est recommandé d'avoir un conteneur distinct pour chaque service.

De même, dans AWS, il est fortement recommandé d'avoir un compartiment dédié pour chaque service installé sur Automation Suite . Cependant, si le compartiment est créé globalement, vous pouvez rencontrer des limitations dans la fourniture du compartiment dédié pour chaque service. Dans ce cas, vous pouvez configurer un seul compartiment et l'utiliser à toutes fins utiles.

Le programme d'installation d'Automation Suite prend en charge la création de conteneurs/compartiments si vous fournissez les autorisations make . Vous pouvez également enregistrer les conteneurs/compartiments requis avant l'installation, ainsi que leurs informations, dans le programme d'installation.

Compartiments requis pour Integration Service

Dans une installation AKS, vous devez créer plusieurs compartiments de stockage blob dans le stockage Azure. Cette étape n'est pas requise dans une installation EKS, qui utilise des compartiments uniques.

Vous devez créer manuellement les compartiments suivants avant l'installation :

  • finals-interrogateurs-data
  • final
  • finalapps-notification- robot
  • galpx-webhook
  • Execution-Trace

Exigences de stockage

Stockage

Prérequis

Magasin d'objets

500 Go

La taille du magasin d'objets dépend de la taille de l'automatisation déployée et en cours d'exécution. Par conséquent, il peut être difficile de fournir une estimation précise du magasin d'objets au départ lors de l'installation. Vous pouvez commencer avec une taille de magasin d'objets de 350 Go à 500 Go. Pour comprendre l'utilisation du magasin d'objets, consultez Estimation du stockage pour chaque composant Automation Suite.

Remarque :
  • Au fur et à mesure que votre automatisation évolue, vous devrez peut-être tenir compte de l'augmentation de la taille de votre magasin d'objets.

Bloquer le stockage

Le stockage par blocs doit avoir des pilotes CSI configurés avec les classes de stockage Kubernetes.

Le tableau suivant fournit des détails sur le stockage par blocs, la classe de stockage et l'approvisionneur :

Cloud/Kubernetes

Stockage

ClasseStockage

Fournisseur

AWS

Volumes EBS

ebs-sc

ebs.csi.aws.com

Azure

Disque de gestion Azure

managed-premium

Disque LRS Premium

disk.csi.azure.com

Configuration

Vous pouvez suivre les guides officiels de AWS et Azure pour créer une classe de stockage dans vos clusters EKS et AKS.

Vous devez transmettre le nom de la classe de stockage que vous avez créée pour votre cluster au paramètre storage_class dans le fichier input.json .
Remarque :
  • Parfois, le cluster EKS ou AKS installe le pilote CSI et fournit la classe de stockage. Si ces classes de stockage ne sont pas configurées, vous devez les configurer avant l'installation d'Automation Suite.

  • Vous devez faire de la classe de stockage pour le stockage de blocs celle par défaut, comme illustré dans l'exemple suivant.

Exemple

L'exemple suivant montre comment configurer la classe de stockage et comment la fournir au fichier input.json lors de l'installation :

Configuration

input.jsonStorageClass

Azure

{
  "storage_class": "managed_premium"
}{
  "storage_class": "managed_premium"
}
allowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  creationTimestamp: "2023-06-15T09:34:17Z"
  labels:
    addonmanager.kubernetes.io/mode: EnsureExists
    kubernetes.io/cluster-service: "true"
    storageclass.kubernetes.io/is-default-class: "true"
  name: managed-premium
parameters:
  cachingmode: ReadOnly
  kind: Managed
  storageaccounttype: Premium_LRS
provisioner: disk.csi.azure.com
reclaimPolicy: Delete
volumeBindingMode: WaitForFirstConsumerallowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  creationTimestamp: "2023-06-15T09:34:17Z"
  labels:
    addonmanager.kubernetes.io/mode: EnsureExists
    kubernetes.io/cluster-service: "true"
    storageclass.kubernetes.io/is-default-class: "true"
  name: managed-premium
parameters:
  cachingmode: ReadOnly
  kind: Managed
  storageaccounttype: Premium_LRS
provisioner: disk.csi.azure.com
reclaimPolicy: Delete
volumeBindingMode: WaitForFirstConsumer

AWS

{
  "storage_class": "ebs-sc"
}{
  "storage_class": "ebs-sc"
}
allowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: ebs-sc
  annotations:
   storageclass.kubernetes.io/is-default-class: "true"
provisioner: ebs.csi.aws.com
reclaimPolicy: Delete
volumeBindingMode: WaitForFirstConsumerallowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: ebs-sc
  annotations:
   storageclass.kubernetes.io/is-default-class: "true"
provisioner: ebs.csi.aws.com
reclaimPolicy: Delete
volumeBindingMode: WaitForFirstConsumer

Exigences de stockage

Configuration

Prérequis

Bloquer le stockage

50 Go

La taille du magasin de blocs dépend de la taille de l'automatisation déployée et en cours d'exécution. Par conséquent, il peut être difficile de fournir une estimation précise au départ lors de l'installation. Vous pouvez commencer avec une taille de stockage de bloc de 50 Go. Pour comprendre l'utilisation du magasin de blocs, consultez Estimation du stockage pour chaque composant Automation Suite.

Remarque : au fur et à mesure que votre automatisation évolue, vous devrez peut-être tenir compte de l'augmentation de la taille de votre stockage de blocs.

Stockage de fichiers

Le stockage de fichiers doit avoir des pilotes CSI configurés avec les classes de stockage Kubernetes.

Cloud/Kubernetes

Stockage

ClasseStockage

Fournisseur

AWS

EFS

efs-sc

efs.csi.aws.com

Azure

Fichiers Azure

azurefile-csi-premium *

file.csi.azure.com

* Utilisez la classe de stockage azurefile-csi-premium pour Studio Web sur AKS.

Configuration

Vous pouvez suivre les guides officiels de AWS et Azure pour créer une classe de stockage dans vos clusters EKS et AKS.

Vous devez transmettre le nom de la classe de stockage que vous avez créée pour votre cluster au paramètre storage_class_single_replica dans le fichier input.json .
Remarque :

Parfois, le cluster EKS ou AKS installe le pilote CSI et fournit la classe de stockage. Si cette classe de stockage n'est pas configurée, vous devez la configurer avant l'installation d'Automation Suite.

Exemple

L'exemple suivant montre comment configurer la classe de stockage et la fournir à input.json lors de l'installation :

Configuration

input.json

StorageClass

Azure

{
  "storage_class_single_replica": "azurefile-csi-premium"
}{
  "storage_class_single_replica": "azurefile-csi-premium"
}
allowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  labels:
    addonmanager.kubernetes.io/mode: EnsureExists
    kubernetes.io/cluster-service: "true"
  name: azurefile-csi
mountOptions:
- mfsymlinks
- actimeo=30
- nosharesock
- dir_mode=0700
- file_mode=0700
- uid=1000
- gid=1000
- nobrl
- cache=none
parameters:
  skuName: Standard_LRS
provisioner: file.csi.azure.com
reclaimPolicy: Delete
volumeBindingMode: ImmediateallowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  labels:
    addonmanager.kubernetes.io/mode: EnsureExists
    kubernetes.io/cluster-service: "true"
  name: azurefile-csi
mountOptions:
- mfsymlinks
- actimeo=30
- nosharesock
- dir_mode=0700
- file_mode=0700
- uid=1000
- gid=1000
- nobrl
- cache=none
parameters:
  skuName: Standard_LRS
provisioner: file.csi.azure.com
reclaimPolicy: Delete
volumeBindingMode: Immediate

AWS

{
  "storage_class_single_replica": "efs-sc"
}{
  "storage_class_single_replica": "efs-sc"
}
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: efs-sc
parameters:
  basePath: /dynamic_provisioning
  directoryPerms: "700"
  fileSystemId: $(EFS_ID)
  gidRangeEnd: "2000"
  gidRangeStart: "1000"
  provisioningMode: efs-ap
provisioner: efs.csi.aws.com
reclaimPolicy: Delete
volumeBindingMode: ImmediateapiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: efs-sc
parameters:
  basePath: /dynamic_provisioning
  directoryPerms: "700"
  fileSystemId: $(EFS_ID)
  gidRangeEnd: "2000"
  gidRangeStart: "1000"
  provisioningMode: efs-ap
provisioner: efs.csi.aws.com
reclaimPolicy: Delete
volumeBindingMode: Immediate
Remarque :
Remplacez $(EFS_ID) par l'ID de partage de fichiers réel que vous avez créé lors de l'enregistrement de l'infrastructure.
Remarque :

La classe de stockage du partage de fichiers doit avoir les autorisations requises définies sur 700 pour le répertoire et les fichiers.

En outre, UID et GID doivent être définis sur 1 000 dans Azure, et gidRangeStart et gidRangeEnd sur 1 000 et 2 000, respectivement, dans AWS.

Exigences de stockage

Stockage

Prérequis

Stockage de fichiers

512 Go

La taille du magasin de fichiers dépend de la taille de l'automatisation déployée et en cours d'exécution. Par conséquent, il peut être difficile de fournir une estimation réelle au départ, lors de l'installation. Cependant, vous devez vous attendre à ce qu'une taille de stockage d'environ 510 Go soit suffisante pour exécuter dix pipelines d'entraînement simultanés et pour les robots Automation Suite. Pour comprendre l'utilisation du magasin de fichiers, consultez Estimation du stockage pour chaque composant Automation Suite.

Remarque :

Au fur et à mesure que votre automatisation évolue, vous devrez peut-être tenir compte d'une augmentation de la taille de votre stockage de fichiers.

Files d'attente (Queues)

Vous devez créer manuellement les files d’attente suivantes dans votre fournisseur de cloud avant l’installation. Ces files d'attente sont requises pour prendre en charge les événements et les webhooks.

  • finals-debogage-Engrenage-tâches
  • FiAx - Engine-Tasks
  • galupx-cron-tasks
  • gallox-ticket-tâches
  • uniquement.galupx-event-tasks.
  • finals-de-notification-tâches
  • robot-webhook-Engrenage-tâches
  • finals- prise en charge du moteur-tâches

For Automation Suite on EKS, you must manually add a specific prefix to the queues, as shown in the following examples:

  • <queuePrefix>-gallupx-debug-engine-tasks
  • <queuePrefix>-gallupx-engine-tasks
  • <queuePrefix>-gallupx-cron-tasks
  • <queuePrefix>-gallupx-tick-tasks
  • <queuePrefix>-gallupx-event-tasks
  • <queuePrefix>-gallupx-notification-tasks
  • <queuePrefix>-gallupx-webhook-engine-tasks
  • <queuePrefix>-gallupx-fps-engine-tasks
The queuePrefix value must match the value of the mandatory queue_prefix parameter used in EKS input.json.

Sauvegarde et restauration

Pour sauvegarder le cluster Automation Suite , vous avez besoin d'un objectstore supplémentaire pour sauvegarder la configuration du cluster et les données utilisateur.

Le tableau suivant décrit le stockage pris en charge pour la sauvegarde :

Kubernetes

Magasin d'objets

EKS

AWS S3

AKS

Compte de stockage Azure

Remarque :

Un objectstore distinct est recommandé pour stocker la sauvegarde.

Authentification du stockage

Accès à votre compte de stockage basé sur l'identité de la charge de travail depuis AKS

Pour des informations générales sur l'identité de la charge de travail, consultez Configuration de l'identité de la charge de travail.

Pour configurer votre compte de stockage afin d'utiliser l’identité de la charge de travail, exécutez les commandes suivantes :
az role assignment create --assignee $userAssignedManagedIdentityObjectId --role "Storage Account Contributor" --scope "/subscriptions/$($infraJson.subscription_id)/resourceGroups/$(TARGET_RG)/providers/Microsoft.Storage/storageAccounts/$(STORAGE_ACCOUNT_NAME)"
az role assignment create --assignee $userAssignedManagedIdentityObjectId --role "Storage Blob Data Owner" --scope "/subscriptions/$($infraJson.subscription_id)/resourceGroups/$(TARGET_RG)/providers/Microsoft.Storage/storageAccounts/$(STORAGE_ACCOUNT_NAME)"
az role assignment create --assignee $userAssignedManagedIdentityObjectId --role "Storage Queue Data Contributor" --scope "/subscriptions/$($infraJson.subscription_id)/resourceGroups/$(TARGET_RG)/providers/Microsoft.Storage/storageAccounts/$(STORAGE_ACCOUNT_NAME)"az role assignment create --assignee $userAssignedManagedIdentityObjectId --role "Storage Account Contributor" --scope "/subscriptions/$($infraJson.subscription_id)/resourceGroups/$(TARGET_RG)/providers/Microsoft.Storage/storageAccounts/$(STORAGE_ACCOUNT_NAME)"
az role assignment create --assignee $userAssignedManagedIdentityObjectId --role "Storage Blob Data Owner" --scope "/subscriptions/$($infraJson.subscription_id)/resourceGroups/$(TARGET_RG)/providers/Microsoft.Storage/storageAccounts/$(STORAGE_ACCOUNT_NAME)"
az role assignment create --assignee $userAssignedManagedIdentityObjectId --role "Storage Queue Data Contributor" --scope "/subscriptions/$($infraJson.subscription_id)/resourceGroups/$(TARGET_RG)/providers/Microsoft.Storage/storageAccounts/$(STORAGE_ACCOUNT_NAME)"
L'exemple suivant montre une configuration input.json valide pour un compte de stockage Azure :
"external_object_storage": {
  "enabled": true,
  "storage_type": "azure",
  "account_name": "storaccid5730469",
  "azure_fqdn_suffix": "core.windows.net",
  "use_managed_identity": false,
  "use_workload_identity": true
},"external_object_storage": {
  "enabled": true,
  "storage_type": "azure",
  "account_name": "storaccid5730469",
  "azure_fqdn_suffix": "core.windows.net",
  "use_managed_identity": false,
  "use_workload_identity": true
},

Cette page vous a-t-elle été utile ?

Obtenez l'aide dont vous avez besoin
Formation RPA - Cours d'automatisation
Forum de la communauté UiPath
Uipath Logo White
Confiance et sécurité
© 2005-2025 UiPath Tous droits réservés.