automation-suite
2023.10
true
Automation Suite auf EKS/AKS-Installationsanleitung
Last updated 4. Okt. 2024

Speicher

Zusätzlich zum Microsoft SQL-Server erfordert der Automation Suite-Cluster eine Speicherkomponente zum Speichern der Dateien. Die Automation Suite erfordert den Objektspeicher und den Block-/Dateispeicher, abhängig vom gewählten Diensttyp.

Speicher ist auch erforderlich, um den Automation Suite-Cluster zu sichern.

Speicherschätzung für jede Automation Suite-Komponente

UiPath®-Plattformdienste

Die folgenden Dienste erfordern die Speicherkomponente. Diese sind nur erforderlich, wenn Sie sich dafür entschieden haben, sie im Rahmen der Automation Suite Installation oder später zu aktivieren.

Dienst

Speichertyp

Zweck

Schätzung

Orchestrator

Objektspeicher

  • NuGet-Automatisierungspakete für bereitgestellte Automatisierung

  • Warteschlangen und ihre Daten

In der Regel ist ein Paket 5 MB groß und Buckets, falls vorhanden, kleiner als 1 MB. Ein ausgereiftes Enterprise stellt etwa 10 GB an Paketen und 12 GB an Warteschlangen bereit.

Action Center

Objektspeicher

  • Dokumente, die vom Benutzer in Dokumentaufgaben gespeichert wurden

Typically, a document takes 0.15 Mb, and the forms to fill take an additional 0.15 Kb. In a mature enterprise, this can total 4 GB.

Test Manager

Objektspeicher

  • Von Benutzern gespeicherte Anhänge und Screenshots

In der Regel haben alle Dateien und Anhänge zusammen etwa 5 GB.

Insights

Blockstore

  • Veröffentlichte Dashboards und deren Metadaten

Für die Aktivierung sind 2 GB erforderlich, wobei der Speicherplatzbedarf mit der Anzahl wächst. Eine etablierte Enterprise-Bereitstellung erfordert weitere GB für alle Dashboards. Etwa 10 GB Speicherplatz sollten ausreichen.

Apps

Objektspeicher

  • Anhänge, die in Apps hochgeladen werden

In der Regel benötigt die Datenbank etwa 5 GB und eine typische komplexe App verbraucht etwa 15 MB.

AI Center

Objektspeicher/Dateispeicher

  • ML-Pakete

  • Datasets für die Analyse

  • Trainingspipelines

Eine typische und etablierte Installation verbraucht 8 GB für fünf Pakete und weitere 1 GB für die Datasets.

Eine Pipeline kann weitere 50 GB Blockspeicher verbrauchen, aber nur, wenn sie aktiv ausgeführt wird.

Document Understanding

Objektspeicher

  • ML-Modell

  • OCR-Modell

  • Gespeicherte Dokumente

In einer ausgereiften Bereitstellung werden 12 GB für das ML-Modell, 17 GB für die OCR und 50 GB für alle gespeicherten Dokumente verwendet.

Task Mining

Objektspeicher

  • Benutzeraktivitätsdaten sind für Analysen und Vorschläge für Automatisierungsmuster erforderlich.

Etwa 200 GB an Aktivitätsprotokolldaten sollten analysiert werden, um eine sinnvolle Automatisierung vorzuschlagen. Sehr sich wiederholende Aufgaben können jedoch viel weniger Daten erfordern.

Automation Suite-Roboter

Dateispeicher

  • Zwischenspeichern der Pakete, die zum Ausführen einer Automatisierung erforderlich sind

In der Regel stellt ein ausgereiftes Enterprise etwa 10 GB der Pakete bereit.

Process Mining

Objektspeicher

  • SQL-Dateien, die zum Ausführen von Abfragen im SQL Warehouse erforderlich sind

Der minimale Platzbedarf wird nur zum Speichern der SQL-Dateien verwendet. Etwa ein GB Speicherplatz sollte am Anfang ausreichen.

Freigegebene Suite-Dienste

Die folgenden Shared Suite-Dienste erfordern die Speicherkomponente. Diese sind nur erforderlich, wenn Sie sich dafür entschieden haben, sie als Teil der Automation Suite Installation zu installieren.

Dienst

Speichertyp

Zweck

Schätzung

Überwachung

Blockspeicher

Kubernetes und infrastrukturbezogene Metrikdaten

Ungefähr etwa 100 GB zum Speichern der Überwachungsdaten der letzten zehn Tage

Protokollierung

Blockspeicher

Anwendung läuft Protokolle

Ungefähr 20 GB zum Aufbewahren der Protokolle der letzten Tage

Objektspeicher

Automation Suite supports the following objectstores:

Kubernetes

Objektspeicher

Unterstützte Authentifizierung

EKS

Amazon S3

  • AWS-Instanzprofil

  • Zugriffsschlüssel und geheimer Schlüssel

AKS

Azure Storage (Blob)

  • accountKey

Darüber hinaus müssen Sie möglicherweise die folgende CORS-Richtlinie auf Speicherkonto-/Bucket-Ebene aktivieren, wenn während der Verwendung des Automation Suite -Clusters während der S3-Verbindung ein CORS-Fehler auftritt.

Stellen Sie sicher, dass Sie {{fqdn}} durch den FQDN des Automation Suite-Clusters in der folgenden CORS-Richtlinie ersetzen.

Das ist die CORS-Richtlinie im JSON-Format:

JSON
[
    {
        "AllowedHeaders": [
            "*"
        ],
        "AllowedMethods": [
            "POST",
            "GET",
            "HEAD",
            "DELETE",
            "PUT"
        ],
        "AllowedOrigins": [
            "https://{{fqdn}}"
        ],
        "ExposeHeaders": [
            "etag",
            "x-amz-server-side-encryption",
            "x-amz-request-id",
            "x-amz-id-2"
        ],
        "MaxAgeSeconds": 3000
    }
][
    {
        "AllowedHeaders": [
            "*"
        ],
        "AllowedMethods": [
            "POST",
            "GET",
            "HEAD",
            "DELETE",
            "PUT"
        ],
        "AllowedOrigins": [
            "https://{{fqdn}}"
        ],
        "ExposeHeaders": [
            "etag",
            "x-amz-server-side-encryption",
            "x-amz-request-id",
            "x-amz-id-2"
        ],
        "MaxAgeSeconds": 3000
    }
]

Das ist die CORS-Richtlinie im XML-Format:

XML
<CORSConfiguration>
 <CORSRule>
   <AllowedOrigin>{{fqdn}}</AllowedOrigin>
   <AllowedMethod>HEAD</AllowedMethod>
   <AllowedMethod>GET</AllowedMethod>
   <AllowedMethod>PUT</AllowedMethod>
   <AllowedMethod>POST</AllowedMethod>
   <AllowedMethod>DELETE</AllowedMethod>
   <AllowedHeader>*</AllowedHeader>
  <MaxAgeSeconds>3000</MaxAgeSeconds>
  <ExposeHeader>x-amz-server-side-encryption</ExposeHeader>
  <ExposeHeader>x-amz-request-id</ExposeHeader>
  <ExposeHeader>x-amz-id-2</ExposeHeader>
  <ExposeHeader>etag</ExposeHeader>
 </CORSRule>
</CORSConfiguration><CORSConfiguration>
 <CORSRule>
   <AllowedOrigin>{{fqdn}}</AllowedOrigin>
   <AllowedMethod>HEAD</AllowedMethod>
   <AllowedMethod>GET</AllowedMethod>
   <AllowedMethod>PUT</AllowedMethod>
   <AllowedMethod>POST</AllowedMethod>
   <AllowedMethod>DELETE</AllowedMethod>
   <AllowedHeader>*</AllowedHeader>
  <MaxAgeSeconds>3000</MaxAgeSeconds>
  <ExposeHeader>x-amz-server-side-encryption</ExposeHeader>
  <ExposeHeader>x-amz-request-id</ExposeHeader>
  <ExposeHeader>x-amz-id-2</ExposeHeader>
  <ExposeHeader>etag</ExposeHeader>
 </CORSRule>
</CORSConfiguration>

Konfiguration

Informationen zum Konfigurieren des Objektspeichers finden Sie unter Konfiguration des externen Objektspeichers.

Hinweis:

Da die Container im Scope des Azure-Speicherkontos erstellt werden, wird empfohlen, für jeden Dienst einen separaten Container zu haben.

Ebenso wird bei AWS dringend empfohlen, für jeden in der Automation Suite installierten Dienst einen eigenen Bucket zu haben. Wenn das Bucket jedoch global erstellt wird, können bei der Bereitstellung des dedizierten Buckets für jeden Dienst Einschränkungen auftreten. In diesem Fall können Sie einen einzelnen Bucket konfigurieren und für alle Zwecke verwenden.

Das Automation Suite Installationsprogramm unterstützt das Erstellen der Container/Buckets, wenn Sie make -Berechtigungen bereitstellen. Alternativ können Sie die erforderlichen Container/Buckets vor der Installation und deren Informationen für das Installationsprogramm bereitstellen.

Speicheranforderungen

Speicher

Anforderungen

Objektspeicher

500 GB

The size of the objectstore depends on the size of the deployed and running automation. Therefore, it can be challenging to provide an accurate objectstore estimate initially during the installation. You can start with an objectstore size of 350 GB to 500 GB. To understand the usage of the objectstore, see Storage estimate for each Automation Suite component.

Hinweis:
  • As your automation scales, you may need to account for the increase in your objectstore size.

Blockspeicher

Blockspeicher müssen CSI-Treiber haben, die mit den Kubernetes-Speicherklassen konfiguriert sind.

Die folgende Tabelle enthält Details zum Blockspeicher, zur Speicherklasse und zum Bereitsteller:

Cloud / Kubernetes

Speicher

Speicherklasse

Bereitsteller

AWS

EBS-Volumes

ebs-sc

ebs.csi.aws.com

Azure

Azure Datenträger verwalten

managed-premium

Premium-LRS-Datenträger

disk.csi.azure.com

Konfiguration

You can follow the official guides from AWS and Azure to create a storage class in your EKS and AKS clusters.

Sie müssen den Namen der Speicherklasse, die Sie für Ihren Cluster erstellt haben, an den Parameter storage_class in der input.json -Datei übergeben.
Hinweis:
  • Sometimes, the EKS or AKS cluster installs the CSI driver and provides the storage class. If these storage classes are not configured, you must configure them before the Automation Suite installation.

  • Sie müssen die Speicherklasse für den Blockspeicher zur Standardklasse machen, wie im folgenden Beispiel gezeigt.

Beispiel

The following example shows how to configure the storage class and how to provide it to input.json file during installation:

Konfiguration

input.jsonStorageClass

Azure

{
  "storage_class": "managed_premium"
}{
  "storage_class": "managed_premium"
}
allowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  creationTimestamp: "2023-06-15T09:34:17Z"
  labels:
    addonmanager.kubernetes.io/mode: EnsureExists
    kubernetes.io/cluster-service: "true"
    storageclass.kubernetes.io/is-default-class: "true"
  name: managed-premium
parameters:
  cachingmode: ReadOnly
  kind: Managed
  storageaccounttype: Premium_LRS
provisioner: disk.csi.azure.com
reclaimPolicy: Delete
volumeBindingMode: WaitForFirstConsumerallowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  creationTimestamp: "2023-06-15T09:34:17Z"
  labels:
    addonmanager.kubernetes.io/mode: EnsureExists
    kubernetes.io/cluster-service: "true"
    storageclass.kubernetes.io/is-default-class: "true"
  name: managed-premium
parameters:
  cachingmode: ReadOnly
  kind: Managed
  storageaccounttype: Premium_LRS
provisioner: disk.csi.azure.com
reclaimPolicy: Delete
volumeBindingMode: WaitForFirstConsumer

AWS

{
  "storage_class": "ebs-sc"
}{
  "storage_class": "ebs-sc"
}
allowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: ebs-sc
  annotations:
   storageclass.kubernetes.io/is-default-class: "true"
provisioner: ebs.csi.aws.com
reclaimPolicy: Delete
volumeBindingMode: WaitForFirstConsumerallowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: ebs-sc
  annotations:
   storageclass.kubernetes.io/is-default-class: "true"
provisioner: ebs.csi.aws.com
reclaimPolicy: Delete
volumeBindingMode: WaitForFirstConsumer

Speicheranforderungen

Konfiguration

Anforderungen

Blockspeicher

50 GB

The size of the block store depends on the size of the deployed and running automation. Therefore, it can be challenging to provide an accurate estimate initially during the installation. You can start with a block storage size of 50 GB. To understand the usage of the block store, see Storage estimate for each Automation Suite component.

Hinweis: Wenn Ihre Automatisierung skaliert wird, müssen Sie möglicherweise die Erhöhung Ihrer Blockspeichergröße berücksichtigen.

Dateispeicher

Der Dateispeicher muss über CSI-Treiber verfügen, die mit den Kubernetes-Speicherklassen konfiguriert sind.

Cloud / Kubernetes

Speicher

Speicherklasse

Bereitsteller

AWS

EFS

efs-sc

efs.csi.aws.com

Azure

Azure Files

azurefile-csi-premium

file.csi.azure.com

Konfiguration

You can follow the official guides from AWS and Azure to create a storage class in your EKS and AKS clusters.

Sie müssen den Namen der Speicherklasse, die Sie für Ihren Cluster erstellt haben, an den Parameter storage_class_single_replica in der input.json -Datei übergeben.
Hinweis:

Sometimes, the EKS or AKS cluster installs the CSI driver and provides the storage class. If this storage class is not configured, you must configure it before the Automation Suite installation.

Beispiel

Das folgende Beispiel zeigt, wie die Speicherklasse konfiguriert und wie sie input.json während der Installation bereitgestellt wird:

Konfiguration

input.json

StorageClass

Azure

{
  "storage_class_single_replica": "azurefile-csi-premium"
}{
  "storage_class_single_replica": "azurefile-csi-premium"
}
allowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  labels:
    addonmanager.kubernetes.io/mode: EnsureExists
    kubernetes.io/cluster-service: "true"
  name: azurefile-csi
mountOptions:
- mfsymlinks
- actimeo=30
- nosharesock
- dir_mode=0700
- file_mode=0700
- uid=1000
- gid=1000
- nobrl
- cache=none
parameters:
  skuName: Standard_LRS
provisioner: file.csi.azure.com
reclaimPolicy: Delete
volumeBindingMode: ImmediateallowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  labels:
    addonmanager.kubernetes.io/mode: EnsureExists
    kubernetes.io/cluster-service: "true"
  name: azurefile-csi
mountOptions:
- mfsymlinks
- actimeo=30
- nosharesock
- dir_mode=0700
- file_mode=0700
- uid=1000
- gid=1000
- nobrl
- cache=none
parameters:
  skuName: Standard_LRS
provisioner: file.csi.azure.com
reclaimPolicy: Delete
volumeBindingMode: Immediate

AWS

{
  "storage_class_single_replica": "efs-sc"
}{
  "storage_class_single_replica": "efs-sc"
}
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: efs-sc
parameters:
  basePath: /dynamic_provisioning
  directoryPerms: "700"
  fileSystemId: $(EFS_ID)
  gidRangeEnd: "2000"
  gidRangeStart: "1000"
  provisioningMode: efs-ap
provisioner: efs.csi.aws.com
reclaimPolicy: Delete
volumeBindingMode: ImmediateapiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: efs-sc
parameters:
  basePath: /dynamic_provisioning
  directoryPerms: "700"
  fileSystemId: $(EFS_ID)
  gidRangeEnd: "2000"
  gidRangeStart: "1000"
  provisioningMode: efs-ap
provisioner: efs.csi.aws.com
reclaimPolicy: Delete
volumeBindingMode: Immediate
Hinweis:
Ersetzen Sie $(EFS_ID) durch die tatsächliche Dateifreigabe-ID, die Sie bei der Bereitstellung der Infrastruktur erstellt haben.
Hinweis:

Für die Speicherklasse für die Dateifreigabe müssen die erforderlichen Berechtigungen für das Verzeichnis und die Dateien auf 700 festgelegt sein.

Außerdem müssen UID und GID in Azure auf 1000 und in AWS gidRangeStart und gidRangeEnd auf 1000 bzw. 2000 festgelegt sein.

Speicheranforderungen

Speicher

Anforderungen

Dateispeicher

500 GB

The size of the file store depends on the size of the deployed and running automation. Therefore, it can be challenging to provide an actual estimate initially, during the installation. However, you should expect approximately 510 GB of storage size to be enough to run ten concurrent training pipelines and for Automation Suite Robots. To understand the usage of the filestore, see Storage estimate for each Automation Suite component.

Hinweis:

Wenn Ihre Automatisierung skaliert wird, muss möglicherweise Ihr Dateispeicher größer werden.

Sichern und Wiederherstellen

Um den Automation Suite -Cluster zu sichern, benötigen Sie einen zusätzlichen Objektspeicher, um die Clusterkonfiguration und die Benutzerdaten zu sichern.

Die folgende Tabelle beschreibt den unterstützten Speicher für die Sicherung:

Kubernetes

Objektspeicher

EKS

AWS S3

AKS

Azure Storage-Konto

Hinweis:

Zum Speichern der Sicherung wird ein separater Objektspeicher empfohlen.

War diese Seite hilfreich?

Hilfe erhalten
RPA lernen – Automatisierungskurse
UiPath Community-Forum
Uipath Logo White
Vertrauen und Sicherheit
© 2005–2024 UiPath. Alle Rechte vorbehalten