automation-suite
2024.10
true
UiPath logo, featuring letters U and I in white
Automation Suite on OpenShift Installation Guide
Last updated 11. Nov. 2024

Speicher

Zusätzlich zum Microsoft SQL-Server erfordert der Automation Suite-Cluster eine Speicherkomponente zum Speichern der Dateien. Die Automation Suite erfordert den Objektspeicher und den Block-/Dateispeicher, abhängig vom gewählten Diensttyp.

Speicherschätzung für jede Automation Suite-Komponente

UiPath®-Plattformdienste

Die folgenden Dienste erfordern die Speicherkomponente. Diese sind nur erforderlich, wenn Sie sich dafür entschieden haben, sie im Rahmen der Automation Suite Installation oder später zu aktivieren.

Dienst

Speichertyp

Zweck

Schätzung

Orchestrator

Objektspeicher

  • NuGet-Automatisierungspakete für bereitgestellte Automatisierung

  • Warteschlangen und ihre Daten

In der Regel ist ein Paket 5 MB groß und Buckets, falls vorhanden, kleiner als 1 MB. Ein ausgereiftes Enterprise stellt etwa 10 GB an Paketen und 12 GB an Warteschlangen bereit.

Action Center

Objektspeicher

  • Dokumente, die vom Benutzer in Dokumentaufgaben gespeichert wurden

In der Regel benötigt ein Dokument 0,15 MB und die auszufüllenden Formulare weitere 0,15 KB. In einem ausgereiften Unternehmen kann dies insgesamt 4 GB betragen.

Test Manager

Objektspeicher

  • Von Benutzern gespeicherte Anhänge und Screenshots

In der Regel haben alle Dateien und Anhänge zusammen etwa 5 GB.

Insights

Blockstore

  • Veröffentlichte Dashboards und deren Metadaten

Für die Aktivierung sind 2 GB erforderlich, wobei der Speicherplatzbedarf mit der Anzahl wächst. Eine etablierte Enterprise-Bereitstellung erfordert weitere GB für alle Dashboards. Etwa 10 GB Speicherplatz sollten ausreichen.

Apps

Objektspeicher

  • Anhänge, die in Apps hochgeladen werden

In der Regel benötigt die Datenbank etwa 5 GB und eine typische komplexe App verbraucht etwa 15 MB.

AI Center

Objektspeicher/Dateispeicher

  • ML-Pakete

  • Datasets für die Analyse

  • Trainingspipelines

Eine typische und etablierte Installation verbraucht 8 GB für fünf Pakete und weitere 1 GB für die Datasets.

Eine Pipeline kann weitere 50 GB Blockspeicher verbrauchen, aber nur, wenn sie aktiv ausgeführt wird.

Document Understanding

Objektspeicher

  • ML-Modell

  • OCR-Modell

  • Gespeicherte Dokumente

In einer ausgereiften Bereitstellung werden 12 GB für das ML-Modell, 17 GB für die OCR und 50 GB für alle gespeicherten Dokumente verwendet.

Automation Suite-Roboter

Dateispeicher

  • Zwischenspeichern der Pakete, die zum Ausführen einer Automatisierung erforderlich sind

In der Regel stellt ein ausgereiftes Enterprise etwa 10 GB der Pakete bereit.

Process Mining

Objektspeicher

  • SQL-Dateien, die zum Ausführen von Abfragen im SQL Warehouse erforderlich sind

Der minimale Platzbedarf wird nur zum Speichern der SQL-Dateien verwendet. Etwa ein GB Speicherplatz sollte am Anfang ausreichen.

Objektspeicher

Die Automation Suite unterstützt die folgenden Objektspeicher:

  • Azure blob storage

  • AWS S3 storage

  • S3-compatible objectstore. OpenShift provides OpenShift Data Foundation, a Ceph-based, S3-compatible objectstore. To install OpenShift Data Foundation, see Introduction to OpenShift Data Foundation.

Configuring OpenShift Data Foundation

  1. To create an objectstore bucket on OpenShift Data Foundation, you must create an ObjectBucketClaim for each bucket, corresponding to each product that you plan to install. The following sample shows a valid ObjectBucketClaim:
    Note: The configuration we provide in the sample is required only if you create the buckets in OpenShift Data Foundation.
    apiVersion: objectbucket.io/v1alpha1
    kind: ObjectBucketClaim
    metadata:
      name: BUCKET_NAME
      namespace: <uipath>
    spec:
      bucketName: BUCKET_NAME
      storageClassName: openshift-storage.noobaa.ioapiVersion: objectbucket.io/v1alpha1
    kind: ObjectBucketClaim
    metadata:
      name: BUCKET_NAME
      namespace: <uipath>
    spec:
      bucketName: BUCKET_NAME
      storageClassName: openshift-storage.noobaa.io
  2. Applying the manifest creates a secret named BUCKET_NAME in the <uipath> namespace. The secret contains the access_key and the secret_key for that bucket. To query the access_key and the secret_key, run the following command:
    oc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_ACCESS_KEY_ID} | base64 -d; echo
    oc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_SECRET_ACCESS_KEY} | base64 -d; echooc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_ACCESS_KEY_ID} | base64 -d; echo
    oc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_SECRET_ACCESS_KEY} | base64 -d; echo
  3. To find the host or FQDN to access the bucket, run the following command:
    oc get routes s3 -o jsonpath={.spec.host} -n openshift-storage; echooc get routes s3 -o jsonpath={.spec.host} -n openshift-storage; echo

Configuring the CORS policy

Darüber hinaus müssen Sie möglicherweise die folgende CORS-Richtlinie auf Speicherkonto-/Bucket-Ebene aktivieren, wenn während der Verwendung des Automation Suite -Clusters während der S3-Verbindung ein CORS-Fehler auftritt.

Stellen Sie sicher, dass Sie {{fqdn}} durch den FQDN des Automation Suite-Clusters in der folgenden CORS-Richtlinie ersetzen.

The following sample shows the CORS policy in JSON format:

JSON
[
    {
        "AllowedHeaders": [
            "*"
        ],
        "AllowedMethods": [
            "POST",
            "GET",
            "HEAD",
            "DELETE",
            "PUT"
        ],
        "AllowedOrigins": [
            "https://{{fqdn}}"
        ],
        "ExposeHeaders": [
            "etag",
            "x-amz-server-side-encryption",
            "x-amz-request-id",
            "x-amz-id-2"
        ],
        "MaxAgeSeconds": 3000
    }
][
    {
        "AllowedHeaders": [
            "*"
        ],
        "AllowedMethods": [
            "POST",
            "GET",
            "HEAD",
            "DELETE",
            "PUT"
        ],
        "AllowedOrigins": [
            "https://{{fqdn}}"
        ],
        "ExposeHeaders": [
            "etag",
            "x-amz-server-side-encryption",
            "x-amz-request-id",
            "x-amz-id-2"
        ],
        "MaxAgeSeconds": 3000
    }
]

The following sample shows the CORS policy in XML format:

XML
<CORSConfiguration>
 <CORSRule>
   <AllowedOrigin>{{fqdn}}</AllowedOrigin>
   <AllowedMethod>HEAD</AllowedMethod>
   <AllowedMethod>GET</AllowedMethod>
   <AllowedMethod>PUT</AllowedMethod>
   <AllowedMethod>POST</AllowedMethod>
   <AllowedMethod>DELETE</AllowedMethod>
   <AllowedHeader>*</AllowedHeader>
  <MaxAgeSeconds>3000</MaxAgeSeconds>
  <ExposeHeader>x-amz-server-side-encryption</ExposeHeader>
  <ExposeHeader>x-amz-request-id</ExposeHeader>
  <ExposeHeader>x-amz-id-2</ExposeHeader>
  <ExposeHeader>etag</ExposeHeader>
 </CORSRule>
</CORSConfiguration><CORSConfiguration>
 <CORSRule>
   <AllowedOrigin>{{fqdn}}</AllowedOrigin>
   <AllowedMethod>HEAD</AllowedMethod>
   <AllowedMethod>GET</AllowedMethod>
   <AllowedMethod>PUT</AllowedMethod>
   <AllowedMethod>POST</AllowedMethod>
   <AllowedMethod>DELETE</AllowedMethod>
   <AllowedHeader>*</AllowedHeader>
  <MaxAgeSeconds>3000</MaxAgeSeconds>
  <ExposeHeader>x-amz-server-side-encryption</ExposeHeader>
  <ExposeHeader>x-amz-request-id</ExposeHeader>
  <ExposeHeader>x-amz-id-2</ExposeHeader>
  <ExposeHeader>etag</ExposeHeader>
 </CORSRule>
</CORSConfiguration>

Konfiguration

Informationen zum Konfigurieren des Objektspeichers finden Sie unter Konfiguration des externen Objektspeichers.

Das Automation Suite Installationsprogramm unterstützt das Erstellen der Container/Buckets, wenn Sie make -Berechtigungen bereitstellen. Alternativ können Sie die erforderlichen Container/Buckets vor der Installation und deren Informationen für das Installationsprogramm bereitstellen.

Speicheranforderungen

Speicher

Anforderungen

Objektspeicher

500 GB

Die Größe des Objektspeichers hängt von der Größe der bereitgestellten und ausgeführten Automatisierung ab. Daher kann es zu Beginn der Installation schwierig sein, eine genaue Schätzung des Objektspeichers anzugeben. Sie können mit einer Objektspeichergröße von 350 GB bis 500 GB beginnen. Informationen zum Verständnis der Verwendung des Objektspeichers finden Sie unter Speicherschätzung für jede Automation Suite-Komponente.

Hinweis:
  • Wenn Ihre Automatisierung skaliert, müssen Sie möglicherweise die Erhöhung der Größe Ihres Objektspeichers berücksichtigen.

  • If you use buckets created in OpenShift Data Foundation, then you must explicitly provision the buckets and provide the details for each product in the input.json file.
    For more information on how to provide bucket information explicitly in the input.json file, see the Product-specific configuration section.

Blockspeicher

Blockspeicher müssen CSI-Treiber haben, die mit den Kubernetes-Speicherklassen konfiguriert sind.

Die folgende Tabelle enthält Details zum Blockspeicher, zur Speicherklasse und zum Bereitsteller:

Cloud/Kubernetes

Speicher

Speicherklasse

Bereitsteller

AWS

EBS-Volumes

ebs-sc

ebs.csi.aws.com

Azure

Azure Datenträger verwalten

managed-premium

Premium-LRS-Datenträger

disk.csi.azure.com

OpenShift

OpenShift Data Foundation

ocs-storagecluster-ceph-rbd

openshift-storage.rbd.csi.ceph.com

Hinweis:
It is not mandatory that you use the storage solutions mentioned in this section. If you use a different storage solution, then you must use the corresponding StorageClass that your storage vendor provides.

Konfiguration

You can follow the official guide from Red Hat to create a storage class in your OpenShift cluster.

Sie müssen den Namen der Speicherklasse, die Sie für Ihren Cluster erstellt haben, an den Parameter storage_class in der input.json -Datei übergeben.
Hinweis:
  • In OpenShift, CSI drivers are installed automatically and the storage class is created while installing the OpenShift Data Foundation. If these storage classes are not configured, you must configure them before the Automation Suite installation.

  • Sie müssen die Speicherklasse für den Blockspeicher zur Standardklasse machen, wie im folgenden Beispiel gezeigt.

Beispiel

Das folgende Beispiel zeigt, wie die Speicherklasse konfiguriert wird und wie sie während der Installation für die input.json -Datei bereitgestellt wird:

Konfiguration

input.jsonStorageClass

Azure

{
  "storage_class": "managed_premium"
}{
  "storage_class": "managed_premium"
}
allowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  creationTimestamp: "2023-06-15T09:34:17Z"
  labels:
    addonmanager.kubernetes.io/mode: EnsureExists
    kubernetes.io/cluster-service: "true"
    storageclass.kubernetes.io/is-default-class: "true"
  name: managed-premium
parameters:
  cachingmode: ReadOnly
  kind: Managed
  storageaccounttype: Premium_LRS
provisioner: disk.csi.azure.com
reclaimPolicy: Delete
volumeBindingMode: WaitForFirstConsumerallowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  creationTimestamp: "2023-06-15T09:34:17Z"
  labels:
    addonmanager.kubernetes.io/mode: EnsureExists
    kubernetes.io/cluster-service: "true"
    storageclass.kubernetes.io/is-default-class: "true"
  name: managed-premium
parameters:
  cachingmode: ReadOnly
  kind: Managed
  storageaccounttype: Premium_LRS
provisioner: disk.csi.azure.com
reclaimPolicy: Delete
volumeBindingMode: WaitForFirstConsumer

AWS

{
  "storage_class": "ebs-sc"
}{
  "storage_class": "ebs-sc"
}
allowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: ebs-sc
  annotations:
   storageclass.kubernetes.io/is-default-class: "true"
provisioner: ebs.csi.aws.com
reclaimPolicy: Delete
volumeBindingMode: WaitForFirstConsumerallowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: ebs-sc
  annotations:
   storageclass.kubernetes.io/is-default-class: "true"
provisioner: ebs.csi.aws.com
reclaimPolicy: Delete
volumeBindingMode: WaitForFirstConsumer

OpenShift

{
  "storage_class": "ocs-storagecluster-ceph-rbd"
}{
  "storage_class": "ocs-storagecluster-ceph-rbd"
}
kind: StorageClass
apiVersion: storage.k8s.io/v1
metadata:
  name: ocs-storagecluster-ceph-rbd
  annotations:
    description: 'Provides RWO Filesystem volumes, and RWO and RWX Block volumes'
    storageclass.kubernetes.io/is-default-class: "true"
provisioner: openshift-storage.rbd.csi.ceph.com
parameters:
  csi.storage.k8s.io/fstype: ext4
  csi.storage.k8s.io/provisioner-secret-namespace: openshift-storage
  csi.storage.k8s.io/provisioner-secret-name: rook-csi-rbd-provisioner
  csi.storage.k8s.io/node-stage-secret-name: rook-csi-rbd-node
  csi.storage.k8s.io/controller-expand-secret-name: rook-csi-rbd-provisioner
  csi.storage.k8s.io/controller-expand-secret-namespace: openshift-storage
  pool: ocs-storagecluster-cephblockpool
  csi.storage.k8s.io/node-stage-secret-namespace: openshift-storage
reclaimPolicy: Delete
allowVolumeExpansion: true
volumeBindingMode: Immediatekind: StorageClass
apiVersion: storage.k8s.io/v1
metadata:
  name: ocs-storagecluster-ceph-rbd
  annotations:
    description: 'Provides RWO Filesystem volumes, and RWO and RWX Block volumes'
    storageclass.kubernetes.io/is-default-class: "true"
provisioner: openshift-storage.rbd.csi.ceph.com
parameters:
  csi.storage.k8s.io/fstype: ext4
  csi.storage.k8s.io/provisioner-secret-namespace: openshift-storage
  csi.storage.k8s.io/provisioner-secret-name: rook-csi-rbd-provisioner
  csi.storage.k8s.io/node-stage-secret-name: rook-csi-rbd-node
  csi.storage.k8s.io/controller-expand-secret-name: rook-csi-rbd-provisioner
  csi.storage.k8s.io/controller-expand-secret-namespace: openshift-storage
  pool: ocs-storagecluster-cephblockpool
  csi.storage.k8s.io/node-stage-secret-namespace: openshift-storage
reclaimPolicy: Delete
allowVolumeExpansion: true
volumeBindingMode: Immediate

Speicheranforderungen

Konfiguration

Anforderungen

Blockspeicher

50 GB

Die Größe des Blockspeichers hängt von der Größe der bereitgestellten und ausgeführten Automatisierung ab. Daher kann es zunächst während der Installation schwierig sein, eine genaue Schätzung abzugeben. Sie können mit einer Blockspeichergröße von 50 GB beginnen. Informationen zur Verwendung des Blockspeichers finden Sie unter Speicherschätzung für jede Automation Suite-Komponente.

Hinweis: Wenn Ihre Automatisierung skaliert wird, müssen Sie möglicherweise die Erhöhung Ihrer Blockspeichergröße berücksichtigen.

Dateispeicher

Der Dateispeicher muss über CSI-Treiber verfügen, die mit den Kubernetes-Speicherklassen konfiguriert sind.

File storage is required for the components that do not require any replication. However, if you do not have a file system, you can replace file storage with block storage.

Cloud/Kubernetes

Speicher

Speicherklasse

Bereitsteller

AWS

EFS

efs-sc

efs.csi.aws.com

Azure

Azure Files

azurefile-csi-premium *

file.csi.azure.com

OpenShift

OpenShift Data Foundation

ocs-storagecluster-cephfs

openshift-storage.cephfs.csi.ceph.com

* Verwenden Sie die Speicherklasse azurefile-csi-premium für Studio Web auf AKS.
Hinweis:
It is not mandatory that you use the storage solutions mentioned in this section. If you use a different storage solution, then you must use the corresponding StorageClass that your storage vendor provides.

Konfiguration

You can follow the official guide from Red Hat to create a storage class in your OpenShift cluster.

Sie müssen den Namen der Speicherklasse, die Sie für Ihren Cluster erstellt haben, an den Parameter storage_class_single_replica in der input.json -Datei übergeben.
Hinweis:

In OpenShift, CSI drivers are installed automatically and the storage class is created while installing OpenShift Data Foundation. If the storage class is not configured, you must configure it before the Automation Suite installation.

Beispiel

Das folgende Beispiel zeigt, wie die Speicherklasse konfiguriert und wie sie input.json während der Installation bereitgestellt wird:

Konfiguration

input.json

StorageClass

Azure

{
  "storage_class_single_replica": "azurefile-csi-premium"
}{
  "storage_class_single_replica": "azurefile-csi-premium"
}
allowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  labels:
    addonmanager.kubernetes.io/mode: EnsureExists
    kubernetes.io/cluster-service: "true"
  name: azurefile-csi
mountOptions:
- mfsymlinks
- actimeo=30
- nosharesock
- dir_mode=0700
- file_mode=0700
- uid=1000
- gid=1000
- nobrl
- cache=none
parameters:
  skuName: Standard_LRS
provisioner: file.csi.azure.com
reclaimPolicy: Delete
volumeBindingMode: ImmediateallowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  labels:
    addonmanager.kubernetes.io/mode: EnsureExists
    kubernetes.io/cluster-service: "true"
  name: azurefile-csi
mountOptions:
- mfsymlinks
- actimeo=30
- nosharesock
- dir_mode=0700
- file_mode=0700
- uid=1000
- gid=1000
- nobrl
- cache=none
parameters:
  skuName: Standard_LRS
provisioner: file.csi.azure.com
reclaimPolicy: Delete
volumeBindingMode: Immediate

AWS

{
  "storage_class_single_replica": "efs-sc"
}{
  "storage_class_single_replica": "efs-sc"
}
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: efs-sc
parameters:
  basePath: /dynamic_provisioning
  directoryPerms: "700"
  fileSystemId: $(EFS_ID)
  gidRangeEnd: "2000"
  gidRangeStart: "1000"
  provisioningMode: efs-ap
provisioner: efs.csi.aws.com
reclaimPolicy: Delete
volumeBindingMode: ImmediateapiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: efs-sc
parameters:
  basePath: /dynamic_provisioning
  directoryPerms: "700"
  fileSystemId: $(EFS_ID)
  gidRangeEnd: "2000"
  gidRangeStart: "1000"
  provisioningMode: efs-ap
provisioner: efs.csi.aws.com
reclaimPolicy: Delete
volumeBindingMode: Immediate
Hinweis:
Ersetzen Sie $(EFS_ID) durch die tatsächliche Dateifreigabe-ID, die Sie bei der Bereitstellung der Infrastruktur erstellt haben.

OpenShift

{
  "storage_class_single_replica": "ocs-storagecluster-cephfs"
}{
  "storage_class_single_replica": "ocs-storagecluster-cephfs"
}
kind: StorageClass
apiVersion: storage.k8s.io/v1
metadata:
  name: ocs-storagecluster-cephfs
  annotations:
    description: Provides RWO and RWX Filesystem volumes
provisioner: openshift-storage.cephfs.csi.ceph.com
parameters:
  clusterID: openshift-storage
  csi.storage.k8s.io/controller-expand-secret-name: rook-csi-cephfs-provisioner
  csi.storage.k8s.io/controller-expand-secret-namespace: openshift-storage
  csi.storage.k8s.io/node-stage-secret-name: rook-csi-cephfs-node
  csi.storage.k8s.io/node-stage-secret-namespace: openshift-storage
  csi.storage.k8s.io/provisioner-secret-name: rook-csi-cephfs-provisioner
  csi.storage.k8s.io/provisioner-secret-namespace: openshift-storage
  fsName: ocs-storagecluster-cephfilesystem
reclaimPolicy: Delete
allowVolumeExpansion: true
volumeBindingMode: Immediatekind: StorageClass
apiVersion: storage.k8s.io/v1
metadata:
  name: ocs-storagecluster-cephfs
  annotations:
    description: Provides RWO and RWX Filesystem volumes
provisioner: openshift-storage.cephfs.csi.ceph.com
parameters:
  clusterID: openshift-storage
  csi.storage.k8s.io/controller-expand-secret-name: rook-csi-cephfs-provisioner
  csi.storage.k8s.io/controller-expand-secret-namespace: openshift-storage
  csi.storage.k8s.io/node-stage-secret-name: rook-csi-cephfs-node
  csi.storage.k8s.io/node-stage-secret-namespace: openshift-storage
  csi.storage.k8s.io/provisioner-secret-name: rook-csi-cephfs-provisioner
  csi.storage.k8s.io/provisioner-secret-namespace: openshift-storage
  fsName: ocs-storagecluster-cephfilesystem
reclaimPolicy: Delete
allowVolumeExpansion: true
volumeBindingMode: Immediate
Hinweis:

Für die Speicherklasse für die Dateifreigabe müssen die erforderlichen Berechtigungen für das Verzeichnis und die Dateien auf 700 festgelegt sein.

Außerdem müssen UID und GID in Azure auf 1000 und in AWS gidRangeStart und gidRangeEnd auf 1000 bzw. 2000 festgelegt sein.

Speicheranforderungen

Speicher

Anforderungen

Dateispeicher

500 GB

Die Größe des Dateispeichers hängt von der Größe der bereitgestellten und ausgeführten Automatisierung ab. Daher kann es zunächst während der Installation schwierig sein, eine tatsächliche Schätzung anzugeben. Sie sollten jedoch mit einer Speichergröße von etwa 510 GB rechnen, die für die Ausführung von zehn gleichzeitigen Trainingspipelines und für Automation Suite Robots ausreicht. Informationen zum Verständnis der Verwendung des Dateispeichers finden Sie unter Speicherschätzung für jede Automation Suite-Komponente.

Hinweis:

Wenn Ihre Automatisierung skaliert wird, muss möglicherweise Ihr Dateispeicher größer werden.

War diese Seite hilfreich?

Hilfe erhalten
RPA lernen – Automatisierungskurse
UiPath Community-Forum
Uipath Logo White
Vertrauen und Sicherheit
© 2005–2024 UiPath. Alle Rechte vorbehalten