automation-suite
2024.10
true
UiPath logo, featuring letters U and I in white

Automation Suite in OpenShift – Installationsanleitung

Letzte Aktualisierung 18. Dez. 2024

Speicher

Zusätzlich zum Microsoft SQL-Server erfordert der Automation Suite-Cluster eine Speicherkomponente zum Speichern der Dateien. Die Automation Suite erfordert den Objektspeicher und den Block-/Dateispeicher, abhängig vom gewählten Diensttyp.

Speicherschätzung für jede Automation Suite-Komponente

UiPath®-Plattformdienste

Die folgenden Dienste erfordern die Speicherkomponente. Diese sind nur erforderlich, wenn Sie sich dafür entschieden haben, sie im Rahmen der Automation Suite Installation oder später zu aktivieren.

Dienst

Speichertyp

Zweck

Schätzung

Orchestrator

Objektspeicher

  • NuGet-Automatisierungspakete für bereitgestellte Automatisierung

  • Warteschlangen und ihre Daten

In der Regel ist ein Paket 5 MB groß und Buckets, falls vorhanden, kleiner als 1 MB. Ein ausgereiftes Enterprise stellt etwa 10 GB an Paketen und 12 GB an Warteschlangen bereit.

Action Center

Objektspeicher

  • Dokumente, die vom Benutzer in Dokumentaufgaben gespeichert wurden

In der Regel benötigt ein Dokument 0,15 MB und die auszufüllenden Formulare weitere 0,15 KB. In einem ausgereiften Unternehmen kann dies insgesamt 4 GB betragen.

Test Manager

Objektspeicher

  • Von Benutzern gespeicherte Anhänge und Screenshots

In der Regel haben alle Dateien und Anhänge zusammen etwa 5 GB.

Insights

Blockstore

  • Veröffentlichte Dashboards und deren Metadaten

Für die Aktivierung sind 2 GB erforderlich, wobei der Speicherplatzbedarf mit der Anzahl wächst. Eine etablierte Enterprise-Bereitstellung erfordert weitere GB für alle Dashboards. Etwa 10 GB Speicherplatz sollten ausreichen.

Apps

Objektspeicher

  • Anhänge, die in Apps hochgeladen werden

In der Regel benötigt die Datenbank etwa 5 GB und eine typische komplexe App verbraucht etwa 15 MB.

AI Center

Objektspeicher/Dateispeicher

  • ML-Pakete

  • Datasets für die Analyse

  • Trainingspipelines

Eine typische und etablierte Installation verbraucht 8 GB für fünf Pakete und weitere 1 GB für die Datasets.

Eine Pipeline kann weitere 50 GB Blockspeicher verbrauchen, aber nur, wenn sie aktiv ausgeführt wird.

Document Understanding

Objektspeicher

  • ML-Modell

  • OCR-Modell

  • Gespeicherte Dokumente

In einer ausgereiften Bereitstellung werden 12 GB für das ML-Modell, 17 GB für die OCR und 50 GB für alle gespeicherten Dokumente verwendet.

Automation Suite-Roboter

Dateispeicher

  • Zwischenspeichern der Pakete, die zum Ausführen einer Automatisierung erforderlich sind

In der Regel stellt ein ausgereiftes Enterprise etwa 10 GB der Pakete bereit.

Process Mining

Objektspeicher

  • SQL-Dateien, die zum Ausführen von Abfragen im SQL Warehouse erforderlich sind

Der minimale Platzbedarf wird nur zum Speichern der SQL-Dateien verwendet. Etwa ein GB Speicherplatz sollte am Anfang ausreichen.

Objektspeicher

Die Automation Suite unterstützt die folgenden Objektspeicher:

  • Azure-Blobspeicher

  • AWS S3-Speicher

  • S3-kompatibler Objektspeicher. OpenShift bietet OpenShift Data Foundation, einen Ceph-basierten, S3-kompatiblen Objektspeicher. Informationen zum Installieren von OpenShift Data Foundation finden Sie unter Einführung in OpenShift Data Foundation.

Konfigurieren der OpenShift Data Foundation

  1. Um einen Objektspeicher-Bucket in OpenShift Data Foundation zu erstellen, müssen Sie für jeden Bucket einen ObjectBucketClaim erstellen, der jedem Produkt entspricht, das Sie installieren möchten. Das folgende Beispiel zeigt ein gültiges ObjectBucketClaim:
    Hinweis: Die Konfiguration, die wir im Beispiel angeben, ist nur erforderlich, wenn Sie die Buckets in OpenShift Data Foundation erstellen.
    apiVersion: objectbucket.io/v1alpha1
    kind: ObjectBucketClaim
    metadata:
      name: BUCKET_NAME
      namespace: <uipath>
    spec:
      bucketName: BUCKET_NAME
      storageClassName: openshift-storage.noobaa.ioapiVersion: objectbucket.io/v1alpha1
    kind: ObjectBucketClaim
    metadata:
      name: BUCKET_NAME
      namespace: <uipath>
    spec:
      bucketName: BUCKET_NAME
      storageClassName: openshift-storage.noobaa.io
  2. Durch das Anwenden des Manifests wird ein geheimer Clientschlüssel mit dem Namen BUCKET_NAME im Namespace <uipath> erstellt. Der geheime Schlüssel enthält die access_key und den secret_key für diesen Bucket. Um die access_key und die secret_key abzufragen, führen Sie den folgenden Befehl aus:
    oc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_ACCESS_KEY_ID} | base64 -d; echo
    oc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_SECRET_ACCESS_KEY} | base64 -d; echooc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_ACCESS_KEY_ID} | base64 -d; echo
    oc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_SECRET_ACCESS_KEY} | base64 -d; echo
  3. Um den Host oder FQDN für den Zugriff auf das Bucket zu finden, führen Sie den folgenden Befehl aus:
    oc get routes s3 -o jsonpath={.spec.host} -n openshift-storage; echooc get routes s3 -o jsonpath={.spec.host} -n openshift-storage; echo

Konfigurieren der CORS-Richtlinie

Darüber hinaus müssen Sie möglicherweise die folgende CORS-Richtlinie auf Speicherkonto-/Bucket-Ebene aktivieren, wenn während der Verwendung des Automation Suite -Clusters während der S3-Verbindung ein CORS-Fehler auftritt.

Stellen Sie sicher, dass Sie {{fqdn}} durch den FQDN des Automation Suite-Clusters in der folgenden CORS-Richtlinie ersetzen.

Das folgende Beispiel zeigt die CORS-Richtlinie im JSON-Format:

JSON
[
    {
        "AllowedHeaders": [
            "*"
        ],
        "AllowedMethods": [
            "POST",
            "GET",
            "HEAD",
            "DELETE",
            "PUT"
        ],
        "AllowedOrigins": [
            "https://{{fqdn}}"
        ],
        "ExposeHeaders": [
            "etag",
            "x-amz-server-side-encryption",
            "x-amz-request-id",
            "x-amz-id-2"
        ],
        "MaxAgeSeconds": 3000
    }
][
    {
        "AllowedHeaders": [
            "*"
        ],
        "AllowedMethods": [
            "POST",
            "GET",
            "HEAD",
            "DELETE",
            "PUT"
        ],
        "AllowedOrigins": [
            "https://{{fqdn}}"
        ],
        "ExposeHeaders": [
            "etag",
            "x-amz-server-side-encryption",
            "x-amz-request-id",
            "x-amz-id-2"
        ],
        "MaxAgeSeconds": 3000
    }
]

Das folgende Beispiel zeigt die CORS-Richtlinie im XML-Format:

XML
<CORSConfiguration>
 <CORSRule>
   <AllowedOrigin>{{fqdn}}</AllowedOrigin>
   <AllowedMethod>HEAD</AllowedMethod>
   <AllowedMethod>GET</AllowedMethod>
   <AllowedMethod>PUT</AllowedMethod>
   <AllowedMethod>POST</AllowedMethod>
   <AllowedMethod>DELETE</AllowedMethod>
   <AllowedHeader>*</AllowedHeader>
  <MaxAgeSeconds>3000</MaxAgeSeconds>
  <ExposeHeader>x-amz-server-side-encryption</ExposeHeader>
  <ExposeHeader>x-amz-request-id</ExposeHeader>
  <ExposeHeader>x-amz-id-2</ExposeHeader>
  <ExposeHeader>etag</ExposeHeader>
 </CORSRule>
</CORSConfiguration><CORSConfiguration>
 <CORSRule>
   <AllowedOrigin>{{fqdn}}</AllowedOrigin>
   <AllowedMethod>HEAD</AllowedMethod>
   <AllowedMethod>GET</AllowedMethod>
   <AllowedMethod>PUT</AllowedMethod>
   <AllowedMethod>POST</AllowedMethod>
   <AllowedMethod>DELETE</AllowedMethod>
   <AllowedHeader>*</AllowedHeader>
  <MaxAgeSeconds>3000</MaxAgeSeconds>
  <ExposeHeader>x-amz-server-side-encryption</ExposeHeader>
  <ExposeHeader>x-amz-request-id</ExposeHeader>
  <ExposeHeader>x-amz-id-2</ExposeHeader>
  <ExposeHeader>etag</ExposeHeader>
 </CORSRule>
</CORSConfiguration>

Konfiguration

Informationen zum Konfigurieren des Objektspeichers finden Sie unter Konfiguration des externen Objektspeichers.

Das Automation Suite Installationsprogramm unterstützt das Erstellen der Container/Buckets, wenn Sie make -Berechtigungen bereitstellen. Alternativ können Sie die erforderlichen Container/Buckets vor der Installation und deren Informationen für das Installationsprogramm bereitstellen.

Speicheranforderungen

Speicher

Anforderungen

Objektspeicher

500 GB

Die Größe des Objektspeichers hängt von der Größe der bereitgestellten und ausgeführten Automatisierung ab. Daher kann es zu Beginn der Installation schwierig sein, eine genaue Schätzung des Objektspeichers anzugeben. Sie können mit einer Objektspeichergröße von 350 GB bis 500 GB beginnen. Informationen zum Verständnis der Verwendung des Objektspeichers finden Sie unter Speicherschätzung für jede Automation Suite-Komponente.

Hinweis:
  • Wenn Ihre Automatisierung skaliert, müssen Sie möglicherweise die Erhöhung der Größe Ihres Objektspeichers berücksichtigen.

  • Wenn Sie Buckets verwenden, die in OpenShift Data Foundation erstellt wurden, müssen Sie die Buckets explizit bereitstellen und die Details für jedes Produkt in der input.json -Datei angeben.
    Weitere Informationen zur expliziten Angabe von Bucket-Informationen in der input.json -Datei finden Sie im Abschnitt Produktspezifische Konfiguration .

Blockspeicher

Blockspeicher müssen CSI-Treiber haben, die mit den Kubernetes-Speicherklassen konfiguriert sind.

Die folgende Tabelle enthält Details zum Blockspeicher, zur Speicherklasse und zum Bereitsteller:

Cloud/Kubernetes

Speicher

Speicherklasse

Bereitsteller

AWS

EBS-Volumes

ebs-sc

ebs.csi.aws.com

Azure

Azure Datenträger verwalten

managed-premium

Premium-LRS-Datenträger

disk.csi.azure.com

OpenShift

OpenShift Data Foundation

ocs-storagecluster-ceph-rbd

openshift-storage.rbd.csi.ceph.com

Hinweis:
Die in diesem Abschnitt genannten Speicherlösungen müssen nicht zwingend verwendet werden. Wenn Sie eine andere Speicherlösung verwenden, müssen Sie die entsprechende StorageClass verwenden, die Ihr Speicheranbieter bereitstellt.

Konfiguration

Sie können dem offiziellen Leitfaden von Red Hat folgen, um eine Speicherklasse in Ihrem OpenShift-Cluster zu erstellen.

Sie müssen den Namen der Speicherklasse, die Sie für Ihren Cluster erstellt haben, an den Parameter storage_class in der input.json -Datei übergeben.
Hinweis:
  • In OpenShift werden CSI-Treiber automatisch installiert und die Speicherklasse wird während der Installation der OpenShift Data Foundation erstellt. Wenn diese Speicherklassen nicht konfiguriert sind, müssen Sie sie vor der Installation der Automation Suite konfigurieren.

  • Sie müssen die Speicherklasse für den Blockspeicher zur Standardklasse machen, wie im folgenden Beispiel gezeigt.

Beispiel

Das folgende Beispiel zeigt, wie die Speicherklasse konfiguriert wird und wie sie während der Installation für die input.json -Datei bereitgestellt wird:

Konfiguration

input.jsonStorageClass

Azure

{
  "storage_class": "managed_premium"
}{
  "storage_class": "managed_premium"
}
allowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  creationTimestamp: "2023-06-15T09:34:17Z"
  labels:
    addonmanager.kubernetes.io/mode: EnsureExists
    kubernetes.io/cluster-service: "true"
    storageclass.kubernetes.io/is-default-class: "true"
  name: managed-premium
parameters:
  cachingmode: ReadOnly
  kind: Managed
  storageaccounttype: Premium_LRS
provisioner: disk.csi.azure.com
reclaimPolicy: Delete
volumeBindingMode: WaitForFirstConsumerallowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  creationTimestamp: "2023-06-15T09:34:17Z"
  labels:
    addonmanager.kubernetes.io/mode: EnsureExists
    kubernetes.io/cluster-service: "true"
    storageclass.kubernetes.io/is-default-class: "true"
  name: managed-premium
parameters:
  cachingmode: ReadOnly
  kind: Managed
  storageaccounttype: Premium_LRS
provisioner: disk.csi.azure.com
reclaimPolicy: Delete
volumeBindingMode: WaitForFirstConsumer

AWS

{
  "storage_class": "ebs-sc"
}{
  "storage_class": "ebs-sc"
}
allowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: ebs-sc
  annotations:
   storageclass.kubernetes.io/is-default-class: "true"
provisioner: ebs.csi.aws.com
reclaimPolicy: Delete
volumeBindingMode: WaitForFirstConsumerallowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: ebs-sc
  annotations:
   storageclass.kubernetes.io/is-default-class: "true"
provisioner: ebs.csi.aws.com
reclaimPolicy: Delete
volumeBindingMode: WaitForFirstConsumer

OpenShift

{
  "storage_class": "ocs-storagecluster-ceph-rbd"
}{
  "storage_class": "ocs-storagecluster-ceph-rbd"
}
kind: StorageClass
apiVersion: storage.k8s.io/v1
metadata:
  name: ocs-storagecluster-ceph-rbd
  annotations:
    description: 'Provides RWO Filesystem volumes, and RWO and RWX Block volumes'
    storageclass.kubernetes.io/is-default-class: "true"
provisioner: openshift-storage.rbd.csi.ceph.com
parameters:
  csi.storage.k8s.io/fstype: ext4
  csi.storage.k8s.io/provisioner-secret-namespace: openshift-storage
  csi.storage.k8s.io/provisioner-secret-name: rook-csi-rbd-provisioner
  csi.storage.k8s.io/node-stage-secret-name: rook-csi-rbd-node
  csi.storage.k8s.io/controller-expand-secret-name: rook-csi-rbd-provisioner
  csi.storage.k8s.io/controller-expand-secret-namespace: openshift-storage
  pool: ocs-storagecluster-cephblockpool
  csi.storage.k8s.io/node-stage-secret-namespace: openshift-storage
reclaimPolicy: Delete
allowVolumeExpansion: true
volumeBindingMode: Immediatekind: StorageClass
apiVersion: storage.k8s.io/v1
metadata:
  name: ocs-storagecluster-ceph-rbd
  annotations:
    description: 'Provides RWO Filesystem volumes, and RWO and RWX Block volumes'
    storageclass.kubernetes.io/is-default-class: "true"
provisioner: openshift-storage.rbd.csi.ceph.com
parameters:
  csi.storage.k8s.io/fstype: ext4
  csi.storage.k8s.io/provisioner-secret-namespace: openshift-storage
  csi.storage.k8s.io/provisioner-secret-name: rook-csi-rbd-provisioner
  csi.storage.k8s.io/node-stage-secret-name: rook-csi-rbd-node
  csi.storage.k8s.io/controller-expand-secret-name: rook-csi-rbd-provisioner
  csi.storage.k8s.io/controller-expand-secret-namespace: openshift-storage
  pool: ocs-storagecluster-cephblockpool
  csi.storage.k8s.io/node-stage-secret-namespace: openshift-storage
reclaimPolicy: Delete
allowVolumeExpansion: true
volumeBindingMode: Immediate

Speicheranforderungen

Konfiguration

Anforderungen

Blockspeicher

50 GB

Die Größe des Blockspeichers hängt von der Größe der bereitgestellten und ausgeführten Automatisierung ab. Daher kann es zunächst während der Installation schwierig sein, eine genaue Schätzung abzugeben. Sie können mit einer Blockspeichergröße von 50 GB beginnen. Informationen zur Verwendung des Blockspeichers finden Sie unter Speicherschätzung für jede Automation Suite-Komponente.

Hinweis: Wenn Ihre Automatisierung skaliert wird, müssen Sie möglicherweise die Erhöhung Ihrer Blockspeichergröße berücksichtigen.

Dateispeicher

Der Dateispeicher muss über CSI-Treiber verfügen, die mit den Kubernetes-Speicherklassen konfiguriert sind.

Dateispeicher ist für die Komponenten erforderlich, die keine Replikation erfordern. Wenn Sie jedoch kein Dateisystem haben, können Sie den Dateispeicher durch einen Blockspeicher ersetzen.

Cloud/Kubernetes

Speicher

Speicherklasse

Bereitsteller

AWS

EFS

efs-sc

efs.csi.aws.com

Azure

Azure Files

azurefile-csi-premium *

file.csi.azure.com

OpenShift

OpenShift Data Foundation

ocs-storagecluster-cephfs

openshift-storage.cephfs.csi.ceph.com

* Verwenden Sie die Speicherklasse azurefile-csi-premium für Studio Web auf AKS.
Hinweis:
Die in diesem Abschnitt genannten Speicherlösungen müssen nicht zwingend verwendet werden. Wenn Sie eine andere Speicherlösung verwenden, müssen Sie die entsprechende StorageClass verwenden, die Ihr Speicheranbieter bereitstellt.

Konfiguration

Sie können dem offiziellen Leitfaden von Red Hat folgen, um eine Speicherklasse in Ihrem OpenShift-Cluster zu erstellen.

Sie müssen den Namen der Speicherklasse, die Sie für Ihren Cluster erstellt haben, an den Parameter storage_class_single_replica in der input.json -Datei übergeben.
Hinweis:

In OpenShift werden CSI-Treiber automatisch installiert und die Speicherklasse wird während der Installation von OpenShift Data Foundation erstellt. Wenn die Speicherklasse nicht konfiguriert ist, müssen Sie sie vor der Installation der Automation Suite konfigurieren.

Beispiel

Das folgende Beispiel zeigt, wie die Speicherklasse konfiguriert und wie sie input.json während der Installation bereitgestellt wird:

Konfiguration

input.json

StorageClass

Azure

{
  "storage_class_single_replica": "azurefile-csi-premium"
}{
  "storage_class_single_replica": "azurefile-csi-premium"
}
allowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  labels:
    addonmanager.kubernetes.io/mode: EnsureExists
    kubernetes.io/cluster-service: "true"
  name: azurefile-csi
mountOptions:
- mfsymlinks
- actimeo=30
- nosharesock
- dir_mode=0700
- file_mode=0700
- uid=1000
- gid=1000
- nobrl
- cache=none
parameters:
  skuName: Standard_LRS
provisioner: file.csi.azure.com
reclaimPolicy: Delete
volumeBindingMode: ImmediateallowVolumeExpansion: true
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  labels:
    addonmanager.kubernetes.io/mode: EnsureExists
    kubernetes.io/cluster-service: "true"
  name: azurefile-csi
mountOptions:
- mfsymlinks
- actimeo=30
- nosharesock
- dir_mode=0700
- file_mode=0700
- uid=1000
- gid=1000
- nobrl
- cache=none
parameters:
  skuName: Standard_LRS
provisioner: file.csi.azure.com
reclaimPolicy: Delete
volumeBindingMode: Immediate

AWS

{
  "storage_class_single_replica": "efs-sc"
}{
  "storage_class_single_replica": "efs-sc"
}
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: efs-sc
parameters:
  basePath: /dynamic_provisioning
  directoryPerms: "700"
  fileSystemId: $(EFS_ID)
  gidRangeEnd: "2000"
  gidRangeStart: "1000"
  provisioningMode: efs-ap
provisioner: efs.csi.aws.com
reclaimPolicy: Delete
volumeBindingMode: ImmediateapiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
  name: efs-sc
parameters:
  basePath: /dynamic_provisioning
  directoryPerms: "700"
  fileSystemId: $(EFS_ID)
  gidRangeEnd: "2000"
  gidRangeStart: "1000"
  provisioningMode: efs-ap
provisioner: efs.csi.aws.com
reclaimPolicy: Delete
volumeBindingMode: Immediate
Hinweis:
Ersetzen Sie $(EFS_ID) durch die tatsächliche Dateifreigabe-ID, die Sie bei der Bereitstellung der Infrastruktur erstellt haben.

OpenShift

{
  "storage_class_single_replica": "ocs-storagecluster-cephfs"
}{
  "storage_class_single_replica": "ocs-storagecluster-cephfs"
}
kind: StorageClass
apiVersion: storage.k8s.io/v1
metadata:
  name: ocs-storagecluster-cephfs
  annotations:
    description: Provides RWO and RWX Filesystem volumes
provisioner: openshift-storage.cephfs.csi.ceph.com
parameters:
  clusterID: openshift-storage
  csi.storage.k8s.io/controller-expand-secret-name: rook-csi-cephfs-provisioner
  csi.storage.k8s.io/controller-expand-secret-namespace: openshift-storage
  csi.storage.k8s.io/node-stage-secret-name: rook-csi-cephfs-node
  csi.storage.k8s.io/node-stage-secret-namespace: openshift-storage
  csi.storage.k8s.io/provisioner-secret-name: rook-csi-cephfs-provisioner
  csi.storage.k8s.io/provisioner-secret-namespace: openshift-storage
  fsName: ocs-storagecluster-cephfilesystem
reclaimPolicy: Delete
allowVolumeExpansion: true
volumeBindingMode: Immediatekind: StorageClass
apiVersion: storage.k8s.io/v1
metadata:
  name: ocs-storagecluster-cephfs
  annotations:
    description: Provides RWO and RWX Filesystem volumes
provisioner: openshift-storage.cephfs.csi.ceph.com
parameters:
  clusterID: openshift-storage
  csi.storage.k8s.io/controller-expand-secret-name: rook-csi-cephfs-provisioner
  csi.storage.k8s.io/controller-expand-secret-namespace: openshift-storage
  csi.storage.k8s.io/node-stage-secret-name: rook-csi-cephfs-node
  csi.storage.k8s.io/node-stage-secret-namespace: openshift-storage
  csi.storage.k8s.io/provisioner-secret-name: rook-csi-cephfs-provisioner
  csi.storage.k8s.io/provisioner-secret-namespace: openshift-storage
  fsName: ocs-storagecluster-cephfilesystem
reclaimPolicy: Delete
allowVolumeExpansion: true
volumeBindingMode: Immediate
Hinweis:

Für die Speicherklasse für die Dateifreigabe müssen die erforderlichen Berechtigungen für das Verzeichnis und die Dateien auf 700 festgelegt sein.

Außerdem müssen UID und GID in Azure auf 1000 und in AWS gidRangeStart und gidRangeEnd auf 1000 bzw. 2000 festgelegt sein.

Speicheranforderungen

Speicher

Anforderungen

Dateispeicher

500 GB

Die Größe des Dateispeichers hängt von der Größe der bereitgestellten und ausgeführten Automatisierung ab. Daher kann es zunächst während der Installation schwierig sein, eine tatsächliche Schätzung anzugeben. Sie sollten jedoch mit einer Speichergröße von etwa 510 GB rechnen, die für die Ausführung von zehn gleichzeitigen Trainingspipelines und für Automation Suite Robots ausreicht. Informationen zum Verständnis der Verwendung des Dateispeichers finden Sie unter Speicherschätzung für jede Automation Suite-Komponente.

Hinweis:

Wenn Ihre Automatisierung skaliert wird, muss möglicherweise Ihr Dateispeicher größer werden.

War diese Seite hilfreich?

Hilfe erhalten
RPA lernen – Automatisierungskurse
UiPath Community-Forum
Uipath Logo White
Vertrauen und Sicherheit
© 2005–2024 UiPath. Alle Rechte vorbehalten