- Überblick
- Anforderungen
- Pre-installation
- Vorbereiten der Installation
- Installing and configuring the service mesh
- Herunterladen der Installationspakete
- Konfigurieren der OCI-konformen Registrierung
- Granting installation permissions
- Installing and configuring the GitOps tool
- Deploying Redis through OperatorHub
- Applying miscellaneous configurations
- Running uipathctl
- Installation
- Nach der Installation
- Migration und Upgrade
- Clusterverwaltung
- Produktspezifische Konfiguration
- Konfigurieren von Orchestrator-Parametern
- Konfigurieren von AppSettings
- Konfigurieren der maximalen Anforderungsgröße
- Überschreiben der Speicherkonfiguration auf Clusterebene
- Konfigurieren von NLog
- Speichern von Roboterprotokollen in Elasticsearch
- Konfigurieren von Anmeldeinformationsspeichern
- Konfigurieren der Verwendung von einem Verschlüsselungsschlüssel pro Mandant
- Bereinigen der Orchestrator-Datenbank
- Fehlersuche und ‑behebung
Speicher
Zusätzlich zum Microsoft SQL-Server erfordert der Automation Suite-Cluster eine Speicherkomponente zum Speichern der Dateien. Die Automation Suite erfordert den Objektspeicher und den Block-/Dateispeicher, abhängig vom gewählten Diensttyp.
Die folgenden Dienste erfordern die Speicherkomponente. Diese sind nur erforderlich, wenn Sie sich dafür entschieden haben, sie im Rahmen der Automation Suite Installation oder später zu aktivieren.
Dienst |
Speichertyp |
Zweck |
Schätzung |
---|---|---|---|
Orchestrator |
Objektspeicher |
|
In der Regel ist ein Paket 5 MB groß und Buckets, falls vorhanden, kleiner als 1 MB. Ein ausgereiftes Enterprise stellt etwa 10 GB an Paketen und 12 GB an Warteschlangen bereit. |
Action Center |
Objektspeicher |
|
In der Regel benötigt ein Dokument 0,15 MB und die auszufüllenden Formulare weitere 0,15 KB. In einem ausgereiften Unternehmen kann dies insgesamt 4 GB betragen. |
Test Manager |
Objektspeicher |
|
In der Regel haben alle Dateien und Anhänge zusammen etwa 5 GB. |
Insights |
Blockstore |
|
Für die Aktivierung sind 2 GB erforderlich, wobei der Speicherplatzbedarf mit der Anzahl wächst. Eine etablierte Enterprise-Bereitstellung erfordert weitere GB für alle Dashboards. Etwa 10 GB Speicherplatz sollten ausreichen. |
Apps |
Objektspeicher |
|
In der Regel benötigt die Datenbank etwa 5 GB und eine typische komplexe App verbraucht etwa 15 MB. |
AI Center |
Objektspeicher/Dateispeicher |
|
Eine typische und etablierte Installation verbraucht 8 GB für fünf Pakete und weitere 1 GB für die Datasets. Eine Pipeline kann weitere 50 GB Blockspeicher verbrauchen, aber nur, wenn sie aktiv ausgeführt wird. |
Document Understanding |
Objektspeicher |
|
In einer ausgereiften Bereitstellung werden 12 GB für das ML-Modell, 17 GB für die OCR und 50 GB für alle gespeicherten Dokumente verwendet. |
Automation Suite-Roboter |
Dateispeicher |
|
In der Regel stellt ein ausgereiftes Enterprise etwa 10 GB der Pakete bereit. |
Process Mining |
Objektspeicher |
|
Der minimale Platzbedarf wird nur zum Speichern der SQL-Dateien verwendet. Etwa ein GB Speicherplatz sollte am Anfang ausreichen. |
Die Automation Suite unterstützt die folgenden Objektspeicher:
-
Azure blob storage
-
AWS S3 storage
-
S3-compatible objectstore. OpenShift provides OpenShift Data Foundation, a Ceph-based, S3-compatible objectstore. To install OpenShift Data Foundation, see Introduction to OpenShift Data Foundation.
-
To create an objectstore bucket on OpenShift Data Foundation, you must create an
ObjectBucketClaim
for each bucket, corresponding to each product that you plan to install. The following sample shows a validObjectBucketClaim
:Note: The configuration we provide in the sample is required only if you create the buckets in OpenShift Data Foundation.apiVersion: objectbucket.io/v1alpha1 kind: ObjectBucketClaim metadata: name: BUCKET_NAME namespace: <uipath> spec: bucketName: BUCKET_NAME storageClassName: openshift-storage.noobaa.io
apiVersion: objectbucket.io/v1alpha1 kind: ObjectBucketClaim metadata: name: BUCKET_NAME namespace: <uipath> spec: bucketName: BUCKET_NAME storageClassName: openshift-storage.noobaa.io -
Applying the manifest creates a secret named
BUCKET_NAME
in the<uipath>
namespace. The secret contains theaccess_key
and thesecret_key
for that bucket. To query theaccess_key
and thesecret_key
, run the following command:oc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_ACCESS_KEY_ID} | base64 -d; echo oc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_SECRET_ACCESS_KEY} | base64 -d; echo
oc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_ACCESS_KEY_ID} | base64 -d; echo oc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_SECRET_ACCESS_KEY} | base64 -d; echo -
To find the host or FQDN to access the bucket, run the following command:
oc get routes s3 -o jsonpath={.spec.host} -n openshift-storage; echo
oc get routes s3 -o jsonpath={.spec.host} -n openshift-storage; echo
Darüber hinaus müssen Sie möglicherweise die folgende CORS-Richtlinie auf Speicherkonto-/Bucket-Ebene aktivieren, wenn während der Verwendung des Automation Suite -Clusters während der S3-Verbindung ein CORS-Fehler auftritt.
{{fqdn}}
durch den FQDN des Automation Suite-Clusters in der folgenden CORS-Richtlinie ersetzen.
The following sample shows the CORS policy in JSON format:
[
{
"AllowedHeaders": [
"*"
],
"AllowedMethods": [
"POST",
"GET",
"HEAD",
"DELETE",
"PUT"
],
"AllowedOrigins": [
"https://{{fqdn}}"
],
"ExposeHeaders": [
"etag",
"x-amz-server-side-encryption",
"x-amz-request-id",
"x-amz-id-2"
],
"MaxAgeSeconds": 3000
}
]
[
{
"AllowedHeaders": [
"*"
],
"AllowedMethods": [
"POST",
"GET",
"HEAD",
"DELETE",
"PUT"
],
"AllowedOrigins": [
"https://{{fqdn}}"
],
"ExposeHeaders": [
"etag",
"x-amz-server-side-encryption",
"x-amz-request-id",
"x-amz-id-2"
],
"MaxAgeSeconds": 3000
}
]
The following sample shows the CORS policy in XML format:
<CORSConfiguration>
<CORSRule>
<AllowedOrigin>{{fqdn}}</AllowedOrigin>
<AllowedMethod>HEAD</AllowedMethod>
<AllowedMethod>GET</AllowedMethod>
<AllowedMethod>PUT</AllowedMethod>
<AllowedMethod>POST</AllowedMethod>
<AllowedMethod>DELETE</AllowedMethod>
<AllowedHeader>*</AllowedHeader>
<MaxAgeSeconds>3000</MaxAgeSeconds>
<ExposeHeader>x-amz-server-side-encryption</ExposeHeader>
<ExposeHeader>x-amz-request-id</ExposeHeader>
<ExposeHeader>x-amz-id-2</ExposeHeader>
<ExposeHeader>etag</ExposeHeader>
</CORSRule>
</CORSConfiguration>
<CORSConfiguration>
<CORSRule>
<AllowedOrigin>{{fqdn}}</AllowedOrigin>
<AllowedMethod>HEAD</AllowedMethod>
<AllowedMethod>GET</AllowedMethod>
<AllowedMethod>PUT</AllowedMethod>
<AllowedMethod>POST</AllowedMethod>
<AllowedMethod>DELETE</AllowedMethod>
<AllowedHeader>*</AllowedHeader>
<MaxAgeSeconds>3000</MaxAgeSeconds>
<ExposeHeader>x-amz-server-side-encryption</ExposeHeader>
<ExposeHeader>x-amz-request-id</ExposeHeader>
<ExposeHeader>x-amz-id-2</ExposeHeader>
<ExposeHeader>etag</ExposeHeader>
</CORSRule>
</CORSConfiguration>
Informationen zum Konfigurieren des Objektspeichers finden Sie unter Konfiguration des externen Objektspeichers.
make
-Berechtigungen bereitstellen. Alternativ können Sie die erforderlichen Container/Buckets vor der Installation und deren Informationen für das Installationsprogramm bereitstellen.
Speicher |
Anforderungen |
---|---|
Objektspeicher |
500 GB |
Die Größe des Objektspeichers hängt von der Größe der bereitgestellten und ausgeführten Automatisierung ab. Daher kann es zu Beginn der Installation schwierig sein, eine genaue Schätzung des Objektspeichers anzugeben. Sie können mit einer Objektspeichergröße von 350 GB bis 500 GB beginnen. Informationen zum Verständnis der Verwendung des Objektspeichers finden Sie unter Speicherschätzung für jede Automation Suite-Komponente.
-
Wenn Ihre Automatisierung skaliert, müssen Sie möglicherweise die Erhöhung der Größe Ihres Objektspeichers berücksichtigen.
-
If you use buckets created in OpenShift Data Foundation, then you must explicitly provision the buckets and provide the details for each product in the
input.json
file.For more information on how to provide bucket information explicitly in theinput.json
file, see the Product-specific configuration section.
Blockspeicher müssen CSI-Treiber haben, die mit den Kubernetes-Speicherklassen konfiguriert sind.
Die folgende Tabelle enthält Details zum Blockspeicher, zur Speicherklasse und zum Bereitsteller:
Cloud/Kubernetes |
Speicher |
Speicherklasse |
Bereitsteller |
---|---|---|---|
AWS |
EBS-Volumes |
|
|
Azure |
Azure Datenträger verwalten |
Premium-LRS-Datenträger |
|
OpenShift |
OpenShift Data Foundation |
|
|
StorageClass
that your storage vendor provides.
You can follow the official guide from Red Hat to create a storage class in your OpenShift cluster.
storage_class
in der input.json
-Datei übergeben.
-
In OpenShift, CSI drivers are installed automatically and the storage class is created while installing the OpenShift Data Foundation. If these storage classes are not configured, you must configure them before the Automation Suite installation.
-
Sie müssen die Speicherklasse für den Blockspeicher zur Standardklasse machen, wie im folgenden Beispiel gezeigt.
Beispiel
input.json
-Datei bereitgestellt wird:
Konfiguration | input.json | StorageClass |
---|---|---|
Azure |
|
|
AWS |
|
|
OpenShift |
|
|
Konfiguration |
Anforderungen |
---|---|
Blockspeicher |
50 GB |
Die Größe des Blockspeichers hängt von der Größe der bereitgestellten und ausgeführten Automatisierung ab. Daher kann es zunächst während der Installation schwierig sein, eine genaue Schätzung abzugeben. Sie können mit einer Blockspeichergröße von 50 GB beginnen. Informationen zur Verwendung des Blockspeichers finden Sie unter Speicherschätzung für jede Automation Suite-Komponente.
Der Dateispeicher muss über CSI-Treiber verfügen, die mit den Kubernetes-Speicherklassen konfiguriert sind.
File storage is required for the components that do not require any replication. However, if you do not have a file system, you can replace file storage with block storage.
Cloud/Kubernetes |
Speicher |
Speicherklasse |
Bereitsteller |
---|---|---|---|
AWS |
EFS |
|
|
Azure |
Azure Files |
azurefile-csi-premium *
|
|
OpenShift |
OpenShift Data Foundation |
|
|
azurefile-csi-premium
für Studio Web auf AKS.
StorageClass
that your storage vendor provides.
You can follow the official guide from Red Hat to create a storage class in your OpenShift cluster.
storage_class_single_replica
in der input.json
-Datei übergeben.
In OpenShift, CSI drivers are installed automatically and the storage class is created while installing OpenShift Data Foundation. If the storage class is not configured, you must configure it before the Automation Suite installation.
Beispiel
input.json
während der Installation bereitgestellt wird:
Konfiguration |
|
|
---|---|---|
Azure |
|
|
AWS |
|
Hinweis:
Ersetzen Sie
$(EFS_ID) durch die tatsächliche Dateifreigabe-ID, die Sie bei der Bereitstellung der Infrastruktur erstellt haben.
|
OpenShift |
|
|
Für die Speicherklasse für die Dateifreigabe müssen die erforderlichen Berechtigungen für das Verzeichnis und die Dateien auf 700 festgelegt sein.
UID
und GID
in Azure auf 1000 und in AWS gidRangeStart
und gidRangeEnd
auf 1000 bzw. 2000 festgelegt sein.
Speicher |
Anforderungen |
---|---|
Dateispeicher |
500 GB |
Die Größe des Dateispeichers hängt von der Größe der bereitgestellten und ausgeführten Automatisierung ab. Daher kann es zunächst während der Installation schwierig sein, eine tatsächliche Schätzung anzugeben. Sie sollten jedoch mit einer Speichergröße von etwa 510 GB rechnen, die für die Ausführung von zehn gleichzeitigen Trainingspipelines und für Automation Suite Robots ausreicht. Informationen zum Verständnis der Verwendung des Dateispeichers finden Sie unter Speicherschätzung für jede Automation Suite-Komponente.
Wenn Ihre Automatisierung skaliert wird, muss möglicherweise Ihr Dateispeicher größer werden.