- Überblick
- Anforderungen
- Vor der Installation
- Vorbereiten der Installation
- Installieren und Konfigurieren des Dienstgeflechts
- Herunterladen der Installationspakete
- Konfigurieren der OCI-konformen Registrierung
- Erteilen von Installationsberechtigungen
- Installieren und Konfigurieren des GitOps-Tools
- Bereitstellen von Redis über OperatorHub
- Anwenden verschiedener Konfigurationen
- Ausführen von uipathctl
- Installation
- Nach der Installation
- Migration und Upgrade
- Clusterverwaltung
- Produktspezifische Konfiguration
- Konfigurieren von Orchestrator-Parametern
- Konfigurieren von AppSettings
- Konfigurieren der maximalen Anforderungsgröße
- Überschreiben der Speicherkonfiguration auf Clusterebene
- Konfigurieren von NLog
- Speichern von Roboterprotokollen in Elasticsearch
- Konfigurieren von Anmeldeinformationsspeichern
- Konfigurieren der Verwendung von einem Verschlüsselungsschlüssel pro Mandant
- Bereinigen der Orchestrator-Datenbank
- Fehlersuche und ‑behebung
Automation Suite in OpenShift – Installationsanleitung
Speicher
Zusätzlich zum Microsoft SQL-Server erfordert der Automation Suite-Cluster eine Speicherkomponente zum Speichern der Dateien. Die Automation Suite erfordert den Objektspeicher und den Block-/Dateispeicher, abhängig vom gewählten Diensttyp.
Die folgenden Dienste erfordern die Speicherkomponente. Diese sind nur erforderlich, wenn Sie sich dafür entschieden haben, sie im Rahmen der Automation Suite Installation oder später zu aktivieren.
Dienst |
Speichertyp |
Zweck |
Schätzung |
---|---|---|---|
Orchestrator |
Objektspeicher |
|
In der Regel ist ein Paket 5 MB groß und Buckets, falls vorhanden, kleiner als 1 MB. Ein ausgereiftes Enterprise stellt etwa 10 GB an Paketen und 12 GB an Warteschlangen bereit. |
Action Center |
Objektspeicher |
|
In der Regel benötigt ein Dokument 0,15 MB und die auszufüllenden Formulare weitere 0,15 KB. In einem ausgereiften Unternehmen kann dies insgesamt 4 GB betragen. |
Test Manager |
Objektspeicher |
|
In der Regel haben alle Dateien und Anhänge zusammen etwa 5 GB. |
Insights |
Blockstore |
|
Für die Aktivierung sind 2 GB erforderlich, wobei der Speicherplatzbedarf mit der Anzahl wächst. Eine etablierte Enterprise-Bereitstellung erfordert weitere GB für alle Dashboards. Etwa 10 GB Speicherplatz sollten ausreichen. |
Apps |
Objektspeicher |
|
In der Regel benötigt die Datenbank etwa 5 GB und eine typische komplexe App verbraucht etwa 15 MB. |
AI Center |
Objektspeicher/Dateispeicher |
|
Eine typische und etablierte Installation verbraucht 8 GB für fünf Pakete und weitere 1 GB für die Datasets. Eine Pipeline kann weitere 50 GB Blockspeicher verbrauchen, aber nur, wenn sie aktiv ausgeführt wird. |
Document Understanding |
Objektspeicher |
|
In einer ausgereiften Bereitstellung werden 12 GB für das ML-Modell, 17 GB für die OCR und 50 GB für alle gespeicherten Dokumente verwendet. |
Automation Suite-Roboter |
Dateispeicher |
|
In der Regel stellt ein ausgereiftes Enterprise etwa 10 GB der Pakete bereit. |
Process Mining |
Objektspeicher |
|
Der minimale Platzbedarf wird nur zum Speichern der SQL-Dateien verwendet. Etwa ein GB Speicherplatz sollte am Anfang ausreichen. |
Die Automation Suite unterstützt die folgenden Objektspeicher:
-
Azure-Blobspeicher
-
AWS S3-Speicher
-
S3-kompatibler Objektspeicher. OpenShift bietet OpenShift Data Foundation, einen Ceph-basierten, S3-kompatiblen Objektspeicher. Informationen zum Installieren von OpenShift Data Foundation finden Sie unter Einführung in OpenShift Data Foundation.
-
Um einen Objektspeicher-Bucket in OpenShift Data Foundation zu erstellen, müssen Sie für jeden Bucket einen
ObjectBucketClaim
erstellen, der jedem Produkt entspricht, das Sie installieren möchten. Das folgende Beispiel zeigt ein gültigesObjectBucketClaim
:Hinweis: Die Konfiguration, die wir im Beispiel angeben, ist nur erforderlich, wenn Sie die Buckets in OpenShift Data Foundation erstellen.apiVersion: objectbucket.io/v1alpha1 kind: ObjectBucketClaim metadata: name: BUCKET_NAME namespace: <uipath> spec: bucketName: BUCKET_NAME storageClassName: openshift-storage.noobaa.io
apiVersion: objectbucket.io/v1alpha1 kind: ObjectBucketClaim metadata: name: BUCKET_NAME namespace: <uipath> spec: bucketName: BUCKET_NAME storageClassName: openshift-storage.noobaa.io -
Durch das Anwenden des Manifests wird ein geheimer Clientschlüssel mit dem Namen
BUCKET_NAME
im Namespace<uipath>
erstellt. Der geheime Schlüssel enthält dieaccess_key
und densecret_key
für diesen Bucket. Um dieaccess_key
und diesecret_key
abzufragen, führen Sie den folgenden Befehl aus:oc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_ACCESS_KEY_ID} | base64 -d; echo oc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_SECRET_ACCESS_KEY} | base64 -d; echo
oc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_ACCESS_KEY_ID} | base64 -d; echo oc get secret BUCKET_NAME -n <uipath> -o jsonpath={.data.AWS_SECRET_ACCESS_KEY} | base64 -d; echo -
Um den Host oder FQDN für den Zugriff auf das Bucket zu finden, führen Sie den folgenden Befehl aus:
oc get routes s3 -o jsonpath={.spec.host} -n openshift-storage; echo
oc get routes s3 -o jsonpath={.spec.host} -n openshift-storage; echo
Darüber hinaus müssen Sie möglicherweise die folgende CORS-Richtlinie auf Speicherkonto-/Bucket-Ebene aktivieren, wenn während der Verwendung des Automation Suite -Clusters während der S3-Verbindung ein CORS-Fehler auftritt.
{{fqdn}}
durch den FQDN des Automation Suite-Clusters in der folgenden CORS-Richtlinie ersetzen.
Das folgende Beispiel zeigt die CORS-Richtlinie im JSON-Format:
[
{
"AllowedHeaders": [
"*"
],
"AllowedMethods": [
"POST",
"GET",
"HEAD",
"DELETE",
"PUT"
],
"AllowedOrigins": [
"https://{{fqdn}}"
],
"ExposeHeaders": [
"etag",
"x-amz-server-side-encryption",
"x-amz-request-id",
"x-amz-id-2"
],
"MaxAgeSeconds": 3000
}
]
[
{
"AllowedHeaders": [
"*"
],
"AllowedMethods": [
"POST",
"GET",
"HEAD",
"DELETE",
"PUT"
],
"AllowedOrigins": [
"https://{{fqdn}}"
],
"ExposeHeaders": [
"etag",
"x-amz-server-side-encryption",
"x-amz-request-id",
"x-amz-id-2"
],
"MaxAgeSeconds": 3000
}
]
Das folgende Beispiel zeigt die CORS-Richtlinie im XML-Format:
<CORSConfiguration>
<CORSRule>
<AllowedOrigin>{{fqdn}}</AllowedOrigin>
<AllowedMethod>HEAD</AllowedMethod>
<AllowedMethod>GET</AllowedMethod>
<AllowedMethod>PUT</AllowedMethod>
<AllowedMethod>POST</AllowedMethod>
<AllowedMethod>DELETE</AllowedMethod>
<AllowedHeader>*</AllowedHeader>
<MaxAgeSeconds>3000</MaxAgeSeconds>
<ExposeHeader>x-amz-server-side-encryption</ExposeHeader>
<ExposeHeader>x-amz-request-id</ExposeHeader>
<ExposeHeader>x-amz-id-2</ExposeHeader>
<ExposeHeader>etag</ExposeHeader>
</CORSRule>
</CORSConfiguration>
<CORSConfiguration>
<CORSRule>
<AllowedOrigin>{{fqdn}}</AllowedOrigin>
<AllowedMethod>HEAD</AllowedMethod>
<AllowedMethod>GET</AllowedMethod>
<AllowedMethod>PUT</AllowedMethod>
<AllowedMethod>POST</AllowedMethod>
<AllowedMethod>DELETE</AllowedMethod>
<AllowedHeader>*</AllowedHeader>
<MaxAgeSeconds>3000</MaxAgeSeconds>
<ExposeHeader>x-amz-server-side-encryption</ExposeHeader>
<ExposeHeader>x-amz-request-id</ExposeHeader>
<ExposeHeader>x-amz-id-2</ExposeHeader>
<ExposeHeader>etag</ExposeHeader>
</CORSRule>
</CORSConfiguration>
Informationen zum Konfigurieren des Objektspeichers finden Sie unter Konfiguration des externen Objektspeichers.
make
-Berechtigungen bereitstellen. Alternativ können Sie die erforderlichen Container/Buckets vor der Installation und deren Informationen für das Installationsprogramm bereitstellen.
Speicher |
Anforderungen |
---|---|
Objektspeicher |
500 GB |
Die Größe des Objektspeichers hängt von der Größe der bereitgestellten und ausgeführten Automatisierung ab. Daher kann es zu Beginn der Installation schwierig sein, eine genaue Schätzung des Objektspeichers anzugeben. Sie können mit einer Objektspeichergröße von 350 GB bis 500 GB beginnen. Informationen zum Verständnis der Verwendung des Objektspeichers finden Sie unter Speicherschätzung für jede Automation Suite-Komponente.
-
Wenn Ihre Automatisierung skaliert, müssen Sie möglicherweise die Erhöhung der Größe Ihres Objektspeichers berücksichtigen.
-
Wenn Sie Buckets verwenden, die in OpenShift Data Foundation erstellt wurden, müssen Sie die Buckets explizit bereitstellen und die Details für jedes Produkt in der
input.json
-Datei angeben.Weitere Informationen zur expliziten Angabe von Bucket-Informationen in derinput.json
-Datei finden Sie im Abschnitt Produktspezifische Konfiguration .
Blockspeicher müssen CSI-Treiber haben, die mit den Kubernetes-Speicherklassen konfiguriert sind.
Die folgende Tabelle enthält Details zum Blockspeicher, zur Speicherklasse und zum Bereitsteller:
Cloud/Kubernetes |
Speicher |
Speicherklasse |
Bereitsteller |
---|---|---|---|
AWS |
EBS-Volumes |
|
|
Azure |
Azure Datenträger verwalten |
Premium-LRS-Datenträger |
|
OpenShift |
OpenShift Data Foundation |
|
|
StorageClass
verwenden, die Ihr Speicheranbieter bereitstellt.
Sie können dem offiziellen Leitfaden von Red Hat folgen, um eine Speicherklasse in Ihrem OpenShift-Cluster zu erstellen.
storage_class
in der input.json
-Datei übergeben.
-
In OpenShift werden CSI-Treiber automatisch installiert und die Speicherklasse wird während der Installation der OpenShift Data Foundation erstellt. Wenn diese Speicherklassen nicht konfiguriert sind, müssen Sie sie vor der Installation der Automation Suite konfigurieren.
-
Sie müssen die Speicherklasse für den Blockspeicher zur Standardklasse machen, wie im folgenden Beispiel gezeigt.
Beispiel
input.json
-Datei bereitgestellt wird:
Konfiguration | input.json | StorageClass |
---|---|---|
Azure |
|
|
AWS |
|
|
OpenShift |
|
|
Konfiguration |
Anforderungen |
---|---|
Blockspeicher |
50 GB |
Die Größe des Blockspeichers hängt von der Größe der bereitgestellten und ausgeführten Automatisierung ab. Daher kann es zunächst während der Installation schwierig sein, eine genaue Schätzung abzugeben. Sie können mit einer Blockspeichergröße von 50 GB beginnen. Informationen zur Verwendung des Blockspeichers finden Sie unter Speicherschätzung für jede Automation Suite-Komponente.
Der Dateispeicher muss über CSI-Treiber verfügen, die mit den Kubernetes-Speicherklassen konfiguriert sind.
Dateispeicher ist für die Komponenten erforderlich, die keine Replikation erfordern. Wenn Sie jedoch kein Dateisystem haben, können Sie den Dateispeicher durch einen Blockspeicher ersetzen.
Cloud/Kubernetes |
Speicher |
Speicherklasse |
Bereitsteller |
---|---|---|---|
AWS |
EFS |
|
|
Azure |
Azure Files |
azurefile-csi-premium *
|
|
OpenShift |
OpenShift Data Foundation |
|
|
azurefile-csi-premium
für Studio Web auf AKS.
StorageClass
verwenden, die Ihr Speicheranbieter bereitstellt.
Sie können dem offiziellen Leitfaden von Red Hat folgen, um eine Speicherklasse in Ihrem OpenShift-Cluster zu erstellen.
storage_class_single_replica
in der input.json
-Datei übergeben.
In OpenShift werden CSI-Treiber automatisch installiert und die Speicherklasse wird während der Installation von OpenShift Data Foundation erstellt. Wenn die Speicherklasse nicht konfiguriert ist, müssen Sie sie vor der Installation der Automation Suite konfigurieren.
Beispiel
input.json
während der Installation bereitgestellt wird:
Konfiguration |
|
|
---|---|---|
Azure |
|
|
AWS |
|
Hinweis:
Ersetzen Sie
$(EFS_ID) durch die tatsächliche Dateifreigabe-ID, die Sie bei der Bereitstellung der Infrastruktur erstellt haben.
|
OpenShift |
|
|
Für die Speicherklasse für die Dateifreigabe müssen die erforderlichen Berechtigungen für das Verzeichnis und die Dateien auf 700 festgelegt sein.
UID
und GID
in Azure auf 1000 und in AWS gidRangeStart
und gidRangeEnd
auf 1000 bzw. 2000 festgelegt sein.
Speicher |
Anforderungen |
---|---|
Dateispeicher |
500 GB |
Die Größe des Dateispeichers hängt von der Größe der bereitgestellten und ausgeführten Automatisierung ab. Daher kann es zunächst während der Installation schwierig sein, eine tatsächliche Schätzung anzugeben. Sie sollten jedoch mit einer Speichergröße von etwa 510 GB rechnen, die für die Ausführung von zehn gleichzeitigen Trainingspipelines und für Automation Suite Robots ausreicht. Informationen zum Verständnis der Verwendung des Dateispeichers finden Sie unter Speicherschätzung für jede Automation Suite-Komponente.
Wenn Ihre Automatisierung skaliert wird, muss möglicherweise Ihr Dateispeicher größer werden.