- Überblick
- Anforderungen
- Vor der Installation
- Vorbereiten der Installation
- Installieren und Konfigurieren des Dienstgeflechts
- Herunterladen der Installationspakete
- Konfigurieren der OCI-konformen Registrierung
- Erteilen von Installationsberechtigungen
- Installieren und Konfigurieren des GitOps-Tools
- Anwenden verschiedener Konfigurationen
- Ausführen von uipathctl
- Installation
- Nach der Installation
- Migration und Upgrade
- Aktualisieren der Automation Suite
- Migrieren von eigenständigen Produkten zur Automation Suite
- Schritt 1: Wiederherstellen der eigenständigen Produktdatenbank
- Schritt 2: Aktualisieren des Schemas der wiederhergestellten Produktdatenbank
- Schritt 3: Verschieben der Identitätsorganisationsdaten von der eigenständigen Bereitstellung in die Automation Suite
- Schritt 4: Sichern der Plattformdatenbank in der Automation Suite
- Schritt 5: Zusammenführen von Organisationen in der Automation Suite
- Schritt 6: Aktualisieren der migrierten Produktverbindungszeichenfolgen
- Schritt 7: Migrieren des eigenständigen Orchestrator
- Schritt 8: Migrieren von eigenständigen Insights
- Schritt 9: Migrieren des eigenständigen Test Managers
- Schritt 10: Löschen des Standardmandanten
- Durchführen der Migration eines einzelnen Mandanten
- Migrieren zwischen Automation Suite-Clustern
- Migrieren von der Automation Suite auf EKS/AKS zur Automation Suite auf OpenShift
- Überwachung und Warnungen
- Clusterverwaltung
- Produktspezifische Konfiguration
- Konfigurieren von Orchestrator-Parametern
- Konfigurieren von AppSettings
- Konfigurieren der maximalen Anforderungsgröße
- Überschreiben der Speicherkonfiguration auf Clusterebene
- Konfigurieren von NLog
- Speichern von Roboterprotokollen in Elasticsearch
- Konfigurieren von Anmeldeinformationsspeichern
- Konfigurieren der Verwendung von einem Verschlüsselungsschlüssel pro Mandant
- Bereinigen der Orchestrator-Datenbank
- Fehlersuche und ‑behebung
- Zugriff auf Automation Hub nach Upgrade auf Automation Suite 2024.10.0 nicht mehr möglich
- AI Center-Bereitstellungsfehler nach Upgrade auf 2023.10 oder höher
- Insights-Volumes, die nach der Migration in zwei verschiedenen Zonen erstellt wurden
- Upgrade schlägt aufgrund überschriebener Insights-PVC-Größen fehl
- Das Sicherungssetup funktioniert nicht, da die Verbindung mit Azure Government fehlgeschlagen ist
- Hängende Pods im uipath-Namespace bei Aktivierung von benutzerdefinierten Knoten-Markierungen
- Automation Hub und Apps können mit Proxy-Setup nicht gestartet werden
- Der Roboter kann keine Verbindung mit einer Automation Suite-Orchestrator-Instanz herstellen
- Protokollstreaming funktioniert nicht in Proxy-Setups
- Die Velero-Sicherung schlägt mit dem Fehler „FehlgeschlageneValidierung“ fehl
- Beim Zugriff auf den FQDN wird RBAC zurückgegeben: Zugriff verweigert

Automation Suite in der EKS/AKS-Installationsanleitung
Kubernetes-Cluster und -Knoten
Cluster und Berechtigungen
Sie können Ihren eigenen Kubernetes-Cluster mitbringen und Ihre Standardpraktiken befolgen, um ihn bereitzustellen und zu verwalten.
Wenn Sie dem Automation Suite-Installationsprogramm Administratorberechtigungen erteilen, installiert und verwaltet UiPath® alle erforderlichen Komponenten für die Ausführung der Automation Suite. Wenn Sie dem Installationsprogramm jedoch keine Administratorrechte für den Cluster erteilen können, ist die Installation einiger erforderlicher Komponenten nicht möglich. Daher muss vor der Installation der Automation Suite in einem Cluster, in dem Sie dem Installationsprogramm keine Administratorrechte gewährt haben, ein Administratorbenutzer vor der Installation der Automation Suite-Plattform bestimmte erforderliche Komponenten separat installieren. Hier sind die wichtigsten Schritte, die Sie ausführen müssen, wenn Sie dem Automation Suite-Installationsprogramm keine Administratorrechte gewähren können:
- Installieren und konfigurieren Sie das Istio-Dienstgeflecht. Weitere Informationen finden Sie unter Installieren und Konfigurieren des Dienstgeflechts.
- Bringen Sie Ihr eigenes ArgoCD mit ein. Weitere Informationen finden Sie unter Installieren und Konfigurieren des GitOps-Tools.
- Wenn Sie Process Mining installieren, müssen Sie cert-manager und Dapr selbst installieren. Weitere Informationen finden Sie unter Erfüllen der Voraussetzungen für Process Mining.
- Erstellen und verwalten Sie Zertifikate selbst. Weitere Informationen finden Sie unter Während der Installation generierte Zertifikate.
- Erstellen Sie ein Dienstkonto und gewähren Sie die erforderlichen Berechtigungen für die Automation Suite-Installation. Weitere Informationen finden Sie unter Erteilen von Installationsberechtigungen.
Nach der Installation der erforderlichen Komponenten können Sie das Installationsprogramm mit niedrigeren Berechtigungen ausführen. Die Liste der erforderlichen Berechtigungen finden Sie unter Erteilen von Installationsberechtigungen.
Unterstützte EKS/AKS-Versionen
Jede Version des langfristigen Supports der Automation Suite enthält eine Kompatibilitätsmatrix. Informationen zu kompatiblen EKS- oder AKS-Versionen finden Sie in der Kompatibilitätsmatrix.
Wir haben die Kompatibilität der Automation Suite mit den folgenden Linux-Betriebssystemen getestet:
| Cloudanbieter | OS |
|---|---|
| AKS |
|
| EKS |
|
Die Automation Suite auf EKS/AKS unterstützt nur die x86-EKS/AKS-Architektur und nicht ARM64.
Knotenkapazität
Um die Knotenkapazität basierend auf Ihren Produkt- und Skalierungsanforderungen zu schätzen, verwenden Sie den Rechner der UiPath Automation Suite zur Installationsskalierung.
Das Stammvolume für Agent-(Worker-)Knoten erfordert 256 GB.
Um mit den obligatorischen Plattformdiensten (Identität, Lizenzierung und Routing) und dem Orchestrator zu beginnen, müssen Sie mindestens 8 vCPU und 16 GB RAM pro Knoten bereitstellen.
Wir empfehlen aufgrund von Stabilitäts- und Leistungsproblemen nicht, Punktinstanzen in der Automation Suite in Produktionsszenarien zu verwenden.
Speicher wechseln
Sie müssen den Auslagerungsspeicher deaktivieren, bevor Sie die Automation Suite installieren. Es ist bekannt, dass Swap-Speicher bei Workloads in Containern Probleme verursachen können. Außerdem profitieren die Workloads der Automation Suite nicht von der Verwendung von Swap-Speicher und Kubernetes optimiert bereits die Speichernutzung.
Automatische Skalierung
Wir empfehlen, die automatische Skalierung in Ihrem Cluster zu aktivieren, um eine hohe Zuverlässigkeit sicherzustellen und Betriebsunterbrechungen zu vermeiden.
Zusätzliche Task Mining-Voraussetzungen
Wenn Sie Task Mining installieren, müssen Sie zusätzliche Worker-Knoten mit 20 vCPU und 60 GB RAM bereitstellen. Dieser Knoten muss markiert werden, um sicherzustellen, dass nur Task Mining-Workloads auf ihm ausgeführt werden. Weitere Informationen finden Sie im Abschnitt Planung von Knoten .
Zusätzliche Anforderungen für Automation Suite-Roboter
Automation Suite Robot erfordern zusätzliche Worker-Knoten.
Die Hardwareanforderungen für den Automation Suite-Roboterknoten hängen davon ab, wie Sie Ihre Ressourcen verwenden möchten. Zusätzlich zu den zusätzlichen Agentknotenanforderungen benötigen Sie mindestens 10 GB Dateispeicher, um die Paketzwischenspeicherung zu aktivieren .
Weitere Informationen finden Sie in der Speicher- Dokumentation.
In den folgenden Abschnitten werden die Faktoren beschrieben, die sich auf die Hardwaremenge auswirken, die der Automation Suite-Roboterknoten benötigt.
Robotergröße
In der folgenden Tabelle werden die erforderliche CPU, der Arbeitsspeicher und der Speicher für alle Robotergrößen beschrieben.
| Größe | CPU | Arbeitsspeicher | Speicher |
|---|---|---|---|
| Klein | 0,5 | 1 GB | 1 GB |
| Standard | 1 | 2 GB | 2 GB |
| Mittel | 2 | 4 GB | 4 GB |
| Groß | 6 | 10 GB | 10 GB |
Größe des Agentknotens
Die Ressourcen des Automation Suite Roboter-Agentknotens wirken sich auf die Anzahl der Aufträge aus, die gleichzeitig ausgeführt werden können. Der Grund dafür ist, dass die Anzahl der CPU-Kerne und die Größe der RAM-Kapazität durch die CPU-/Speicheranforderungen des Auftrags geteilt werden.
Ein Knoten mit 16 CPUs und 32 GB RAM kann beispielsweise Folgendes ausführen:
- 32 kleine Aufträge
- 16 Standardaufträge
- 8 mittlere Aufträge
- Zwei große Aufträge
Auftragsgrößen können gemischt werden, sodass derselbe Knoten zu einem bestimmten Zeitpunkt eine Kombination von Aufträgen ausführen kann, z. B. Folgendes:
- 10 kleine Aufträge (verbrauchen 5 CPUs und 10 GB Arbeitsspeicher)
- 4 Standardaufträge (verbraucht 4 CPUs und 8 GB Arbeitsspeicher)
- 3 mittlere Aufträge (verbraucht 6 CPUs und 12 GB Arbeitsspeicher)
Kubernetes-Ressourcenverbrauch
Da der Knoten Teil eines Kubernetes-Clusters ist, verbraucht der auf dem Server vorhandene Kubernetes-Agent (kubelet) eine geringe Menge an Ressourcen. Basierend auf unseren Messungen verbraucht das Kubelet die folgenden Ressourcen:
- 0,6 CPU
- 0,4 GB RAM
Ein Knoten, der dem zuvor beschriebenen ähnelt, hätte tatsächlich ungefähr 15,4 CPUs und 31,6 GB RAM.
Automatische Auswahl der Maschinengröße
All your cross-platform processes have the Automation Suite Robots option set to Automatic by default. This setting selects the appropriate machine size for running the process using serverless robots.
Bei der automatischen Auswahl der Größe werden die in der nachstehenden Tabelle aufgeführten Kriterien der Reihe nach bewertet. Sobald ein Kriterium erfüllt ist, wird die entsprechende Maschinengröße gewählt und die übrigen Kriterien werden nicht bewertet.
| Reihenfolge | Kriterium | Maschinengröße |
|---|---|---|
| 1 | Remote-Debugging-Auftrag | Mittel |
| 2 | Der Prozess hängt von der UI-Automatisierung ODER Der Prozess hängt von den UiPath Document Understanding-Aktivitätenab | Standard |
| 3 | Anderer Unattended-Prozess | Klein |
Zusätzliche Document Understanding-Empfehlungen
Für eine höhere Leistung können Sie Document Understanding auf einem zusätzlichen Agentknoten mit GPU-Unterstützung installieren. Beachten Sie jedoch, dass AI Center-basierte Projekte in Document Understanding ohne den GPU-Knoten voll funktionsfähig sind. Tatsächlich verwendet Document Understanding CPU-VMs für alle Extraktions- und Klassifizierungsaufgaben, während wir bei der OCR dringend die Verwendung einer GPU-VM empfehlen.
Weitere Informationen zur CPU-/GPU-Auslastung im Document Understanding-Framework finden Sie unter CPU- und GPU-Auslastung.
Wenn Sie einen zusätzlichen Knoten mit GPU-Unterstützung verwenden möchten, müssen Sie die folgenden Anforderungen erfüllen:
| Hardware | Mindestanforderungen |
|---|---|
| Prozessor | 8 (v-)CPU/Kerne |
| RAM | 52 GB |
| Betriebssystemdatenträger | 256 GB SSD Min. IOPS: 1100 |
| DataDisk | Keine Angabe |
| GPU-RAM | 11 GB |
Beim Hinzufügen des GPU-Knotenpools ist es wichtig, dass Sie --node-taints nvidia.com/gpu=present:NoSchedule anstatt --node-taints sku=gpu:NoSchedule verwenden.
Um eine ordnungsgemäße Planung von GPU-Workloads sicherzustellen, stellen Sie sicher, dass Ihre YAML-Konfiguration von DaemonSet (NFD oder Nvidia GPU-Operator) einen übereinstimmenden tolerations -Block enthält. Sie können das folgende Beispiel verwenden: Zuweisung
tolerations:
- key: "nvidia.com/gpu"
operator: "Equal"
value: "present"
effect: "NoSchedule"
tolerations:
- key: "nvidia.com/gpu"
operator: "Equal"
value: "present"
effect: "NoSchedule"
Die Automation Suite unterstützt NVIDIA-GPUs. Informationen zum Konfigurieren von NVDIA-GPUs (z. B. Treiber) finden Sie in den jeweiligen Dokumenten von Azure oder AWS.
Zusätzliche Anforderungen für moderne Document Understanding-Projekte
Bei aktivierter CPU-Inferenz sind mindestens 2 GPUs erforderlich. Um die CPU-Inferenz zu aktivieren, legen Sie die Eigenschaft enable_cpu_inference auf true fest, wie im Abschnitt Aktivieren oder Deaktivieren von Document Understanding angegeben.
Achtung!
- Die Inferenz kann bis zu 10-mal langsamer sein.
- Wir empfehlen die Verwendung für Dokumente mit maximal 125 Seiten. Es ist keine aktive Einschränkung vorhanden. Die Inferenz kann jedoch bei Dokumenten fehlschlagen, die größer als 125 Seiten sind.
Ohne CPU-Inferenz sind mindestens 5 GPUs für moderne Document Understanding-Projekte erforderlich. Das Beispielszenario in der folgenden Tabelle zeigt, wie fünf GPUs ausreichen, um 300 Seiten zu verarbeiten.
Für moderne Document Understanding-Projekte ist die empfohlene Mindest-GPU NVIDIA T4.
| Function | Nummer |
|---|---|
| Benutzerdefinierte Modellseiten, die pro Stunde verarbeitet werden | 300 |
| Vorgefertigte Modellseiten, die pro Stunde verarbeitet werden | 0 |
| Modelltraining parallel | 1 |
| Anzahl der Seiten in allen Projekten – Entwurfszeit | 200 |
| Anzahl der Dokumenttypen pro Projektversion | 3 |
Die 5 GPUs sind auf verschiedene Funktionen verteilt, wie in der folgenden Tabelle beschrieben:
| Dienst | Anzahl der GPUs |
|---|---|
| OCR-Replikate | 1 |
| Benutzerdefinierte Modelltrainingsreplikate | 1 |
| Benutzerdefinierte Modellreplikate | 2 |
| Vorgefertigte Modellreplikate | 1 |
| Gesamt | 5 |
Weitere Informationen zum Zuweisen von GPU-Ressourcen zu jedem Dienst finden Sie auf der Seite Zuweisen von GPU-Ressourcen für moderne Document Understanding-Projekte .
Zusätzlich zu den GPU-Anforderungen benötigen moderne Document Understanding-Projekte auch bestimmte CPU-Ressourcen für optimale Leistung. Für optimale Leistung sind mindestens 18 vCPUs erforderlich.
Beim modernen Document Understanding-Projekt sind weitere 4 TB der objectstore erforderlich, um die Aktivitäten aus den bereitgestellten Beispielen ein Jahr lang kontinuierlich auszuführen. Sie können mit einer kleineren Zahl beginnen, aber die Aktivität schlägt fehl, sobald die Speicherung abgeschlossen ist, es sei denn, Sie skalieren sie explizit.
Wenn Sie für ein Jahr der kontinuierlichen Verarbeitung bereitstellen, benötigen Sie 4 TB für moderne Document Understanding-Projekte und 512 GB für die anderen Produkte. Das ergibt insgesamt 4,5 TB Speicherplatz. Wenn Sie mit einer sechsmonatigen Verarbeitung beginnen, benötigen Sie ebenfalls 2 TB für moderne Document Understanding-Projekte und 512 GB für die anderen Produkte. In diesem Fall beträgt die Gesamtmenge 2,5 TB.
Detailliertere Berechnungen und die für Ihre Anforderungen erforderliche Kapazität finden Sie im Rechner der UiPath Automation Suite zur Installationsskalierung.
Bereitstellen von MIG-fähigen GPUs
NVIDIA-Workloads für Document Understanding der Automation Suite unterstützen die Ausführung auf virtuellen GPUs (VPPUs), die mit MIG-Technologie (Multi-Instance GPU) erstellt wurden.
Um Document Understanding unter diesen Bedingungen auszuführen, beachten Sie die folgenden Anforderungen:
- GPU-Speicher (VRAM): mindestens 16 GB pro SVGPU
Hinweis:
UiPath unterstützt nur die einzelne Strategie, was bedeutet, dass alle VPPUs genau gleich sind.
- Speicher: mindestens 80 GB pro SVGPU
Aktivieren von MIG-fähigen GPUs in Kubernetes
Nach der Bereitstellung der MIG-fähigen GPUs in Ihrem Cluster mit Profilen, die den oben genannten Mindestanforderungen entsprechen oder diese übertreffen, stellen Sie sicher, dass die GPUs planbare Kubernetes sind. Der Knoten muss eine Anzahl von GPUs ungleich Null melden, bevor Workloads auf ihm geplant werden können.
Um die GPUs planbar zu machen, haben Sie zwei Optionen:
- Option A: Folgen Sie der offiziellen Dokumentation zur GPU-Einrichtung Ihres Cloud-Anbieters:
- Option B (Alternativ): Stellen Sie das NVIDIA-Geräte-Plugin direkt bereit:
- Erstellen Sie einen neuen Namespace:
kubectl create namespace gpu-resourceskubectl create namespace gpu-resources - Wenden Sie die folgende Konfiguration an, indem Sie
migEnabledPoolNamedurch die Beschriftung ersetzen, die Ihrem GPU-Knoten entspricht:apiVersion: v1 kind: Pod metadata: name: nvidia-device-plugin-pod namespace: gpu-resources spec: affinity: nodeAffinity: requiredDuringSchedulingIgnoredDuringExecution: nodeSelectorTerms: - matchExpressions: - key: agentpool operator: In values: # To be changed to a selector that matches the GPU nodes - migEnabledPoolName containers: - args: - --fail-on-init-error=false env: - name: MPS_ROOT value: /run/nvidia/mps - name: MIG_STRATEGY # We only support the single strategy for now value: single - name: NVIDIA_MIG_MONITOR_DEVICES value: all - name: NVIDIA_VISIBLE_DEVICES value: all - name: NVIDIA_DRIVER_CAPABILITIES value: compute,utility image: nvcr.io/nvidia/k8s-device-plugin:v0.17.3 imagePullPolicy: IfNotPresent name: nvidia-device-plugin-ctr securityContext: allowPrivilegeEscalation: true capabilities: add: - SYS_ADMIN terminationMessagePath: /dev/termination-log terminationMessagePolicy: File volumeMounts: - mountPath: /var/lib/kubelet/device-plugins name: device-plugin tolerations: - key: CriticalAddonsOnly operator: Exists - effect: NoSchedule key: nvidia.com/gpu operator: Exists terminationGracePeriodSeconds: 30 volumes: - hostPath: path: /var/lib/kubelet/device-plugins type: "" name: device-pluginapiVersion: v1 kind: Pod metadata: name: nvidia-device-plugin-pod namespace: gpu-resources spec: affinity: nodeAffinity: requiredDuringSchedulingIgnoredDuringExecution: nodeSelectorTerms: - matchExpressions: - key: agentpool operator: In values: # To be changed to a selector that matches the GPU nodes - migEnabledPoolName containers: - args: - --fail-on-init-error=false env: - name: MPS_ROOT value: /run/nvidia/mps - name: MIG_STRATEGY # We only support the single strategy for now value: single - name: NVIDIA_MIG_MONITOR_DEVICES value: all - name: NVIDIA_VISIBLE_DEVICES value: all - name: NVIDIA_DRIVER_CAPABILITIES value: compute,utility image: nvcr.io/nvidia/k8s-device-plugin:v0.17.3 imagePullPolicy: IfNotPresent name: nvidia-device-plugin-ctr securityContext: allowPrivilegeEscalation: true capabilities: add: - SYS_ADMIN terminationMessagePath: /dev/termination-log terminationMessagePolicy: File volumeMounts: - mountPath: /var/lib/kubelet/device-plugins name: device-plugin tolerations: - key: CriticalAddonsOnly operator: Exists - effect: NoSchedule key: nvidia.com/gpu operator: Exists terminationGracePeriodSeconds: 30 volumes: - hostPath: path: /var/lib/kubelet/device-plugins type: "" name: device-plugin
- Erstellen Sie einen neuen Namespace:
Nach der Bereitstellung des Plugins sollte im Abschnitt Zuweisbar des Knotens die richtige Anzahl von VPPUs unter nvidia.com/gpu angezeigt werden, basierend auf dem von Ihnen konfigurierten MIG-Profil. Der Knoten sollte nun planbar und bereit sein, Document Understanding-Workloads auszuführen.
Knotenplanung
Wir empfehlen, Knotenmarkierungen auf dedizierten Arbeiterknoten für Task Mining, Automation Suite Robotund Document Understanding zu aktivieren.
Beispiel für AI Center und DU:
-
Für CPU:
kubectl taint node <node_name> aic.ml/cpu=present:NoSchedulekubectl taint node <node_name> aic.ml/cpu=present:NoSchedule -
Für GPU:
kubectl taint node <node_name> nvidia.com/gpu=present:NoSchedulekubectl taint node <node_name> nvidia.com/gpu=present:NoSchedule
Beispiel für Task Mining:
kubectl taint node <node_name> task.mining/cpu=present:NoSchedule
kubectl taint node <node_name> task.mining/cpu=present:NoSchedule
BeispielAutomation Suite Robot :
- Fügen Sie mit dem folgenden Befehl einen Taint für serverlose Roboter hinzu:
kubectl taint node <node_name> serverless.robot=present:NoSchedulekubectl taint node <node_name> serverless.robot=present:NoSchedule - Fügen Sie die Beschriftungen für serverlose Roboter mit dem folgenden Befehl hinzu:
kubectl label node <node_name> serverless.robot=true serverless.daemon=truekubectl label node <node_name> serverless.robot=true serverless.daemon=true
Wenn Sie benutzerdefinierte Knotenmarkierungen haben, die durch die Gatekeeper-Richtlinie erzwungen werden, z. B. bestimmte Rollen für Arbeiterknoten oder Bezeichnungen, werden diese nicht an die Automation Suite übergeben und können den Installationsvorgang unterbrechen.
Weitere Informationen zu Markierungen und Tolerierungen finden Sie in der Kubernetes-Dokumentation.
- Cluster und Berechtigungen
- Unterstützte EKS/AKS-Versionen
- Knotenkapazität
- Speicher wechseln
- Automatische Skalierung
- Zusätzliche Task Mining-Voraussetzungen
- Zusätzliche Anforderungen für Automation Suite-Roboter
- Robotergröße
- Größe des Agentknotens
- Kubernetes-Ressourcenverbrauch
- Automatische Auswahl der Maschinengröße
- Zusätzliche Document Understanding-Empfehlungen
- Zusätzliche Anforderungen für moderne Document Understanding-Projekte
- Bereitstellen von MIG-fähigen GPUs
- Knotenplanung