automation-suite
2024.10
false
Wichtig :
Bitte beachten Sie, dass dieser Inhalt teilweise mithilfe von maschineller Übersetzung lokalisiert wurde. Es kann 1–2 Wochen dauern, bis die Lokalisierung neu veröffentlichter Inhalte verfügbar ist.
UiPath logo, featuring letters U and I in white

Automation Suite in der EKS/AKS-Installationsanleitung

Letzte Aktualisierung 3. März 2026

Kubernetes-Cluster und -Knoten

Cluster und Berechtigungen

Sie können Ihren eigenen Kubernetes-Cluster mitbringen und Ihre Standardpraktiken befolgen, um ihn bereitzustellen und zu verwalten.

Wenn Sie dem Automation Suite-Installationsprogramm Administratorberechtigungen erteilen, installiert und verwaltet UiPath® alle erforderlichen Komponenten für die Ausführung der Automation Suite. Wenn Sie dem Installationsprogramm jedoch keine Administratorrechte für den Cluster erteilen können, ist die Installation einiger erforderlicher Komponenten nicht möglich. Daher muss vor der Installation der Automation Suite in einem Cluster, in dem Sie dem Installationsprogramm keine Administratorrechte gewährt haben, ein Administratorbenutzer vor der Installation der Automation Suite-Plattform bestimmte erforderliche Komponenten separat installieren. Hier sind die wichtigsten Schritte, die Sie ausführen müssen, wenn Sie dem Automation Suite-Installationsprogramm keine Administratorrechte gewähren können:

Nach der Installation der erforderlichen Komponenten können Sie das Installationsprogramm mit niedrigeren Berechtigungen ausführen. Die Liste der erforderlichen Berechtigungen finden Sie unter Erteilen von Installationsberechtigungen.

Unterstützte EKS/AKS-Versionen

Jede Version des langfristigen Supports der Automation Suite enthält eine Kompatibilitätsmatrix. Informationen zu kompatiblen EKS- oder AKS-Versionen finden Sie in der Kompatibilitätsmatrix.

Wir haben die Kompatibilität der Automation Suite mit den folgenden Linux-Betriebssystemen getestet:

Cloudanbieter OS
AKS
  • Ubuntu 22.04
EKS
  • Amazon Linux 2 und Amazon Linux 2023 für alle EKS-Versionen
  • RHEL 8.8 für EKS 1.27
  • Bottlerocket 1.19.2

Die Automation Suite auf EKS/AKS unterstützt nur die x86-EKS/AKS-Architektur und nicht ARM64.

Knotenkapazität

Um die Knotenkapazität basierend auf Ihren Produkt- und Skalierungsanforderungen zu schätzen, verwenden Sie den Rechner der UiPath Automation Suite zur Installationsskalierung.

Das Stammvolume für Agent-(Worker-)Knoten erfordert 256 GB.

Um mit den obligatorischen Plattformdiensten (Identität, Lizenzierung und Routing) und dem Orchestrator zu beginnen, müssen Sie mindestens 8 vCPU und 16 GB RAM pro Knoten bereitstellen.

Hinweis:

Wir empfehlen aufgrund von Stabilitäts- und Leistungsproblemen nicht, Punktinstanzen in der Automation Suite in Produktionsszenarien zu verwenden.

Speicher wechseln

Sie müssen den Auslagerungsspeicher deaktivieren, bevor Sie die Automation Suite installieren. Es ist bekannt, dass Swap-Speicher bei Workloads in Containern Probleme verursachen können. Außerdem profitieren die Workloads der Automation Suite nicht von der Verwendung von Swap-Speicher und Kubernetes optimiert bereits die Speichernutzung.

Automatische Skalierung

Wir empfehlen, die automatische Skalierung in Ihrem Cluster zu aktivieren, um eine hohe Zuverlässigkeit sicherzustellen und Betriebsunterbrechungen zu vermeiden.

Zusätzliche Task Mining-Voraussetzungen

Wenn Sie Task Mining installieren, müssen Sie zusätzliche Worker-Knoten mit 20 vCPU und 60 GB RAM bereitstellen. Dieser Knoten muss markiert werden, um sicherzustellen, dass nur Task Mining-Workloads auf ihm ausgeführt werden. Weitere Informationen finden Sie im Abschnitt Planung von Knoten .

Zusätzliche Anforderungen für Automation Suite-Roboter

Automation Suite Robot erfordern zusätzliche Worker-Knoten.

Die Hardwareanforderungen für den Automation Suite-Roboterknoten hängen davon ab, wie Sie Ihre Ressourcen verwenden möchten. Zusätzlich zu den zusätzlichen Agentknotenanforderungen benötigen Sie mindestens 10 GB Dateispeicher, um die Paketzwischenspeicherung zu aktivieren .

Weitere Informationen finden Sie in der Speicher- Dokumentation.

In den folgenden Abschnitten werden die Faktoren beschrieben, die sich auf die Hardwaremenge auswirken, die der Automation Suite-Roboterknoten benötigt.

Robotergröße

In der folgenden Tabelle werden die erforderliche CPU, der Arbeitsspeicher und der Speicher für alle Robotergrößen beschrieben.

GrößeCPUArbeitsspeicherSpeicher
Klein0,51 GB1 GB
Standard12 GB2 GB
Mittel24 GB4 GB
Groß610 GB10 GB

Größe des Agentknotens

Die Ressourcen des Automation Suite Roboter-Agentknotens wirken sich auf die Anzahl der Aufträge aus, die gleichzeitig ausgeführt werden können. Der Grund dafür ist, dass die Anzahl der CPU-Kerne und die Größe der RAM-Kapazität durch die CPU-/Speicheranforderungen des Auftrags geteilt werden.

Ein Knoten mit 16 CPUs und 32 GB RAM kann beispielsweise Folgendes ausführen:

  • 32 kleine Aufträge
  • 16 Standardaufträge
  • 8 mittlere Aufträge
  • Zwei große Aufträge

Auftragsgrößen können gemischt werden, sodass derselbe Knoten zu einem bestimmten Zeitpunkt eine Kombination von Aufträgen ausführen kann, z. B. Folgendes:

  • 10 kleine Aufträge (verbrauchen 5 CPUs und 10 GB Arbeitsspeicher)
  • 4 Standardaufträge (verbraucht 4 CPUs und 8 GB Arbeitsspeicher)
  • 3 mittlere Aufträge (verbraucht 6 CPUs und 12 GB Arbeitsspeicher)

Kubernetes-Ressourcenverbrauch

Da der Knoten Teil eines Kubernetes-Clusters ist, verbraucht der auf dem Server vorhandene Kubernetes-Agent (kubelet) eine geringe Menge an Ressourcen. Basierend auf unseren Messungen verbraucht das Kubelet die folgenden Ressourcen:

  • 0,6 CPU
  • 0,4 GB RAM

Ein Knoten, der dem zuvor beschriebenen ähnelt, hätte tatsächlich ungefähr 15,4 CPUs und 31,6 GB RAM.

Automatische Auswahl der Maschinengröße

All your cross-platform processes have the Automation Suite Robots option set to Automatic by default. This setting selects the appropriate machine size for running the process using serverless robots.

Bei der automatischen Auswahl der Größe werden die in der nachstehenden Tabelle aufgeführten Kriterien der Reihe nach bewertet. Sobald ein Kriterium erfüllt ist, wird die entsprechende Maschinengröße gewählt und die übrigen Kriterien werden nicht bewertet.

ReihenfolgeKriteriumMaschinengröße
1Remote-Debugging-AuftragMittel
2Der Prozess hängt von der UI-Automatisierung ODER Der Prozess hängt von den UiPath Document Understanding-AktivitätenabStandard
3Anderer Unattended-ProzessKlein

Zusätzliche Document Understanding-Empfehlungen

Für eine höhere Leistung können Sie Document Understanding auf einem zusätzlichen Agentknoten mit GPU-Unterstützung installieren. Beachten Sie jedoch, dass AI Center-basierte Projekte in Document Understanding ohne den GPU-Knoten voll funktionsfähig sind. Tatsächlich verwendet Document Understanding CPU-VMs für alle Extraktions- und Klassifizierungsaufgaben, während wir bei der OCR dringend die Verwendung einer GPU-VM empfehlen.

Weitere Informationen zur CPU-/GPU-Auslastung im Document Understanding-Framework finden Sie unter CPU- und GPU-Auslastung.

Wenn Sie einen zusätzlichen Knoten mit GPU-Unterstützung verwenden möchten, müssen Sie die folgenden Anforderungen erfüllen:

HardwareMindestanforderungen
Prozessor8 (v-)CPU/Kerne
RAM52 GB
Betriebssystemdatenträger256 GB SSD Min. IOPS: 1100
DataDiskKeine Angabe
GPU-RAM11 GB

Beim Hinzufügen des GPU-Knotenpools ist es wichtig, dass Sie --node-taints nvidia.com/gpu=present:NoSchedule anstatt --node-taints sku=gpu:NoSchedule verwenden.

Wichtig:

Um eine ordnungsgemäße Planung von GPU-Workloads sicherzustellen, stellen Sie sicher, dass Ihre YAML-Konfiguration von DaemonSet (NFD oder Nvidia GPU-Operator) einen übereinstimmenden tolerations -Block enthält. Sie können das folgende Beispiel verwenden: Zuweisung

tolerations:
- key: "nvidia.com/gpu"
operator: "Equal"
value: "present"
effect: "NoSchedule"
tolerations:
- key: "nvidia.com/gpu"
operator: "Equal"
value: "present"
effect: "NoSchedule"

Die Automation Suite unterstützt NVIDIA-GPUs. Informationen zum Konfigurieren von NVDIA-GPUs (z. B. Treiber) finden Sie in den jeweiligen Dokumenten von Azure oder AWS.

Zusätzliche Anforderungen für moderne Document Understanding-Projekte

Bei aktivierter CPU-Inferenz sind mindestens 2 GPUs erforderlich. Um die CPU-Inferenz zu aktivieren, legen Sie die Eigenschaft enable_cpu_inference auf true fest, wie im Abschnitt Aktivieren oder Deaktivieren von Document Understanding angegeben.

Achtung!

Hinweis:
  • Die Inferenz kann bis zu 10-mal langsamer sein.
  • Wir empfehlen die Verwendung für Dokumente mit maximal 125 Seiten. Es ist keine aktive Einschränkung vorhanden. Die Inferenz kann jedoch bei Dokumenten fehlschlagen, die größer als 125 Seiten sind.

Ohne CPU-Inferenz sind mindestens 5 GPUs für moderne Document Understanding-Projekte erforderlich. Das Beispielszenario in der folgenden Tabelle zeigt, wie fünf GPUs ausreichen, um 300 Seiten zu verarbeiten.

Hinweis:

Für moderne Document Understanding-Projekte ist die empfohlene Mindest-GPU NVIDIA T4.

FunctionNummer
Benutzerdefinierte Modellseiten, die pro Stunde verarbeitet werden300
Vorgefertigte Modellseiten, die pro Stunde verarbeitet werden0
Modelltraining parallel1
Anzahl der Seiten in allen Projekten – Entwurfszeit200
Anzahl der Dokumenttypen pro Projektversion3

Die 5 GPUs sind auf verschiedene Funktionen verteilt, wie in der folgenden Tabelle beschrieben:

DienstAnzahl der GPUs
OCR-Replikate1
Benutzerdefinierte Modelltrainingsreplikate1
Benutzerdefinierte Modellreplikate2
Vorgefertigte Modellreplikate1
Gesamt5

Weitere Informationen zum Zuweisen von GPU-Ressourcen zu jedem Dienst finden Sie auf der Seite Zuweisen von GPU-Ressourcen für moderne Document Understanding-Projekte .

Zusätzlich zu den GPU-Anforderungen benötigen moderne Document Understanding-Projekte auch bestimmte CPU-Ressourcen für optimale Leistung. Für optimale Leistung sind mindestens 18 vCPUs erforderlich.

Beim modernen Document Understanding-Projekt sind weitere 4 TB der objectstore erforderlich, um die Aktivitäten aus den bereitgestellten Beispielen ein Jahr lang kontinuierlich auszuführen. Sie können mit einer kleineren Zahl beginnen, aber die Aktivität schlägt fehl, sobald die Speicherung abgeschlossen ist, es sei denn, Sie skalieren sie explizit.

Wenn Sie für ein Jahr der kontinuierlichen Verarbeitung bereitstellen, benötigen Sie 4 TB für moderne Document Understanding-Projekte und 512 GB für die anderen Produkte. Das ergibt insgesamt 4,5 TB Speicherplatz. Wenn Sie mit einer sechsmonatigen Verarbeitung beginnen, benötigen Sie ebenfalls 2 TB für moderne Document Understanding-Projekte und 512 GB für die anderen Produkte. In diesem Fall beträgt die Gesamtmenge 2,5 TB.

Hinweis:

Detailliertere Berechnungen und die für Ihre Anforderungen erforderliche Kapazität finden Sie im Rechner der UiPath Automation Suite zur Installationsskalierung.

Bereitstellen von MIG-fähigen GPUs

NVIDIA-Workloads für Document Understanding der Automation Suite unterstützen die Ausführung auf virtuellen GPUs (VPPUs), die mit MIG-Technologie (Multi-Instance GPU) erstellt wurden.

Um Document Understanding unter diesen Bedingungen auszuführen, beachten Sie die folgenden Anforderungen:

  • GPU-Speicher (VRAM): mindestens 16 GB pro SVGPU
    Hinweis:

    UiPath unterstützt nur die einzelne Strategie, was bedeutet, dass alle VPPUs genau gleich sind.

  • Speicher: mindestens 80 GB pro SVGPU
Aktivieren von MIG-fähigen GPUs in Kubernetes

Nach der Bereitstellung der MIG-fähigen GPUs in Ihrem Cluster mit Profilen, die den oben genannten Mindestanforderungen entsprechen oder diese übertreffen, stellen Sie sicher, dass die GPUs planbare Kubernetes sind. Der Knoten muss eine Anzahl von GPUs ungleich Null melden, bevor Workloads auf ihm geplant werden können.

Um die GPUs planbar zu machen, haben Sie zwei Optionen:

  • Option A: Folgen Sie der offiziellen Dokumentation zur GPU-Einrichtung Ihres Cloud-Anbieters:
  • Option B (Alternativ): Stellen Sie das NVIDIA-Geräte-Plugin direkt bereit:
    1. Erstellen Sie einen neuen Namespace:
      kubectl create namespace gpu-resources
      kubectl create namespace gpu-resources
      
    2. Wenden Sie die folgende Konfiguration an, indem Sie migEnabledPoolName durch die Beschriftung ersetzen, die Ihrem GPU-Knoten entspricht:
      apiVersion: v1
      kind: Pod
      metadata:
        name: nvidia-device-plugin-pod
        namespace: gpu-resources
      spec:
       affinity:
          nodeAffinity:
            requiredDuringSchedulingIgnoredDuringExecution:
              nodeSelectorTerms:
              - matchExpressions:
                - key: agentpool
                  operator: In
                  values:
                  # To be changed to a selector that matches the GPU nodes
                  - migEnabledPoolName
       containers:
       - args:
         - --fail-on-init-error=false
         env:
         - name: MPS_ROOT
           value: /run/nvidia/mps
         - name: MIG_STRATEGY
            # We only support the single strategy for now
           value: single
         - name: NVIDIA_MIG_MONITOR_DEVICES
           value: all
         - name: NVIDIA_VISIBLE_DEVICES
           value: all
         - name: NVIDIA_DRIVER_CAPABILITIES
           value: compute,utility
         image: nvcr.io/nvidia/k8s-device-plugin:v0.17.3
         imagePullPolicy: IfNotPresent
         name: nvidia-device-plugin-ctr
         securityContext:
           allowPrivilegeEscalation: true
           capabilities:
             add:
             - SYS_ADMIN
         terminationMessagePath: /dev/termination-log
         terminationMessagePolicy: File
         volumeMounts:
         - mountPath: /var/lib/kubelet/device-plugins
           name: device-plugin
       tolerations:
       - key: CriticalAddonsOnly
         operator: Exists
       - effect: NoSchedule
         key: nvidia.com/gpu
         operator: Exists
       terminationGracePeriodSeconds: 30
       volumes:
       - hostPath:
           path: /var/lib/kubelet/device-plugins
           type: ""
         name: device-plugin
      apiVersion: v1
      kind: Pod
      metadata:
        name: nvidia-device-plugin-pod
        namespace: gpu-resources
      spec:
       affinity:
          nodeAffinity:
            requiredDuringSchedulingIgnoredDuringExecution:
              nodeSelectorTerms:
              - matchExpressions:
                - key: agentpool
                  operator: In
                  values:
                  # To be changed to a selector that matches the GPU nodes
                  - migEnabledPoolName
       containers:
       - args:
         - --fail-on-init-error=false
         env:
         - name: MPS_ROOT
           value: /run/nvidia/mps
         - name: MIG_STRATEGY
            # We only support the single strategy for now
           value: single
         - name: NVIDIA_MIG_MONITOR_DEVICES
           value: all
         - name: NVIDIA_VISIBLE_DEVICES
           value: all
         - name: NVIDIA_DRIVER_CAPABILITIES
           value: compute,utility
         image: nvcr.io/nvidia/k8s-device-plugin:v0.17.3
         imagePullPolicy: IfNotPresent
         name: nvidia-device-plugin-ctr
         securityContext:
           allowPrivilegeEscalation: true
           capabilities:
             add:
             - SYS_ADMIN
         terminationMessagePath: /dev/termination-log
         terminationMessagePolicy: File
         volumeMounts:
         - mountPath: /var/lib/kubelet/device-plugins
           name: device-plugin
       tolerations:
       - key: CriticalAddonsOnly
         operator: Exists
       - effect: NoSchedule
         key: nvidia.com/gpu
         operator: Exists
       terminationGracePeriodSeconds: 30
       volumes:
       - hostPath:
           path: /var/lib/kubelet/device-plugins
           type: ""
         name: device-plugin
      

Nach der Bereitstellung des Plugins sollte im Abschnitt Zuweisbar des Knotens die richtige Anzahl von VPPUs unter nvidia.com/gpu angezeigt werden, basierend auf dem von Ihnen konfigurierten MIG-Profil. Der Knoten sollte nun planbar und bereit sein, Document Understanding-Workloads auszuführen.

Knotenplanung

Wir empfehlen, Knotenmarkierungen auf dedizierten Arbeiterknoten für Task Mining, Automation Suite Robotund Document Understanding zu aktivieren.

Beispiel für AI Center und DU:

  • Für CPU:

    kubectl taint node <node_name> aic.ml/cpu=present:NoSchedule
    kubectl taint node <node_name> aic.ml/cpu=present:NoSchedule
    
  • Für GPU:

    kubectl taint node <node_name> nvidia.com/gpu=present:NoSchedule
    kubectl taint node <node_name> nvidia.com/gpu=present:NoSchedule
    

Beispiel für Task Mining:

kubectl taint node <node_name> task.mining/cpu=present:NoSchedule
kubectl taint node <node_name> task.mining/cpu=present:NoSchedule

BeispielAutomation Suite Robot :

  • Fügen Sie mit dem folgenden Befehl einen Taint für serverlose Roboter hinzu:
    kubectl taint node <node_name> serverless.robot=present:NoSchedule
    kubectl taint node <node_name> serverless.robot=present:NoSchedule
    
  • Fügen Sie die Beschriftungen für serverlose Roboter mit dem folgenden Befehl hinzu:
    kubectl label node <node_name> serverless.robot=true serverless.daemon=true
    kubectl label node <node_name> serverless.robot=true serverless.daemon=true
    
Wichtig:

Wenn Sie benutzerdefinierte Knotenmarkierungen haben, die durch die Gatekeeper-Richtlinie erzwungen werden, z. B. bestimmte Rollen für Arbeiterknoten oder Bezeichnungen, werden diese nicht an die Automation Suite übergeben und können den Installationsvorgang unterbrechen.

Weitere Informationen zu Markierungen und Tolerierungen finden Sie in der Kubernetes-Dokumentation.

War diese Seite hilfreich?

Verbinden

Benötigen Sie Hilfe? Support

Möchten Sie lernen? UiPath Academy

Haben Sie Fragen? UiPath-Forum

Auf dem neuesten Stand bleiben