automation-suite
2023.4
false
Wichtig :
Bitte beachten Sie, dass dieser Inhalt teilweise mithilfe von maschineller Übersetzung lokalisiert wurde. Es kann 1–2 Wochen dauern, bis die Lokalisierung neu veröffentlichter Inhalte verfügbar ist.
UiPath logo, featuring letters U and I in white

Automation Suite unter Linux – Installationsanleitung

Letzte Aktualisierung 19. Dez. 2024

Konfigurieren der Maschinen

Konfigurieren des Datenträgers

Wichtig:
  • Um Datenverluste zu vermeiden, stellen Sie sicher, dass die von Ihnen verwendete Infrastruktur die Clusterlaufwerke beim Neustart oder Herunterfahren des Clusters nicht automatisch löscht. Wenn diese Funktion aktiviert ist, deaktivieren Sie sie.
  • Um eine reibungslose und unterbrechungsfreie SSH-Sitzung sicherzustellen, empfehlen wir dringend, die Schritte in den Installationsempfehlungen zu befolgen, bevor Sie die Datenträger konfigurieren und die Automation Suite installieren.
Sie können die Datenträger mit dem Skript configureUiPathDisks.sh konfigurieren und partitionieren. Weitere Informationen finden Sie in den folgenden Abschnitten.

Datenträger-Voraussetzungen

Vor der Installation müssen Sie den Datenträger mit LVM partitionieren und konfigurieren, damit ihre Größe einfach und ohne Datenmigration oder Datenverlust geändert werden kann.

Datenträgerpartitionierung

Dies ist erforderlich, da die Standardpartitionierungsstruktur auf RHEL-Maschinen nicht für die Installation von Kubernetes geeignet ist. Das liegt daran, dass die Kubernetes-Infrastruktur normalerweise auf der /var-Partition installiert wird. Standardmäßig werden der var-Partition nur 8 GiB Speicherplatz zugewiesen.
Hinweis:
  • Das unterstützte Format für den Datenträger ist ext4 oder xfs.
  • Alle Partitionen müssen mit LVM erstellt werden. Dies soll gewährleisten, dass sich Clusterdaten auf einem anderen Datenträger befinden können aber dennoch kohärent angezeigt werden. Dies hilft auch, die Partitionsgröße in der Zukunft zu erhöhen, ohne dass das Risiko von Datenmigration oder Datenverlust besteht.
  • Alle Pods und Anwendungsprotokolle werden im Verzeichnis /var/log/pods gespeichert. Stellen Sie sicher, dass die Kapazität dieses Verzeichnisses mindestens 8 GiB beträgt. Wir empfehlen auch, logrotate so zu konfigurieren, dass die Protokolle in einem Intervall von täglich bis wöchentlich rotiert werden.

Für das RHEL-Betriebssystem müssen Sie sicherstellen, dass Sie über die folgenden minimalen Mount-Punkt-Größen auf der Maschine verfügen.

Online

Datenträgerbezeichnung

Partition

Größe

Zweck

Clusterlaufwerk

/var/lib/rancher

190 GiB

Der Rancher-Ordner speichert Container-Images und -Ebenen

/var/lib/kubelet

56 GiB

Der Kubelet-Ordner speichert Kubernetes-Laufzeitkonfigurationen wie Secrets, Configmaps und emptyDir

/opt/UiPathAutomationSuite

10 GiB

Installationsprogramm-Binärdatei

etcd-Datenträger

/var/lib/rancher/rke2/server/db

16 GiB

Verteilte Datenbank für Kubernetes

Blockspeicher

/datadisk512 GiB

Blockspeicher-Abstraktion

Objectstore1

Keine Angabe

512 GiB

In-Cluster-Objektspeicher

1 Dies bezieht sich auf den clusterinternen Objektspeicher und entfällt, wenn Sie einen externen Objektspeicher verwenden.
Hinweis:
Wir empfehlen, nicht den Betriebssystemdatenträger für die oben genannten Zwecke zu verwenden, um sicherzustellen, dass Prozesse über ausreichende Ressourcen verfügen.
Offline
Hinweis:

Die Voraussetzungen für offline sind dieselben wie für online, mit Ausnahme der Maschine, auf der Sie die Installation zuerst ausführen. Für sie gelten die folgenden Anforderungen.

Der zusätzliche Speicherplatz ist erforderlich, um das Offlinepaket zu entpacken.

Datenträgerbezeichnung

Partition

Größe

Zweck

Clusterlaufwerk

/var/lib/rancher

190 GiB

Der Rancher-Ordner speichert Container-Images und -Ebenen

/var/lib/kubelet

56 GiB

Der Kubelet-Ordner speichert Kubernetes-Laufzeitkonfigurationen wie Secrets, Configmaps und emptyDir

/opt/UiPathAutomationSuite

10 GiB

Installationsprogramm-Binärdatei

etcd-Datenträger

/var/lib/rancher/rke2/server/db

16 GiB

Verteilte Datenbank für Kubernetes

Blockspeicher

/datadisk

512 GiB

Blockspeicher-Abstraktion

Objectstore1

Keine Angabe

512 GiB

In-Cluster-Objektspeicher

Datenträger für das UiPath Paket

/uipath512 GiB

Air-Gap-Paket

1 Dies bezieht sich auf den clusterinternen Objektspeicher und entfällt, wenn Sie einen externen Objektspeicher verwenden.
Hinweis:
Wir empfehlen, nicht den Betriebssystemdatenträger für die oben genannten Zwecke zu verwenden, um sicherzustellen, dass Prozesse über ausreichende Ressourcen verfügen.
Hinweis:

Daten und etcd-Datenträger müssen separate physische Datenträger sein. Dadurch werden die Daten und etcd-Datenträger physisch von anderen Cluster-Workloads und -Aktivitäten isoliert und gleichzeitig die Leistung und Stabilität des Clusters verbessert.

Im folgenden Abschnitt finden Sie Details zur Verwendung des Beispielskripts zur Partitionierung und Konfiguration des Datenträgers vor der Installation.

Verwenden des Skripts zum Konfigurieren des Datenträgers

Herunterladen des Skripts

Hinweis: Bei Offlineinstallationen müssen Sie diesen Schritt auf einer Maschine mit Internetzugang und zu den Air-Gap-Maschinen ausführen, auf denen die Automation Suite bereitgestellt wird. Kopieren Sie die Datei von der Onlinemaschine auf die erste Zielmaschine.
Sie können das configureUiPathDisks.sh-Skript verwenden, um die Festplatte zu konfigurieren und zu partitionieren.

Anweisungen zum Herunterladen finden Sie unter ConfigureUiPathDisks.sh.

Ausführen des Skripts

Sie können das configureUiPathDisks.sh-Skript für die folgenden Zwecke verwenden:
  • Konfigurieren der Datenträger und Mount-Punkte für eine neue Automation Suite-Clusterinstallation;
  • Ändern der Größe des Datenträgers nach der Installation.

Um das Skript ausführbar zu machen, führen Sie Folgendes aus:

chmod +x ./configureUiPathDisks.shchmod +x ./configureUiPathDisks.sh

Um weitere Informationen zur Skriptverwendung zu erhalten, führen Sie Folgendes aus:

sudo ./configureUiPathDisks.sh --help
***************************************************************************************
Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk
Arguments
  -n|--node-type                  NodeType, Possible values: agent, server. Default to server.
  -i|--install-type               Installation mode, Possible values: online, offline. Default to online.
  -c|--cluster-disk-name          Device to host rancher and  kubelet. Ex: /dev/sdb.
  -e|--etcd-disk-name             Device to host etcd, Not required for agent node. Ex: /dev/sdb.
  -R|--ceph-raw-disk-name         Device to host ceph OSD, Not required for agent node. Ex: /dev/sdm
  -l|--data-disk-name             Device to host datadisk, Not required for agent node. Ex: /dev/sdc.
  -b|--bundle-disk-name           Device to host the uipath bundle.
                                    Only required for offline installation on 1st server node.
  -k|--robot-package-disk-name    Device to host robot package cache folder
                                    Only required for Automation Suite Robots dedicated node when 'packagecaching' is enabled
  -P|--robot-package-path         Path to robot package cache folder
                                    (defaults to '/uipath_asrobots_package_cache' if not set)
  -f|--complete-suite             Installing complete product suite or any of these products:
                                    aicenter, apps, taskmining, documentunderstanding.
                                    This will configure the datadisk volume to be 2TiB instead of 512Gi.
  -p|--primary-server             Is this machine is first server machine? Applicable only for airgap install.
                                    This is the machine on which UiPath AutomationSuite bundle will be installed.
                                    Default to false.
  -x|--extend-data-disk           Extend the datadisk. Either attach new disk or resize the exiting datadisk.
  -r|--resize                     Used in conjunction of with --extend-data-disk to resize the exiting volume,
                                    instead of adding new volume.
  -d|--debug                      Run in debug.
  -h|--help                       Display help.
ExampleUsage:
  configureUiPathDisks.sh --node-type server --install-type online \
    --cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
    --data-disk-name /dev/sdd
  configureUiPathDisks.sh --data-disk-name /dev/sdh \
    --extend-data-disk
***************************************************************************************sudo ./configureUiPathDisks.sh --help
***************************************************************************************
Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk
Arguments
  -n|--node-type                  NodeType, Possible values: agent, server. Default to server.
  -i|--install-type               Installation mode, Possible values: online, offline. Default to online.
  -c|--cluster-disk-name          Device to host rancher and  kubelet. Ex: /dev/sdb.
  -e|--etcd-disk-name             Device to host etcd, Not required for agent node. Ex: /dev/sdb.
  -R|--ceph-raw-disk-name         Device to host ceph OSD, Not required for agent node. Ex: /dev/sdm
  -l|--data-disk-name             Device to host datadisk, Not required for agent node. Ex: /dev/sdc.
  -b|--bundle-disk-name           Device to host the uipath bundle.
                                    Only required for offline installation on 1st server node.
  -k|--robot-package-disk-name    Device to host robot package cache folder
                                    Only required for Automation Suite Robots dedicated node when 'packagecaching' is enabled
  -P|--robot-package-path         Path to robot package cache folder
                                    (defaults to '/uipath_asrobots_package_cache' if not set)
  -f|--complete-suite             Installing complete product suite or any of these products:
                                    aicenter, apps, taskmining, documentunderstanding.
                                    This will configure the datadisk volume to be 2TiB instead of 512Gi.
  -p|--primary-server             Is this machine is first server machine? Applicable only for airgap install.
                                    This is the machine on which UiPath AutomationSuite bundle will be installed.
                                    Default to false.
  -x|--extend-data-disk           Extend the datadisk. Either attach new disk or resize the exiting datadisk.
  -r|--resize                     Used in conjunction of with --extend-data-disk to resize the exiting volume,
                                    instead of adding new volume.
  -d|--debug                      Run in debug.
  -h|--help                       Display help.
ExampleUsage:
  configureUiPathDisks.sh --node-type server --install-type online \
    --cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
    --data-disk-name /dev/sdd
  configureUiPathDisks.sh --data-disk-name /dev/sdh \
    --extend-data-disk
***************************************************************************************

Konfigurieren des Datenträgers für eine HA-fähige Produktionseinrichtung mit mehreren Knoten

Online

Serverknoten

Um den Datenträger in einer HA-fähigen Produktionseinrichtung mit mehreren Knoten zu konfigurieren, führen Sie den folgenden Befehl auf allen Servermaschinen aus:

./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk
Agent-Knoten

Um den Datenträger in einer HA-fähigen Online-Produktionseinrichtung mit mehreren Knoten zu konfigurieren, führen Sie den folgenden Befehl auf allen Agent-Maschinen aus:

./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --node-type agent./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --node-type agent

Offline

Erster Serverknoten

Bei einer Offline-Installation müssen Sie die Abbilder des Produkts in die Docker-Registrierung laden. Dazu ist zusätzlicher Speicher in Form eines separaten Datenträgers erforderlich. Dieser Datenträger wird verwendet, um TAR-Produktpakete zu entpacken und Abbilder in die Docker-Registry hochzuladen. Dies muss nur auf einer Maschine vorhanden sein.

Legen Sie das Flag --primary-server für eine der Servermaschinen oder die Maschine fest, auf der das Fabric- und Dienstinstallationsprogramm ausgeführt werden soll.

Um den Datenträger in einer HA-fähigen Produktionseinrichtung mit mehreren Knoten zu konfigurieren, führen Sie den folgenden Befehl auf einer der Servermaschinen aus:

./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk \
  --bundle-disk-name name_of_uipath_bundle_disk \
  --primary-server \
  --install-type offline./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk \
  --bundle-disk-name name_of_uipath_bundle_disk \
  --primary-server \
  --install-type offline
Zusätzliche Serverknoten
Auf den Serverknoten benötigen Sie den Bundle-Datenträger nicht. Daher brauchen Sie die --primary-server und --bundle-disk-name nicht anzugeben.

Um den Datenträger in einer HA-fähigen Produktionseinrichtung mit mehreren Knoten zu konfigurieren, führen Sie den folgenden Befehl auf den anderen Servermaschinen aus:

./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk \
  --install-type offline./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk \
  --install-type offline
Agent-Knoten
Auf den Serverknoten benötigen Sie den Bundle-Datenträger nicht. Daher brauchen Sie die --primary-server und --bundle-disk-name nicht anzugeben.

Um den Datenträger in einer HA-fähigen Produktionseinrichtung mit mehreren Knoten zu konfigurieren, führen Sie den folgenden Befehl auf den anderen Agent-Maschinen aus.

./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --node-type agent \
  --install-type offline./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --node-type agent \
  --install-type offline

Konfigurieren des Objectstore-Datenträgers

Sie können Ihre Speichergröße für den Objektspeicher im Cluster erweitern, indem Sie das folgende Skript ausführen:

./configureUiPathDisks.sh --ceph-raw-disk-name name_ceph_raw_disk./configureUiPathDisks.sh --ceph-raw-disk-name name_ceph_raw_disk
Hinweis:
  • Ein bekanntes Problem von Azure markiert die Azure-Festplatte fälschlicherweise als Nicht-SSD. Wenn Azure Ihr Cloudanbieter ist und Sie den Objectstore-Datenträger konfigurieren möchten, befolgen Sie die Anweisungen unter Fehlerbehebung.

  • Eine vertikale Skalierung der vorhandenen Datenträger wird nicht unterstützt. Um den Speicherplatz im Cluster nach der Installation zu vergrößern, fügen Sie neue unformatierte Festplatten hinzu.

Erweitern des Datenträgers nach der Installation

Um den Datenträger zu erweitern, können Sie den neuen physischen Datenträger anschließen oder die Größe des vorhandenen Datenträgers ändern.

Hinzufügen eines neuen Datenträgers

Um den Datenträger mithilfe des neu angefügten Datenträgers zu erweitern, führen Sie den folgenden Befehl auf den Servermaschinen aus:

./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
  --extend-data-disk./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
  --extend-data-disk

Ändern der Größe des vorhandenen Datenträgers

Um den Datenträger durch Ändern der Größe eines vorhandenen Datenträgers zu erweitern, führen Sie den folgenden Befehl auf den Servermaschinen aus:

./configureUiPathDisks.sh --extend-data-disk --resize./configureUiPathDisks.sh --extend-data-disk --resize

Validieren von Laufwerk-Mounts

  1. Führen Sie die folgenden Schritte aus, um zu überprüfen, ob /etc/fstab korrekt so konfiguriert ist, dass der Neustart des Systems bewältigt werden kann.
    Hinweis:
    Stellen Sie sicher, dass Etcd- und DataDisk-Mountpunkte in der Datei fstab stehen.
    Wenn Sie eine separate Festplattenpartition für /var/lib/rancher und /var/lib/kubelet haben, dann sollte fstab auch diese beiden Ordner enthalten. Stellen Sie auch sicher, dass Sie die Option nofail in die fstab-Einträge aufnehmen, damit sie sich im Falle von Fehlern nicht auf das Booten der VM auswirkt.
  2. Überprüfen Sie, ob die Datenträger korrekt bereitgestellt werden, indem Sie den folgenden Befehl ausführen:

    mount -afvmount -afv
  3. Es sollte die folgende Antwort kommen:

    /datadisk                              : already mounted
    /var/lib/rancher/rke2/server/db        : already mounted
    /var/lib/rancher                       : already mounted
    /var/lib/kubelet                       : already mounted/datadisk                              : already mounted
    /var/lib/rancher/rke2/server/db        : already mounted
    /var/lib/rancher                       : already mounted
    /var/lib/kubelet                       : already mounted

Konfigurieren von Einstellungen auf Kernel- und Betriebssystemebene

Die folgende Seite hilft Linux-Administratoren bei der Verwaltung von Einstellungen auf Betriebssystem- und Kernel-Ebene, bevor sie eine Automation Suite-Installation durchführen.

Normalerweise werden diese Einstellungen über ein spezielles Verwaltungskonfigurationstool verwaltet, z. B. Puppet. Stellen Sie aus Konsistenz- und Dokumentationsgründen sicher, dass Ihre vorgenommenen Änderungen mit dem Steuerungsprozess Ihrer Umgebung übereinstimmen.

Wichtig:

Sie müssen die folgenden Schritte ausführen, bevor Sie die Installation starten, da Fehlkonfigurationen auf Betriebssystem- und Kernel-Ebene zu unerklärlichen Fehlern führen können. Durch die Überprüfung dieser spezifischen Einstellungen können solche Fehler oft vermieden werden.

Deaktivieren des Wechselspeichers

Sie müssen den Auslagerungsspeicher deaktivieren, bevor Sie die Automation Suite installieren. Es ist bekannt, dass Swap-Speicher bei Workloads in Containern Probleme verursachen können. Außerdem profitieren die Workloads der Automation Suite nicht von der Verwendung von Swap-Speicher und Kubernetes optimiert bereits die Speichernutzung.

Konfigurieren der „sysctl“-Einstellungen

Folgende sysctl-Einstellungen sind auf der Maschine erforderlich:
  • IP-Weiterleitung aktivieren

  • Deaktivieren der umgekehrten Pfadfilterung

Dazu können Sie den folgenden Befehl ausführen:

cat <<EOF >>"/etc/sysctl.d/99-sysctl.conf"
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.conf.all.rp_filter=0
EOFcat <<EOF >>"/etc/sysctl.d/99-sysctl.conf"
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.conf.all.rp_filter=0
EOF
Hinweis: nf-call-iptables wird für die meisten Kubernetes-Bereitstellungen benötigt. Kubernetes erstellt virtuelle Netzwerke innerhalb des Clusters. Dadurch kann jeder Pod eine eigene IP-Adresse haben, die in Verbindung mit den internen Namensdiensten verwendet wird, um die Kommunikation zwischen den Diensten zu erleichtern. Der Cluster funktioniert nicht, wenn nf-call-iptables nicht aktiviert ist. Weitere Informationen finden Sie in der offiziellen Kubernetes-Dokumentation.

Führen Sie den folgenden Befehl aus, um die Einstellungen zu übernehmen:

sysctl --systemsysctl --system

Konfigurieren von fapolicy-Einstellungen

Wichtig:

This step is optional and applies only if you use fapolicy. In this case, an RKE2 specific policy is required.

To generate the RKE2 policy, use the following command:

cat <<-EOF >>"/etc/fapolicyd/rules.d/69-rke2.rules"
allow perm=any all : dir=/var/lib/rancher/
allow perm=any all : dir=/opt/cni/
allow perm=any all : dir=/run/k3s/
allow perm=any all : dir=/var/lib/kubelet/
allow perm=any all : dir=/root/.local/share/helm
EOFcat <<-EOF >>"/etc/fapolicyd/rules.d/69-rke2.rules"
allow perm=any all : dir=/var/lib/rancher/
allow perm=any all : dir=/opt/cni/
allow perm=any all : dir=/run/k3s/
allow perm=any all : dir=/var/lib/kubelet/
allow perm=any all : dir=/root/.local/share/helm
EOF
Hinweis:

Stellen Sie sicher, dass die Änderung Ihrem Linux-Team mitgeteilt wird und die erforderlichen Konfigurationsverwaltungsprozesse durchläuft.

Konfigurieren von noexec- und nosuid-Einstellungen

Für die Datenträger, die für die /var/lib/rancher-Bereitstellung verwendet werden, dürfen weder noexec noch nosuid festgelegt sein. Das Datenträgertool erstellt diese Bereitstellungen automatisch ohne diese Eigenschaften.
Wichtig:

Wenn ein Linux-Administrator diese Eigenschaften manuell festlegt, funktioniert die Instanz nicht mehr.

Weitere Informationen zur Datenträgerkonfiguration finden Sie unter Datenträger-Voraussetzungen.

Aktivieren von Ports

Stellen Sie sicher, dass für jede Quelle die folgenden Ports in der Firewall aktiviert sind.

Port

Protokoll

Quelle

Zweck

Anforderungen

22

TCP

Jump Server/Clientmaschine

Für SSH (Installation, Fehlerbehebung bei der Clusterverwaltung)

Öffnen Sie diesen Port nicht für das Internet. Lassen Sie Zugriff auf die Clientmaschine bzw. den Jump Server zu.

80

TCP

 

Nur Offlineinstallation: erforderlich zum Senden von System-E-Mail-Benachrichtigungen.

 

443

TCP

Alle Knoten in einem Cluster + Lastenausgleich

Bei HTTPS (Zugriff auf die Automation Suite)

Dieser Port sollte über eingehende und ausgehende Verbindungen von allen Knoten im Cluster und dem Lastenausgleich verfügen.

587

TCP

 

Nur Offlineinstallation: erforderlich zum Senden von System-E-Mail-Benachrichtigungen.

 

2379

TCP

Alle Knoten in einem Cluster

etcd-Clientport

Darf nicht gegenüber dem Internet exponiert werden. Der Zugriff zwischen Knoten über eine private IP-Adresse sollte ausreichend sein.

2380

TCP

Alle Knoten in einem Cluster

etcd-Peer-Port

Darf nicht gegenüber dem Internet exponiert werden. Der Zugriff zwischen Knoten über eine private IP-Adresse sollte ausreichend sein.

6443

TCP

Alle Knoten in einem Cluster

Für den Zugriff auf Kube API mit HTTPS; erforderlich für das Verbinden von Knoten.

Dieser Port sollte über eingehende und ausgehende Verbindungen von allen Knoten im Cluster verfügen.

8472

UDP

Alle Knoten in einem Cluster

Erforderlich für Cilium.

Darf nicht gegenüber dem Internet exponiert werden. Der Zugriff zwischen Knoten über eine private IP-Adresse sollte ausreichend sein.

9090

TCP

Alle Knoten im Cluster

Wird von Cilium zur Überwachung und Behandlung von Pod-Abstürzen verwendet.

Dieser Port sollte über eingehende und ausgehende Verbindungen von allen Knoten im Cluster verfügen.

9345

TCP

Alle Knoten in einem Cluster + Lastenausgleich

Für den Zugriff auf Kube API mit HTTPS, erforderlich für das Verbinden von Knoten

Dieser Port sollte über eingehende und ausgehende Verbindungen von allen Knoten im Cluster und dem Lastenausgleich verfügen.

10250

TCP

Alle Knoten in einem Cluster

kubelet-/Metrikserver

Darf nicht gegenüber dem Internet exponiert werden. Der Zugriff zwischen Knoten über eine private IP-Adresse sollte ausreichend sein.

30071

TCP

Alle Knoten in einem Cluster

NodePort-Port für die interne Kommunikation zwischen Knoten in einem Cluster

Darf nicht gegenüber dem Internet exponiert werden. Der Zugriff zwischen Knoten über eine private IP-Adresse sollte ausreichend sein.

Wichtig:
Das Offenlegen des Ports 6443 außerhalb der Clustergrenze ist obligatorisch, wenn eine direkte Verbindung mit der Kerberos-API besteht.
Port 9345 wird von Knoten verwendet, um vorhandene Knoten zu erkennen und dem Cluster in der Bereitstellung mit mehreren Knoten beizutreten. Um die Erkennungsmechanismen der Hochverfügbarkeit am Laufen zu halten, empfehlen wir, ihn über den Lastausgleich mit Zustandsprüfung verfügbar zu machen.

Stellen Sie außerdem sicher, dass alle Konten eine Verbindung zum SQL-Server haben.

Exponieren Sie den SQL-Server nicht auf einem der reservierten Istio-Ports, da dies zu Verbindungsfehlern führen kann.

Wenn Sie im Netzwerk über eine Firewall verfügen, stellen Sie sicher, dass diese Ports geöffnet sind und der Datenverkehr gemäß den oben genannten Anforderungen zulässt.

Installieren der erforderlichen RPM-Pakete

Um die erforderlichen RPM-Pakete zu installieren und zu validieren, können Sie eines der folgenden Tools verwenden

  • das manuelle Installationsprogramm install-uipath.sh. In Onlineumgebungen installiert und validiert er standardmäßig alle RPM-Pakete.
  • Das interaktive Installationsprogramm installUiPathAS.sh. Es validiert alle RPM-Pakete über das install-uipath.sh-Installationsprogramm.
    • Um die RPM-Pakete zu validieren, führen Sie Folgendes aus: validateUiPathASReadiness.sh validate-packages;
    • Um die RPM-Pakete in einer Online-Installation zu installieren, führen Sie Folgendes aus: validateUiPathASReadiness.sh install-packages;
    • Um die RPM-Pakete in einer Offline-Installation zu installieren, führen Sie Folgendes aus: validateUiPathASReadiness.sh install-packages --install-type offline.

Eine Liste der RPM-Paketanforderungen finden Sie unter Hardware- und Softwareanforderungen.

Optional: Aktivieren von FIPS 140-2

In diesem Abschnitt wird erläutert, wie Sie FIPS 140-2 auf Ihren Maschinen aktivieren.

Sie können FIPS auf Ihren Red Hat Linux-basierten virtuellen Maschinen aktivieren. Führen Sie dazu die folgenden Schritte aus:

  1. Aktivieren Sie FIPS, indem Sie den folgenden Befehl auf allen Ihren Maschinen ausführen, bevor Sie die Installation starten:

    fips-mode-setup --enablefips-mode-setup --enable
  2. Starten Sie Ihre Maschinen neu und überprüfen Sie, ob Sie FIPS erfolgreich aktiviert haben, indem Sie den folgenden Befehl ausführen:

    fips-mode-setup --checkfips-mode-setup --check
Wichtig: Insights wird derzeit nicht auf FIPS 140-2-fähigen Maschinen unterstützt. Stellen Sie sicher, dass Sie Insights deaktivieren, wenn Sie die Automation Suite auf FIPS 140-2-fähigen Maschinen installieren.

Weitere Informationen zu den zusätzlichen Schritten, die Sie ausführen müssen, um die Automation Suite auf FIPS 140-2-Maschinen zu verwenden, finden Sie unter Bewährte Sicherheitspraktiken.

Optional: Konfigurieren des Proxyservers

Um einen Proxy zu konfigurieren, müssen Sie bei der Schaffung der Voraussetzungen in der Umgebung und während der erweiterten Konfigurationsphase der Installation zusätzliche Konfigurationsschritte ausführen.

Beim Einrichten Ihrer Umgebung sind die folgenden Schritte erforderlich.

Hinweis: Derzeit unterstützen wir keinen HTTPS-Proxy mit selbstsignierten Zertifikaten. Stellen Sie sicher, dass Sie ein öffentliches vertrauenswürdiges Zertifikat verwenden, wenn Sie den Proxy konfigurieren.

Schritt 1: Aktivieren von Ports im virtuellen Netzwerk

Stellen Sie sicher, dass die folgenden Regeln in Ihrer Netzwerksicherheitsgruppe für das gegebene virtuelle Netzwerk aktiviert sind.

Quelle

Ziel (Destination)

Route über Proxy

Port

Beschreibung

Virtuelles Netzwerk

SQL

Nein

SQL Server-Port

Erforderlich für SQL Server.

Virtuelles Netzwerk

Load balancer

Nein

9345

6443

Erforderlich, um dem Cluster neue Knoten hinzuzufügen.

Virtuelles Netzwerk

Cluster (Subnetz)

Nein

Alle Ports

Erforderlich für die Kommunikation über einen privaten IP-Bereich.

Virtuelles Netzwerk

alm.<fqdn>

Nein

443

Erforderlich für die Anmeldung und Verwendung des ArgoCD-Clients während der Bereitstellung.

Virtuelles Netzwerk

Proxyserver

Ja

Alle Ports

Erforderlich, um Datenverkehr an den Proxyserver weiterzuleiten.

Virtuelles Netzwerk

NameServer

Nein

Alle Ports

Die meisten Clouddienste wie Azure und AWS verwenden dies, um die VM-Metadaten abzurufen und dies als private IP zu betrachten.

Virtuelles Netzwerk

MetaDataServer

Nein

Alle Ports

Die meisten Clouddienste wie Azure und AWS verwenden die IP-Adresse 169.254.169.254, um Maschinenmetadaten abzurufen.

Schritt 2: Hinzufügen der Proxykonfiguration zu den einzelnen Knoten

Beim Konfigurieren der Knoten müssen Sie die Proxykonfiguration zu jedem Knoten hinzufügen, der Teil des Clusters ist. Dieser Schritt ist erforderlich, damit ausgehender Datenverkehr vom Knoten über den Proxyserver weitergeleitet wird.

  1. Fügen Sie die folgende Konfiguration in /etc/environment hinzu:
    http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>
  2. Fügen Sie die folgende Konfiguration in /etc/wgetrc hinzu:
    http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>

    Obligatorische Parameter

    Beschreibung

    http_proxy

    Wird zum Weiterleiten von ausgehenden HTTP-Anfragen aus dem Knoten verwendet. Dies muss der FQDN und Port des Proxyservers sein.

    https_proxy

    Wird zum Weiterleiten von ausgehenden HTTPS-Anfragen aus dem Knoten verwendet. Dies muss der FQDN und Port des Proxyservers sein.

    no_proxy

    Durch Kommas getrennte Liste von Hosts und IP-Adressen, die nicht über den Proxyserver weitergeleitet werden sollen. Dies sollte ein privates Subnetz, ein SQL-Serverhost, eine benannte Serveradresse und eine Metadatenserveradresse sein: alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address> .
    • metadata server address – Die meisten Clouddienste wie Azure und AWS verwenden die IP-Adresse 169.254.169.254, um Maschinenmetadaten abzurufen.
    • named server address – Die meisten Clouddienste wie Azure und AWS verwenden diese Option, um DNS-Abfragen aufzulösen.
    Wichtig:
    Wenn Sie das AI Center mit einem externen Orchestrator verwenden, müssen Sie die externe Orchestrator-Domäne zur Liste no_proxy hinzufügen.
  3. Überprüfen Sie, ob die Proxyeinstellungen ordnungsgemäß konfiguriert sind, indem Sie den folgenden Befehl ausführen:

    curl -v $HTTP_PROXY
    curl -v <fixed_rke_address>:9345curl -v $HTTP_PROXY
    curl -v <fixed_rke_address>:9345
    Wichtig: Wenn die Voraussetzungen an den Proxyserver erfüllt sind, stellen Sie sicher, dass die Proxykonfiguration während der Installation fortgesetzt wird. Führen Sie die Schritte unter Optional: Konfigurieren des Proxyservers aus, damit der Proxyserver ordnungsgemäß eingerichtet wird.

War diese Seite hilfreich?

Hilfe erhalten
RPA lernen – Automatisierungskurse
UiPath Community-Forum
Uipath Logo White
Vertrauen und Sicherheit
© 2005–2024 UiPath. Alle Rechte vorbehalten