Konfigurieren des Datenträgers
Wichtig!
Um Datenverluste zu vermeiden, stellen Sie sicher, dass die von Ihnen verwendete Infrastruktur die Clusterlaufwerke beim Neustart oder Herunterfahren des Clusters nicht automatisch löscht. Wenn diese Funktion aktiviert ist, deaktivieren Sie sie.
You can configure and partition the disks using the configureUiPathDisks.sh
script. For details, see the following sections.
Datenträger-Voraussetzungen
Vor der Installation müssen Sie den Datenträger mit LVM partitionieren und konfigurieren, damit ihre Größe einfach und ohne Datenmigration oder Datenverlust geändert werden kann.
Datenträgerpartitionierung
Dies ist erforderlich, da die Standardpartitionierungsstruktur auf RHEL-Maschinen nicht für die Installation von Kubernetes geeignet ist. Das liegt daran, dass die Kubernetes-Infrastruktur normalerweise auf der Partition /var
installiert wird. Standardmäßig werden der Partition var
nur 8 GB Speicherplatz zugewiesen.
Hinweis:
Das unterstützte Format für den Datenträger ist
ext4
oderxfs
.Alle Partitionen müssen mit LVM erstellt werden. Dies soll gewährleisten, dass sich Clusterdaten auf einem anderen Datenträger befinden können aber dennoch kohärent angezeigt werden. Dies hilft auch, die Partitionsgröße in der Zukunft zu erhöhen, ohne dass das Risiko von Datenmigration oder Datenverlust besteht.
For the RHEL OS, you need to ensure you have the following minimum mount point sizes on the machine.
Online
Disk label | Partition | Größe | Purpose |
---|---|---|---|
Clusterlaufwerk | /var/lib/rancher |
190 GiB | Rancher folder stores container images and layers |
/var/lib/kubelet |
56 GiB | Kubelet folder stores runtime Kubernetes configurations such as secrets, configmaps, and emptyDir | |
/opt/UiPathAutomationSuite |
10 GiB | Installationsprogramm-Binärdatei | |
etcd-Datenträger | /var/lib/rancher/rke2/server/db |
16 GiB | Verteilte Datenbank für Kubernetes |
DataDisk | /datadisk |
512 GiB (Einfache Installation) | Blockspeicher-Abstraktion |
2 TiB (Vollständige Installation) |
Offline
Hinweis:
Die Voraussetzungen für offline sind dieselben wie für online, mit Ausnahme der ersten Maschine, auf der Sie die Installation ausführen. Für sie gelten die folgenden Anforderungen.
Der zusätzliche Speicherplatz ist erforderlich, um das Offlinepaket zu entpacken.
Disk label | Partition | Größe | Purpose |
---|---|---|---|
Clusterlaufwerk | /var/lib/rancher |
190 GiB | Rancher folder stores container images and layers |
/var/lib/kubelet |
56 GiB | Kubelet folder stores runtime Kubernetes configurations such as secrets, configmaps, and emptyDir | |
/opt/UiPathAutomationSuite |
10 GiB | Installationsprogramm-Binärdatei | |
etcd-Datenträger | /var/lib/rancher/rke2/server/db |
16 GiB | Verteilte Datenbank für Kubernetes |
DataDisk | /datadisk |
512 GiB (Einfache Installation) | Blockspeicher-Abstraktion |
2 TiB (Vollständige Installation) | |||
Datenträger für das UiPath Paket | /uipath |
512 GiB | Air-Gap-Paket |
Hinweis:
Daten und etcd-Datenträger müssen separate physische Datenträger sein. Dadurch werden die Daten und etcd-Datenträger physisch von anderen Cluster-Workloads und -Aktivitäten isoliert und gleichzeitig die Leistung und Stabilität des Clusters verbessert.
Im folgenden Abschnitt finden Sie Details zur Verwendung des Beispielskripts zur Partitionierung und Konfiguration des Datenträgers vor der Installation.
Verwenden des Skripts zum Konfigurieren des Datenträgers
Herunterladen des Skripts
Hinweis:
Bei Offlineinstallationen müssen Sie diesen Schritt auf einer Maschine mit Internetzugang und zu den Air-Gap-Maschinen ausführen, auf denen die Automation Suite bereitgestellt wird. Kopieren Sie die Datei von der Onlinemaschine auf die Zielmaschine.
You can use the configureUiPathDisks.sh
script to configure and partition the disk.
For download instructions, see configureUiPathDisks.sh.
Ausführen des Skripts
Sie können das configureUiPathDisks.sh
-Skript für die folgenden Zwecke verwenden:
- Konfigurieren der Datenträger und Mount-Punkte für eine neue Automation Suite-Clusterinstallation;
- Ändern der Größe des Datenträgers nach der Installation.
Um weitere Details zur Skriptnutzung zu erhalten, führen Sie den folgenden Befehl aus:
sudo ./configureUiPathDisks.sh --help
***************************************************************************************
Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk
Arguments
-n|--node-type NodeType, Possible values: agent, server. Default to server
-i|--install-type Installation mode, Possible values: online, offline. Default to online
-c|--cluster-disk-name Device to host rancher and kubelet. Ex: /dev/sdb
-e|--etcd-disk-name Device to host etcd, Not required for agent node. Ex: /dev/sdb
-d|--data-disk-name Device to host datadisk, Not required for agent node. Ex: /dev/sdc
-b|--bundle-disk-name Device to host the uipath bundle.
Only required for offline installation on 1st server node
-f|--complete-suite Installing complete product suite or any of these products:
aicenter, apps, taskmining, documentunderstanding.
This will configure the datadisk volume to be 2TiB instead of 512Gi.
-p|--primary-server Is this machine is first server machine? Applicable only for airgap install.
This is the machine on which UiPath AutomationSuite bundle will be installed.
Default to false
-x|--extend-data-disk Extend the datadisk. Either attach new disk or resize the exiting datadisk
-r|--resize Used in conjunction of with --extend-data-disk to resize the exiting volume,
instead of adding new volume
-d|--debug Run in debug
-h|--help Display help
ExampleUsage:
configureUiPathDisks.sh --node-type server --install-type online \
--cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
--data-disk-name /dev/sdd
configureUiPathDisks.sh --data-disk-name /dev/sdh --extend-data-disk
***************************************************************************************
Konfigurieren des Datenträgers für eine Auswertungseinrichtung mit einem einzelnen Knoten
Online
Um den Datenträger bei einer Online-Auswertungseinrichtung mit einem einzelnen Knoten zu konfigurieren, führen Sie den folgenden Befehl auf der Maschine aus:
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk
Offline
Bei einer Offlineinstallation müssen Sie die Abbilder des Produkts in die Docker-Registrierung laden. Dazu ist ein zusätzlicher Speicher in Form eines separaten Datenträgers erforderlich, um das UiPath-Produktpaket zu hosten.
Um den Datenträger bei einer Offline-Auswertungseinrichtung mit einem einzelnen Knoten zu konfigurieren, führen Sie den folgenden Befehl auf der Maschine aus:
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk \
--bundle-disk-name name_of_uipath_bundle_disk \
--primary-server \
--install-type offline
Hinweis:
Wenn Sie über einen zusätzlichen Agenten-Knoten für Task Mining oder eine GPU verfügen, wird auf diesem Knoten nur einen Cluster-Datenträger benötigt. Sie können das Skript ausführen, indem Sie den Namen des Clusterdatenträgers angeben und den Knotentyp als Agenten angeben.
Erweitern des Datenträgers nach der Installation
Um den Datenträger zu erweitern, können Sie den neuen physischen Datenträger anschließen oder die Größe des vorhandenen Datenträgers ändern.
Hinzufügen eines neuen Datenträgers
Um den Datenträger mithilfe des neu angefügten Datenträgers zu erweitern, führen Sie den folgenden Befehl auf der Servermaschine aus:
./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
--extend-data-disk
Ändern der Größe des vorhandenen Datenträgers
Um den Datenträger durch Ändern der Größe eines vorhandenen Datenträgers zu erweitern, führen Sie den folgenden Befehl auf der Servermaschine aus:
./configureUiPathDisks.sh --extend-data-disk --resize
Validieren von Laufwerk-Mounts
- Führen Sie die folgenden Schritte aus, um zu überprüfen, ob
/etc/fstab
korrekt so konfiguriert ist, dass der Neustart des Systems bewältigt werden kann.
Hinweis:
Stellen Sie sicher, dass Etcd- und DataDisk-Mountpunkte in der Datei
fstab
stehen.Wenn Sie eine separate Festplattenpartition für
/var/lib/rancher
und/var/lib/kubelet
haben, dann solltefstab
auch diese beiden Ordner enthalten. Stellen Sie auch sicher, dass Sie die Optionnofail
in diefstab
-Einträge aufnehmen, damit sie sich im Falle von Fehlern nicht auf das Booten der VM auswirkt.
- Überprüfen Sie, ob die Datenträger korrekt bereitgestellt werden, indem Sie den folgenden Befehl ausführen:
mount -afv
- Es sollte die folgende Antwort kommen:
/datadisk : already mounted
/var/lib/rancher/rke2/server/db : already mounted
/var/lib/rancher : already mounted
/var/lib/kubelet : already mounted
Aktivieren von Ports
Stellen Sie sicher, dass für jede Quelle die folgenden Ports in der Firewall aktiviert sind.
Port | Protocol | Source | Purpose | Requirements |
---|---|---|---|---|
| TCP | Jump Server / client machine | For SSH (installation, cluster management debugging) | Do not open this port to the internet. Allow access to client machine or jump server. |
| TCP | Offline installation only: required for sending system email notifications. | ||
| TCP | All nodes in a cluster + load balancer | For HTTPS (accessing Automation Suite) | This port should have inbound and outbound connectivity from all the nodes in the cluster and the load balancer. |
| TCP | Offline installation only: required for sending system email notifications. |
Wenn Sie Task Mining aktiviert und einen dedizierten Task Mining-Knoten bereitgestellt bzw. einen dedizierten Knoten mit GPU-Unterstützung bereitgestellt haben, stellen Sie sicher, dass zusätzlich zu den oben genannten die folgenden Ports auf Ihrer Firewall aktiviert sind:
Port | Protocol | Source | Purpose | Requirements |
---|---|---|---|---|
| TCP | All nodes in a cluster | etcd client port | Must not expose to the internet. Access between nodes should be enough over a private IP address. |
| TCP | All nodes in a cluster | etcd peer port | Must not expose to the internet. Access between nodes should be enough over a private IP address. |
| TCP | All nodes in a cluster + load balancer | For accessing Kube API using HTTPS, and required for node joining | This port should have inbound and outbound connectivity from all nodes in the cluster and the load balancer. |
| UDP | All nodes in a cluster | Required for Flannel (VXLAN) | Must not expose to the internet. Access between nodes should be enough over a private IP address. |
| TCP | All nodes in a cluster + load balancer | For accessing Kube API using HTTP, required for node joining | This port should have inbound and outbound connectivity from all nodes in the cluster and the load balancer. |
| TCP | All nodes in a cluster | kubelet / metrics server | Must not expose to the internet. Access between nodes should be enough over a private IP address. |
| TCP | All nodes in a cluster | NodePort port for internal communication between nodes in a cluster | Must not expose to the internet. Access between nodes should be enough over a private IP address. |
Wichtig!
Auf die Ports
6443
und9345
muss außerhalb des Clusters zugegriffen werden, aber die verbleibenden Ports dürfen nicht außerhalb des Clusters offengelegt werden. Führen Sie Ihre Knoten hinter einer Firewall-/Sicherheitsgruppe aus.Stellen Sie außerdem sicher, dass alle Konten eine Verbindung zum SQL-Server haben.
Exponieren Sie den SQL-Server nicht auf einem der reservierten Istio-Ports, da dies zu Verbindungsfehlern führen kann.Wenn Sie im Netzwerk über eine Firewall verfügen, stellen Sie sicher, dass diese Ports geöffnet sind und der Datenverkehr gemäß den oben genannten Anforderungen zulässt.
Optional: Konfigurieren des Proxyservers
To configure a proxy, you need to perform additional configuration steps while setting up your environment with the prerequisites and during the advanced configuration phase of installation time.
Beim Einrichten Ihrer Umgebung sind die folgenden Schritte erforderlich.
Hinweis:
Derzeit unterstützen wir keinen HTTPS-Proxy mit selbstsignierten Zertifikaten. Stellen Sie sicher, dass Sie ein öffentliches vertrauenswürdiges Zertifikat verwenden, wenn Sie den Proxy konfigurieren.
Schritt 1: Aktivieren von Ports im virtuellen Netzwerk
Stellen Sie sicher, dass die folgenden Regeln in Ihrer Netzwerksicherheitsgruppe für das gegebene virtuelle Netzwerk aktiviert sind.
Source | Destination | Route via proxy | Port | Description |
---|---|---|---|---|
Virtual Network | SQL | No | SQL server port | Required for SQL Server. |
Virtual Network | Load Balancer | No |
| Required to add new nodes to the cluster. |
Virtual Network | Cluster(subnet) | No | All ports | Required for communication over a private IP range. |
Virtual Network |
| No |
| Required for login and using ArgoCD client during deployment. |
Virtual Network | Proxy Server | Yes | All ports | Required to route traffic to the proxy server. |
Virtual Network | NameServer | No | All ports | Most of the cloud services such as Azure and AWS use this to fetch the VM metadata and consider this a private IP. |
Virtual Network | MetaDataServer | No | All ports | Most of the cloud services such as Azure and AWS use the IP address |
Schritt 2: Hinzufügen der Proxykonfiguration zu den einzelnen Knoten
Beim Konfigurieren der Knoten müssen Sie die Proxykonfiguration zu jedem Knoten hinzufügen, der Teil des Clusters ist. Dieser Schritt ist erforderlich, damit ausgehender Datenverkehr vom Knoten über den Proxyserver weitergeleitet wird.
- Fügen Sie die folgende Konfiguration in
/etc/environment
hinzu:
http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>
- Fügen Sie die folgende Konfiguration in
/etc/wgetrc
hinzu:
http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>
Mandatory parameters | Description |
---|---|
| Used to route HTTP outbound requests from the node. This should be the proxy server FQDN and port. |
| Used to route HTTPS outbound requests from the node. This should be the proxy server FQDN and port. |
| Comma-separated list of hosts, IP addresses that you do not want to route via the proxy server. This should be a private subnet, SQL server host, named server address, metadata server address: |
- Überprüfen Sie, ob die Proxyeinstellungen ordnungsgemäß konfiguriert sind, indem Sie den folgenden Befehl ausführen:
curl -v $HTTP_PROXY
curl -v <fixed_rke_address>:9345
Wichtig!
Wenn die Voraussetzungen an den Proxyserver erfüllt sind, stellen Sie sicher, dass die Proxykonfiguration während der Installation fortgesetzt wird. Führen Sie die Schritte unter Optional: Konfigurieren des Proxyservers aus, damit der Proxyserver ordnungsgemäß eingerichtet wird.
Vor ungefähr einer Stunde aktualisiert