- Überblick
- Anforderungen
- Installation
- Fragen und Antworten: Bereitstellungsvorlagen
- Herunterladen von Installationspaketen
- install-uipath.sh-Parameter
- Aktivieren eines High Availability Add-ons für den Cluster
- Document Understanding-Konfigurationsdatei
- Hinzufügen eines dedizierten Agent-Knotens mit GPU-Unterstützung
- Verbinden einer Task Mining-Anwendung
- Hinzufügen eines dedizierten Agent-Knotens für Task Mining
- Nach der Installation
- Clusterverwaltung
- Überwachung und Warnungen
- Migration und Upgrade
- Online-Auswertungsmodus mit einem einzelnen Knoten
- Offline-Auswertungsmodus mit einem einzelnen Knoten
- HA-fähiger Online-Produktionsmodus mit mehreren Knoten
- HA-fähiger Offline-Produktionsmodus mit mehreren Knoten
- Migrieren einer physischen Longhorn-Festplatte zum LVM
- Herabstufen von Ceph von 16.2.6 auf 15.2.9
- Migrationsoptionen
- B) Migration von einzelnen Mandanten
- Produktspezifische Konfiguration
- Best Practices und Wartung
- Fehlersuche und ‑behebung
- Fehlerbehebung bei Diensten während der Installation
- Deinstallieren des Clusters
- Löschen von Offline-Artefakten für mehr Speicherplatz
- So deaktivieren Sie TLS 1.0 und 1.1
- So können Sie die Istio-Protokollierung aktivieren
- So werden Protokolle manuell bereinigt
- So löschen Sie alte Protokolle, die im sf-logs-Paket gespeichert sind
- Fehlerbehebung bei fehlgeschlagenen Automation Suite-Installationen
- Deaktivieren von TX-Prüfsummen-Offloading
- Es kann keine Offlineinstallation auf RHEL 8.4 OS ausgeführt werden.
- Fehler beim Herunterladen des Pakets
- Die Offlineinstallation schlägt aufgrund fehlender binärer Dateien fehl
- Zertifikatproblem bei der Offlineinstallation
- Validierungsfehler bei der SQL-Verbindungszeichenfolge
- Fehler nach der Zertifikatsaktualisierung
- Für die Automation Suite muss Backlog_wait_time festgelegt werden 1
- Anmeldung nach der Migration nicht mehr möglich
- Festlegen eines Timeout-Intervalls für die Verwaltungsportale
- Aktualisieren Sie die zugrunde liegenden Verzeichnisverbindungen
- Kinit: KDC kann für Realm <AD Domain> beim Abrufen der ersten Anmeldeinformationen nicht gefunden werden
- Kinit: Keytab enthält keine geeigneten Schlüssel für *** beim Abrufen der ersten Anmeldeinformationen
- Der GSSAPI-Vorgang ist mit Fehler fehlgeschlagen: Es wurde ein ungültiger Statuscode übermittelt (Die Anmeldeinformationen des Clients wurden widerrufen).
- Die Anmeldung ist für den Benutzer <ADDOMAIN><aduser> fehlgeschlagen. Grund: Das Konto ist deaktiviert.
- Alarm für fehlgeschlagenen Kerberos-tgt-update-Auftrag empfangen
- SSPI-Anbieter: Server nicht in Kerberos-Datenbank gefunden
- Fehler beim Abrufen des Sandbox-Abbilds
- Pods werden nicht in der ArgoCD-Benutzeroberfläche angezeigt
- Redis-Testfehler
- RKE2-Server kann nicht gestartet werden
- Secret nicht im UiPath-Namespace gefunden
- ArgoCD wechselt nach der ersten Installation in den Status „In Bearbeitung“.
- UNERWARTETE INKONSISTENZ; fsck MANUELL AUSFÜHREN
- Self-heal-operator und Sf-k8-utils-Repository fehlen
- Herabgestufte MongoDB- oder Geschäftsanwendungen nach der Clusterwiederherstellung
- Fehlerhafte Dienste nach Clusterwiederherstellung oder Rollback
- Document Understanding erscheint nicht auf der linken Leiste der Automation Suite
- Fehlerstatus beim Erstellen einer Datenbeschriftungssitzung
- Fehlerstatus beim Versuch, eine ML-Fähigkeit bereitzustellen
- Migrationsauftrag schlägt in ArgoCD fehl
- Die Handschrifterkennung mit dem Intelligent Form Extractor funktioniert nicht oder arbeitet zu langsam
- Verwenden des Automation Suite-Diagnosetools
- Verwenden des Automation Suite Support Bundle-Tools
- Erkunden von Protokollen
Konfigurieren der Maschinen
- Um Datenverluste zu vermeiden, stellen Sie sicher, dass die von Ihnen verwendete Infrastruktur die Clusterlaufwerke beim Neustart oder Herunterfahren des Clusters nicht automatisch löscht. Wenn diese Funktion aktiviert ist, deaktivieren Sie sie.
- Um eine reibungslose und unterbrechungsfreie SSH-Sitzung sicherzustellen, empfehlen wir dringend, die Schritte in den Installationsempfehlungen zu befolgen, bevor Sie die Datenträger konfigurieren und die Automation Suite installieren.
configureUiPathDisks.sh
konfigurieren und partitionieren. Weitere Informationen finden Sie in den folgenden Abschnitten.
Vor der Installation müssen Sie den Datenträger mit LVM partitionieren und konfigurieren, damit ihre Größe einfach und ohne Datenmigration oder Datenverlust geändert werden kann.
Datenträgerpartitionierung
/var
-Partition installiert wird. Standardmäßig werden der var
-Partition nur 8 GiB Speicherplatz zugewiesen.
ext4
oder xfs
.
Alle Partitionen müssen mit LVM erstellt werden. Dies soll gewährleisten, dass sich Clusterdaten auf einem anderen Datenträger befinden können aber dennoch kohärent angezeigt werden. Dies hilft auch, die Partitionsgröße in der Zukunft zu erhöhen, ohne dass das Risiko von Datenmigration oder Datenverlust besteht.
Für das RHEL-Betriebssystem müssen Sie sicherstellen, dass Sie über die folgenden minimalen Mount-Punkt-Größen auf der Maschine verfügen.
Online
Datenträgerbezeichnung |
Partition |
Größe |
Zweck |
---|---|---|---|
Clusterlaufwerk |
|
190 GiB |
Der Rancher-Ordner speichert Container-Images und -Ebenen |
|
56 GiB |
Der Kubelet-Ordner speichert Kubernetes-Laufzeitkonfigurationen wie Secrets, Configmaps und emptyDir | |
|
10 GiB |
Installationsprogramm-Binärdatei | |
etcd-Datenträger |
|
16 GiB |
Verteilte Datenbank für Kubernetes |
DataDisk |
|
512 GiB (Einfache Installation) |
Blockspeicher-Abstraktion |
2 TiB (Vollständige Installation) |
Wir empfehlen, nicht den Betriebssystemdatenträger für die oben genannten Zwecke zu verwenden, um sicherzustellen, dass Prozesse über ausreichende Ressourcen verfügen.
Offline
Die Voraussetzungen für offline sind dieselben wie für online, mit Ausnahme der ersten Maschine, auf der Sie die Installation ausführen. Für sie gelten die folgenden Anforderungen.
Der zusätzliche Speicherplatz ist erforderlich, um das Offlinepaket zu entpacken.
Datenträgerbezeichnung |
Partition |
Größe |
Zweck |
---|---|---|---|
Clusterlaufwerk |
|
190 GiB |
Der Rancher-Ordner speichert Container-Images und -Ebenen |
|
56 GiB |
Der Kubelet-Ordner speichert Kubernetes-Laufzeitkonfigurationen wie Secrets, Configmaps und emptyDir | |
|
10 GiB |
Installationsprogramm-Binärdatei | |
etcd-Datenträger |
|
16 GiB |
Verteilte Datenbank für Kubernetes |
DataDisk |
|
512 GiB (Einfache Installation) |
Blockspeicher-Abstraktion |
2 TiB (Vollständige Installation) | |||
Datenträger für das UiPath Paket |
|
512 GiB |
Air-Gap-Paket |
Wir empfehlen, nicht den Betriebssystemdatenträger für die oben genannten Zwecke zu verwenden, um sicherzustellen, dass Prozesse über ausreichende Ressourcen verfügen.
Daten und etcd-Datenträger müssen separate physische Datenträger sein. Dadurch werden die Daten und etcd-Datenträger physisch von anderen Cluster-Workloads und -Aktivitäten isoliert und gleichzeitig die Leistung und Stabilität des Clusters verbessert.
Im folgenden Abschnitt finden Sie Details zur Verwendung des Beispielskripts zur Partitionierung und Konfiguration des Datenträgers vor der Installation.
Herunterladen des Skripts
configureUiPathDisks.sh
-Skript verwenden, um die Festplatte zu konfigurieren und zu partitionieren.
Anweisungen zum Herunterladen finden Sie unter ConfigureUiPathDisks.sh.
Ausführen des Skripts
configureUiPathDisks.sh
-Skript für die folgenden Zwecke verwenden:
- Konfigurieren der Datenträger und Mount-Punkte für eine neue Automation Suite-Clusterinstallation;
- Ändern der Größe des Datenträgers nach der Installation.
Um das Skript ausführbar zu machen, führen Sie Folgendes aus:
chmod +x ./configureUiPathDisks.sh
chmod +x ./configureUiPathDisks.sh
Um weitere Details zur Skriptnutzung zu erhalten, führen Sie den folgenden Befehl aus:
sudo ./configureUiPathDisks.sh --help
sudo ./configureUiPathDisks.sh --help
***************************************************************************************
Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk
Arguments
-n|--node-type NodeType, Possible values: agent, server. Default to server
-i|--install-type Installation mode, Possible values: online, offline. Default to online
-c|--cluster-disk-name Device to host rancher and kubelet. Ex: /dev/sdb
-e|--etcd-disk-name Device to host etcd, Not required for agent node. Ex: /dev/sdb
-l|--data-disk-name Device to host datadisk, Not required for agent node. Ex: /dev/sdc
-b|--bundle-disk-name Device to host the uipath bundle.
Only required for offline installation on 1st server node
-f|--complete-suite Installing complete product suite or any of these products:
aicenter, apps, taskmining, documentunderstanding.
This will configure the datadisk volume to be 2TiB instead of 512Gi.
-p|--primary-server Is this machine is first server machine? Applicable only for airgap install.
This is the machine on which UiPath AutomationSuite bundle will be installed.
Default to false
-x|--extend-data-disk Extend the datadisk. Either attach new disk or resize the exiting datadisk
-r|--resize Used in conjunction of with --extend-data-disk to resize the exiting volume,
instead of adding new volume
-d|--debug Run in debug
-h|--help Display help
ExampleUsage:
configureUiPathDisks.sh --node-type server --install-type online \
--cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
--data-disk-name /dev/sdd
configureUiPathDisks.sh --data-disk-name /dev/sdh --extend-data-disk
***************************************************************************************
***************************************************************************************
Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk
Arguments
-n|--node-type NodeType, Possible values: agent, server. Default to server
-i|--install-type Installation mode, Possible values: online, offline. Default to online
-c|--cluster-disk-name Device to host rancher and kubelet. Ex: /dev/sdb
-e|--etcd-disk-name Device to host etcd, Not required for agent node. Ex: /dev/sdb
-l|--data-disk-name Device to host datadisk, Not required for agent node. Ex: /dev/sdc
-b|--bundle-disk-name Device to host the uipath bundle.
Only required for offline installation on 1st server node
-f|--complete-suite Installing complete product suite or any of these products:
aicenter, apps, taskmining, documentunderstanding.
This will configure the datadisk volume to be 2TiB instead of 512Gi.
-p|--primary-server Is this machine is first server machine? Applicable only for airgap install.
This is the machine on which UiPath AutomationSuite bundle will be installed.
Default to false
-x|--extend-data-disk Extend the datadisk. Either attach new disk or resize the exiting datadisk
-r|--resize Used in conjunction of with --extend-data-disk to resize the exiting volume,
instead of adding new volume
-d|--debug Run in debug
-h|--help Display help
ExampleUsage:
configureUiPathDisks.sh --node-type server --install-type online \
--cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
--data-disk-name /dev/sdd
configureUiPathDisks.sh --data-disk-name /dev/sdh --extend-data-disk
***************************************************************************************
Online
Um den Datenträger bei einer Online-Auswertungseinrichtung mit einem einzelnen Knoten zu konfigurieren, führen Sie den folgenden Befehl auf der Maschine aus:
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk
Offline
Bei einer Offlineinstallation müssen Sie die Abbilder des Produkts in die Docker-Registrierung laden. Dazu ist ein zusätzlicher Speicher in Form eines separaten Datenträgers erforderlich, um das UiPath-Produktpaket zu hosten.
Um den Datenträger bei einer Offline-Auswertungseinrichtung mit einem einzelnen Knoten zu konfigurieren, führen Sie den folgenden Befehl auf der Maschine aus:
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk \
--bundle-disk-name name_of_uipath_bundle_disk \
--primary-server \
--install-type offline
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk \
--bundle-disk-name name_of_uipath_bundle_disk \
--primary-server \
--install-type offline
Um den Datenträger zu erweitern, können Sie den neuen physischen Datenträger anschließen oder die Größe des vorhandenen Datenträgers ändern.
Hinzufügen eines neuen Datenträgers
Um den Datenträger mithilfe des neu angefügten Datenträgers zu erweitern, führen Sie den folgenden Befehl auf der Servermaschine aus:
./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
--extend-data-disk
./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
--extend-data-disk
Ändern der Größe des vorhandenen Datenträgers
Um den Datenträger durch Ändern der Größe eines vorhandenen Datenträgers zu erweitern, führen Sie den folgenden Befehl auf der Servermaschine aus:
./configureUiPathDisks.sh --extend-data-disk --resize
./configureUiPathDisks.sh --extend-data-disk --resize
Die folgende Seite hilft Linux-Administratoren bei der Verwaltung von Einstellungen auf Betriebssystem- und Kernel-Ebene, bevor sie eine Automation Suite-Installation durchführen.
Normalerweise werden diese Einstellungen über ein spezielles Verwaltungskonfigurationstool verwaltet, z. B. Puppet. Stellen Sie aus Konsistenz- und Dokumentationsgründen sicher, dass Ihre vorgenommenen Änderungen mit dem Steuerungsprozess Ihrer Umgebung übereinstimmen.
Sie müssen die folgenden Schritte ausführen, bevor Sie die Installation starten, da Fehlkonfigurationen auf Betriebssystem- und Kernel-Ebene zu unerklärlichen Fehlern führen können. Durch die Überprüfung dieser spezifischen Einstellungen können solche Fehler oft vermieden werden.
sysctl
-Einstellungen sind auf der Maschine erforderlich:
-
IP-Weiterleitung aktivieren
-
Deaktivieren der umgekehrten Pfadfilterung
Dazu können Sie den folgenden Befehl ausführen:
cat <<EOF >>"/etc/sysctl.d/99-sysctl.conf"
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.conf.all.rp_filter=0
EOF
cat <<EOF >>"/etc/sysctl.d/99-sysctl.conf"
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.conf.all.rp_filter=0
EOF
nf-call-iptables
wird für die meisten Kubernetes-Bereitstellungen benötigt. Kubernetes erstellt virtuelle Netzwerke innerhalb des Clusters. Dadurch kann jeder Pod eine eigene IP-Adresse haben, die in Verbindung mit den internen Namensdiensten verwendet wird, um die Kommunikation zwischen den Diensten zu erleichtern. Der Cluster funktioniert nicht, wenn nf-call-iptables
nicht aktiviert ist. Weitere Informationen finden Sie in der offiziellen Kubernetes-Dokumentation.
Führen Sie den folgenden Befehl aus, um die Einstellungen zu übernehmen:
sysctl --system
sysctl --system
Bei Verwendung von fapolicy ist eine RKE2-spezifische Richtlinie erforderlich. Um diese zu generieren, verwenden Sie den folgenden Befehl:
cat <<-EOF >>"/etc/fapolicyd/rules.d/69-rke2.rules"
allow perm=any all : dir=/var/lib/rancher/
allow perm=any all : dir=/opt/cni/
allow perm=any all : dir=/run/k3s/
allow perm=any all : dir=/var/lib/kubelet/
allow perm=any all : dir=/root/.local/share/helm
EOF
cat <<-EOF >>"/etc/fapolicyd/rules.d/69-rke2.rules"
allow perm=any all : dir=/var/lib/rancher/
allow perm=any all : dir=/opt/cni/
allow perm=any all : dir=/run/k3s/
allow perm=any all : dir=/var/lib/kubelet/
allow perm=any all : dir=/root/.local/share/helm
EOF
Stellen Sie sicher, dass die Änderung Ihrem Linux-Team mitgeteilt wird und die erforderlichen Konfigurationsverwaltungsprozesse durchläuft.
/var/lib/rancher
-Bereitstellung verwendet werden, dürfen weder noexec
noch nosuid
festgelegt sein. Das Datenträgertool erstellt diese Bereitstellungen automatisch ohne diese Eigenschaften.
Wenn ein Linux-Administrator diese Eigenschaften manuell festlegt, funktioniert die Instanz nicht mehr.
Weitere Informationen zur Datenträgerkonfiguration finden Sie unter Datenträger-Voraussetzungen.
Stellen Sie sicher, dass für jede Quelle die folgenden Ports in der Firewall aktiviert sind.
Port |
Protokoll |
Quelle |
Zweck |
Anforderungen |
---|---|---|---|---|
|
TCP |
Jump Server/Clientmaschine |
Für SSH (Installation, Fehlerbehebung bei der Clusterverwaltung) |
Öffnen Sie diesen Port nicht für das Internet. Lassen Sie Zugriff auf die Clientmaschine bzw. den Jump Server zu. |
|
TCP |
Nur Offlineinstallation: erforderlich zum Senden von System-E-Mail-Benachrichtigungen. | ||
|
TCP |
Alle Knoten in einem Cluster + Lastenausgleich |
Bei HTTPS (Zugriff auf die Automation Suite) |
Dieser Port sollte über eingehende und ausgehende Verbindungen von allen Knoten im Cluster und dem Lastenausgleich verfügen. |
|
TCP |
Nur Offlineinstallation: erforderlich zum Senden von System-E-Mail-Benachrichtigungen. |
Wenn Sie Task Mining aktiviert und einen dedizierten Task Mining-Knoten bereitgestellt bzw. einen dedizierten Knoten mit GPU-Unterstützung bereitgestellt haben, stellen Sie sicher, dass zusätzlich zu den oben genannten die folgenden Ports auf Ihrer Firewall aktiviert sind:
Port |
Protokoll |
Quelle |
Zweck |
Anforderungen |
---|---|---|---|---|
|
TCP |
Alle Knoten in einem Cluster |
etcd-Clientport |
Darf nicht gegenüber dem Internet exponiert werden. Der Zugriff zwischen Knoten über eine private IP-Adresse sollte ausreichend sein. |
|
TCP |
Alle Knoten in einem Cluster |
etcd-Peer-Port |
Darf nicht gegenüber dem Internet exponiert werden. Der Zugriff zwischen Knoten über eine private IP-Adresse sollte ausreichend sein. |
|
TCP |
Alle Knoten in einem Cluster |
Für den Zugriff auf Kube API mit HTTPS; erforderlich für das Verbinden von Knoten. |
Dieser Port sollte über eingehende und ausgehende Verbindungen von allen Knoten im Cluster verfügen. |
|
UDP |
Alle Knoten in einem Cluster |
Erforderlich für Flannel (VXLAN) |
Darf nicht gegenüber dem Internet exponiert werden. Der Zugriff zwischen Knoten über eine private IP-Adresse sollte ausreichend sein. |
|
TCP |
Alle Knoten in einem Cluster + Lastenausgleich |
Für den Zugriff auf Kube API mit HTTP; erforderlich für das Verbinden von Knoten. |
Dieser Port sollte über eingehende und ausgehende Verbindungen von allen Knoten im Cluster und dem Lastenausgleich verfügen. |
|
TCP |
Alle Knoten in einem Cluster |
kubelet-/Metrikserver |
Darf nicht gegenüber dem Internet exponiert werden. Der Zugriff zwischen Knoten über eine private IP-Adresse sollte ausreichend sein. |
|
TCP |
Alle Knoten in einem Cluster |
NodePort-Port für die interne Kommunikation zwischen Knoten in einem Cluster |
Darf nicht gegenüber dem Internet exponiert werden. Der Zugriff zwischen Knoten über eine private IP-Adresse sollte ausreichend sein. |
6443
außerhalb der Clustergrenze ist obligatorisch, wenn eine direkte Verbindung mit der Kerberos-API besteht.
9345
wird von Knoten verwendet, um vorhandene Knoten zu erkennen und dem Cluster in der Bereitstellung mit mehreren Knoten beizutreten. Um die Erkennungsmechanismen der Hochverfügbarkeit am Laufen zu halten, empfehlen wir, ihn über den Lastausgleich mit Zustandsprüfung verfügbar zu machen.
Stellen Sie außerdem sicher, dass alle Konten eine Verbindung zum SQL-Server haben.
Exponieren Sie den SQL-Server nicht auf einem der reservierten Istio-Ports, da dies zu Verbindungsfehlern führen kann.
Wenn Sie im Netzwerk über eine Firewall verfügen, stellen Sie sicher, dass diese Ports geöffnet sind und der Datenverkehr gemäß den oben genannten Anforderungen zulässt.
Um einen Proxy zu konfigurieren, müssen Sie bei der Schaffung der Voraussetzungen in der Umgebung und während der erweiterten Konfigurationsphase der Installation zusätzliche Konfigurationsschritte ausführen.
Beim Einrichten Ihrer Umgebung sind die folgenden Schritte erforderlich.
Derzeit unterstützen wir keinen HTTPS-Proxy mit selbstsignierten Zertifikaten. Stellen Sie sicher, dass Sie ein öffentliches vertrauenswürdiges Zertifikat verwenden, wenn Sie den Proxy konfigurieren.
Stellen Sie sicher, dass die folgenden Regeln in Ihrer Netzwerksicherheitsgruppe für das gegebene virtuelle Netzwerk aktiviert sind.
Quelle |
Ziel (Destination) |
Route über Proxy |
Port |
Beschreibung |
---|---|---|---|---|
Virtuelles Netzwerk |
SQL |
Nein |
SQL Server-Port |
Erforderlich für SQL Server. |
Virtuelles Netzwerk |
Load balancer |
Nein |
|
Erforderlich, um dem Cluster neue Knoten hinzuzufügen. |
Virtuelles Netzwerk |
Cluster (Subnetz) |
Nein |
Alle Ports |
Erforderlich für die Kommunikation über einen privaten IP-Bereich. |
Virtuelles Netzwerk |
|
Nein |
|
Erforderlich für die Anmeldung und Verwendung des ArgoCD-Clients während der Bereitstellung. |
Virtuelles Netzwerk |
Proxyserver |
Ja |
Alle Ports |
Erforderlich, um Datenverkehr an den Proxyserver weiterzuleiten. |
Virtuelles Netzwerk |
NameServer |
Nein |
Alle Ports |
Die meisten Clouddienste wie Azure und AWS verwenden dies, um die VM-Metadaten abzurufen und dies als private IP zu betrachten. |
Virtuelles Netzwerk |
MetaDataServer |
Nein |
Alle Ports |
Die meisten Clouddienste wie Azure und AWS verwenden die IP-Adresse
169.254.169.254 , um Maschinenmetadaten abzurufen.
|
Beim Konfigurieren der Knoten müssen Sie die Proxykonfiguration zu jedem Knoten hinzufügen, der Teil des Clusters ist. Dieser Schritt ist erforderlich, damit ausgehender Datenverkehr vom Knoten über den Proxyserver weitergeleitet wird.
-
Fügen Sie die folgende Konfiguration in
/etc/environment
hinzu:http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>
http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server> -
Fügen Sie die folgende Konfiguration in
/etc/wgetrc
hinzu:http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>
http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>Obligatorische Parameter
Beschreibung
http_proxy
Wird zum Weiterleiten von ausgehenden HTTP-Anfragen aus dem Knoten verwendet. Dies muss der FQDN und Port des Proxyservers sein.
https_proxy
Wird zum Weiterleiten von ausgehenden HTTPS-Anfragen aus dem Knoten verwendet. Dies muss der FQDN und Port des Proxyservers sein.
no_proxy
Durch Kommas getrennte Liste von Hosts und IP-Adressen, die nicht über den Proxyserver weitergeleitet werden sollen. Dies sollte ein privates Subnetz, ein SQL-Serverhost, eine benannte Serveradresse und eine Metadatenserveradresse sein:alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>
named server address
– Die meisten Clouddienste wie Azure und AWS verwenden diese Option, um DNS-Abfragen aufzulösen.metadata server address
– Die meisten Clouddienste wie Azure und AWS verwenden die IP-Adresse169.254.169.254
, um Maschinenmetadaten abzurufen.
-
Überprüfen Sie, ob die Proxyeinstellungen ordnungsgemäß konfiguriert sind, indem Sie den folgenden Befehl ausführen:
curl -v $HTTP_PROXY curl -v <fixed_rke_address>:9345
curl -v $HTTP_PROXY curl -v <fixed_rke_address>:9345Wichtig: Wenn die Voraussetzungen an den Proxyserver erfüllt sind, stellen Sie sicher, dass die Proxykonfiguration während der Installation fortgesetzt wird. Führen Sie die Schritte unter Optional: Konfigurieren des Proxyservers aus, damit der Proxyserver ordnungsgemäß eingerichtet wird.
- Konfigurieren des Datenträgers
- Datenträger-Voraussetzungen
- Verwenden des Skripts zum Konfigurieren des Datenträgers
- Konfigurieren des Datenträgers für eine Auswertungseinrichtung mit einem einzelnen Knoten
- Erweitern des Datenträgers nach der Installation
- Validieren von Laufwerk-Mounts
- Konfigurieren von Einstellungen auf Kernel- und Betriebssystemebene
- Konfigurieren der „sysctl“-Einstellungen
- Konfigurieren von fapolicy-Einstellungen
- Konfigurieren von noexec- und nosuid-Einstellungen
- Aktivieren von Ports
- Optional: Konfigurieren des Proxyservers
- Schritt 1: Aktivieren von Ports im virtuellen Netzwerk
- Schritt 2: Hinzufügen der Proxykonfiguration zu den einzelnen Knoten