- Überblick
- Anforderungen
- Installation
- Fragen und Antworten: Bereitstellungsvorlagen
- Konfigurieren der Maschinen
- Konfigurieren des externen Objektspeichers
- Konfigurieren einer externen Docker-Registrierung
- Konfigurieren des DNS
- Konfigurieren von Microsoft SQL-Servern
- Konfigurieren der Zertifikate
- Online-Auswertungsinstallation mit einem Knoten
- Offline-Auswertungsinstallation mit einem Knoten
- Konfigurieren der Maschinen
- Konfigurieren des externen Objektspeichers
- Konfigurieren einer externen Docker-Registrierung
- Konfigurieren des Lastausgleichs
- Konfigurieren des DNS
- Konfigurieren von Microsoft SQL-Servern
- Konfigurieren der Zertifikate
- HA-fähige Online-Produktionsinstallation mit mehreren Knoten
- HA-fähige Offline-Produktionsinstallation mit mehreren Knoten
- Disaster Recovery – Installieren des sekundären Clusters
- Herunterladen der Installationspakete
- install-uipath.sh-Parameter
- Aktivieren eines High Availability Add-ons für den Cluster
- Document Understanding-Konfigurationsdatei
- Hinzufügen eines dedizierten Agent-Knotens mit GPU-Unterstützung
- Hinzufügen eines dedizierten Agent-Knotens für Task Mining
- Verbinden einer Task Mining-Anwendung
- Hinzufügen eines dedizierten Agentenknotens für Automation Suite-Roboter
- Nach der Installation
- Clusterverwaltung
- Verwalten von Produkten
- Erste Schritte mit dem Clusterverwaltungsportal
- Migrieren von Objectstore von persistentem Volume zu Raw-Festplatten
- Migrieren von Daten zwischen Objectstores
- Clusterinterner Objectstore zu einem externen Objectstore migrieren
- Wechsel zum sekundären Cluster
- Disaster Recovery: Durchführen von Vorgängen nach der Installation
- Umwandlung einer bestehenden Installation in eine Multi-Site-Einrichtung
- Richtlinien zum Upgrade einer Aktiv-/Passiv-Bereitstellung
- Leitlinien zum Sichern und Wiederherstellen einer Aktiv-/Passiv-Bereitstellung
- Überwachung und Warnungen
- Migration und Upgrade
- Migrationsoptionen
- Schritt 1: Verschieben der Identitätsorganisationsdaten von einer eigenständigen in die Automation Suite
- Schritt 2: Wiederherstellen der eigenständigen Produktdatenbank
- Schritt 3: Sichern der Plattformdatenbank in der Automation Suite
- Schritt 4: Zusammenführen von Organisationen in der Automation Suite
- Schritt 5: Aktualisieren der migrierten Produktverbindungszeichenfolgen
- Schritt 6: Migrieren von eigenständigen Insights
- Schritt 7: Löschen des Standardmandanten
- B) Migration von einzelnen Mandanten
- Produktspezifische Konfiguration
- Best Practices und Wartung
- Fehlersuche und ‑behebung
- Fehlerbehebung bei Diensten während der Installation
- Deinstallieren des Clusters
- Löschen von Offline-Artefakten für mehr Speicherplatz
- So löschen Sie Redis-Daten
- So können Sie die Istio-Protokollierung aktivieren
- So werden Protokolle manuell bereinigt
- So löschen Sie alte Protokolle, die im sf-logs-Bucket gespeichert sind
- So deaktivieren Sie Streaming-Protokolle für das AI Center
- Fehlerbehebung bei fehlgeschlagenen Automation Suite-Installationen
- So löschen Sie Bilder aus dem alten Installationsprogramm nach dem Upgrade
- Automatisches Bereinigen von Longhorn-Snapshots
- Deaktivieren von TX-Prüfsummen-Offloading
- So legen Sie die ArgoCD-Protokollebene manuell auf Info fest
- So wird der codierte pull_secret_value für externe Registrierungen generiert
- Umgang mit schwachen Verschlüsselungen in TLS 1.2
- Es kann keine Offlineinstallation auf RHEL 8.4 OS ausgeführt werden.
- Fehler beim Herunterladen des Pakets
- Die Offlineinstallation schlägt aufgrund fehlender binärer Dateien fehl
- Zertifikatproblem bei der Offlineinstallation
- Die erste Installation schlägt während des Longhorn-Setups fehl
- Validierungsfehler bei der SQL-Verbindungszeichenfolge
- Voraussetzungsprüfung für das Selinux-iscsid-Modul schlägt fehl
- Azure-Datenträger nicht als SSD markiert
- Fehler nach der Zertifikatsaktualisierung
- Virenschutz verursacht Probleme bei der Installation
- Automation Suite funktioniert nach Betriebssystem-Upgrade nicht
- Bei der Automation Suite muss „backlog_wait_time“ auf 0 gesetzt werden.
- GPU-Knoten von Nichtverfügbarkeit von Ressourcen betroffen
- Volume nicht bereitstellbar, da es nicht für Workloads bereit ist
- Fehler bei der Protokollsammlung des Supportpakets
- Das Upgrade eines einzelnen Knotens schlägt in der Fabric-Phase fehl
- Fehler im Cluster nach automatisiertem Upgrade von 2021.10
- Upgrade schlägt aufgrund eines fehlerhaften Ceph . fehl
- Rke2 wird aufgrund von Platzproblemen nicht gestartet
- SQL-Validierung schlägt während des Upgrades fehl
- Snapshot-controller-crds Pod im Status CrashLoopBackOff nach dem Upgrade
- Fehler beim Hoch- oder Herunterladen von Daten im Objektspeicher
- Die Größenänderung eines PVC bewirkt keine Korrektur von Ceph
- Fehler beim Ändern der PVC-Größe
- Fehler beim Ändern der Größe von objectstore PVC
- Rook Ceph oder Looker-Pod hängen im Init-Status fest
- Fehler beim Anhängen eines StatefulSet-Volumes
- Fehler beim Erstellen persistenter Volumes
- Patch zur Rückgewinnung von Speicherplatz
- Sicherung aufgrund des Fehlers „TooManySnapshots“ fehlgeschlagen
- Alle Longhorn-Replikate sind fehlerhaft
- Festlegen eines Timeout-Intervalls für die Verwaltungsportale
- Aktualisieren Sie die zugrunde liegenden Verzeichnisverbindungen
- Die Authentifizierung funktioniert nach der Migration nicht
- kinit: KDC kann für Realm <AD Domain> beim Abrufen der ersten Anmeldeinformationen nicht gefunden werden
- Kinit: Keytab enthält keine geeigneten Schlüssel für *** beim Abrufen der ersten Anmeldeinformationen
- GSSAPI-Vorgang aufgrund eines ungültigen Statuscodes fehlgeschlagen
- Alarm für fehlgeschlagenen Kerberos-tgt-update-Auftrag erhalten
- SSPI-Anbieter: Server in Kerberos-Datenbank nicht gefunden
- Anmeldung eines AD-Benutzers aufgrund eines deaktivierten Kontos fehlgeschlagen
- ArgoCD-Anmeldung fehlgeschlagen
- Fehler beim Abrufen des Sandbox-Abbilds
- Pods werden nicht in der ArgoCD-Benutzeroberfläche angezeigt
- Redis-Testfehler
- RKE2-Server kann nicht gestartet werden
- Secret nicht im UiPath-Namespace gefunden
- ArgoCD wechselt nach der ersten Installation in den Status „In Bearbeitung“.
- Probleme beim Zugriff auf das schreibgeschützte ArgoCD-Konto
- MongoDB-Pods in „CrashLoopBackOff“ oder ausstehende PVC-Bereitstellung nach Löschung
- Fehlerhafte Dienste nach Clusterwiederherstellung oder Rollback
- Pods stecken in Init:0/X
- Prometheus im Zustand „CrashloopBackoff“ mit OOM-Fehler (Out-of-Memory)
- Fehlende Ceph-rook-Metriken in Überwachungs-Dashboards
- Pods können nicht mit FQDN in einer Proxy-Umgebung kommunizieren
- Document Understanding erscheint nicht auf der linken Leiste der Automation Suite
- Fehlerstatus beim Erstellen einer Datenbeschriftungssitzung
- Fehlerstatus beim Versuch, eine ML-Fähigkeit bereitzustellen
- Migrationsauftrag schlägt in ArgoCD fehl
- Die Handschrifterkennung mit dem Intelligent Form Extractor funktioniert nicht oder arbeitet zu langsam
- Ausführen von Hochverfügbarkeit mit Process Mining
- Die Process Mining-Datenaufnahme ist bei der Anmeldung über Kerberos fehlgeschlagen
- Verbindung mit der Datenbank „AutomationSuite_ProcessMining_Lager“ über eine Verbindungszeichenfolge im pyodbc-Format nicht möglich
- Die Airflow-Installation schlägt mit „sqlaldemy.exc.ArgumentError“ fehl: URL konnte nicht analysiert werden rfc1738 aus Zeichenfolge „
- So fügen Sie eine IP-Tabellenregel hinzu, um den SQL Server-Port 1433 zu verwenden
- Verwenden des Automation Suite-Diagnosetools
- Verwenden des Automation Suite-Supportpakets
- Erkunden von Protokollen
Konfigurieren der Maschinen
- Um Datenverluste zu vermeiden, stellen Sie sicher, dass die von Ihnen verwendete Infrastruktur die Clusterlaufwerke beim Neustart oder Herunterfahren des Clusters nicht automatisch löscht. Wenn diese Funktion aktiviert ist, deaktivieren Sie sie.
- Um eine reibungslose und unterbrechungsfreie SSH-Sitzung sicherzustellen, empfehlen wir dringend, die Schritte in den Installationsempfehlungen zu befolgen, bevor Sie die Datenträger konfigurieren und die Automation Suite installieren.
configureUiPathDisks.sh
konfigurieren und partitionieren. Weitere Informationen finden Sie in den folgenden Abschnitten.
Vor der Installation müssen Sie den Datenträger mit LVM partitionieren und konfigurieren, damit ihre Größe einfach und ohne Datenmigration oder Datenverlust geändert werden kann.
Datenträgerpartitionierung
/var
-Partition installiert wird. Standardmäßig werden der var
-Partition nur 8 GiB Speicherplatz zugewiesen.
- Das unterstützte Format für den Datenträger ist
ext4
oderxfs
. - Alle Partitionen müssen mit LVM erstellt werden. Dies soll gewährleisten, dass sich Clusterdaten auf einem anderen Datenträger befinden können aber dennoch kohärent angezeigt werden. Dies hilft auch, die Partitionsgröße in der Zukunft zu erhöhen, ohne dass das Risiko von Datenmigration oder Datenverlust besteht.
- Alle Pods und Anwendungsprotokolle werden im Verzeichnis
/var/log/pods
gespeichert. Stellen Sie sicher, dass die Kapazität dieses Verzeichnisses mindestens 8 GiB beträgt. Wir empfehlen auch,logrotate
so zu konfigurieren, dass die Protokolle in einem Intervall von täglich bis wöchentlich rotiert werden.
Für das RHEL-Betriebssystem müssen Sie sicherstellen, dass Sie über die folgenden minimalen Mount-Punkt-Größen auf der Maschine verfügen.
Online
Datenträgerbezeichnung |
Partition |
Größe |
Zweck |
---|---|---|---|
Clusterlaufwerk |
|
190 GiB |
Der Rancher-Ordner speichert Container-Images und -Ebenen |
|
56 GiB |
Der Kubelet-Ordner speichert Kubernetes-Laufzeitkonfigurationen wie Secrets, Configmaps und emptyDir | |
|
10 GiB |
Installationsprogramm-Binärdatei | |
etcd-Datenträger |
|
16 GiB |
Verteilte Datenbank für Kubernetes |
Blockspeicher | /datadisk | 512 GiB |
Blockspeicher-Abstraktion |
Objectstore1 |
Keine Angabe | 512 GiB |
In-Cluster-Objektspeicher |
Wir empfehlen, nicht den Betriebssystemdatenträger für die oben genannten Zwecke zu verwenden, um sicherzustellen, dass Prozesse über ausreichende Ressourcen verfügen.
Offline
Die Voraussetzungen für offline sind dieselben wie für online, mit Ausnahme der Maschine, auf der Sie die Installation zuerst ausführen. Für sie gelten die folgenden Anforderungen.
Der zusätzliche Speicherplatz ist erforderlich, um das Offlinepaket zu entpacken.
Datenträgerbezeichnung |
Partition |
Größe |
Zweck |
---|---|---|---|
Clusterlaufwerk |
|
190 GiB |
Der Rancher-Ordner speichert Container-Images und -Ebenen |
|
56 GiB |
Der Kubelet-Ordner speichert Kubernetes-Laufzeitkonfigurationen wie Secrets, Configmaps und emptyDir | |
|
10 GiB |
Installationsprogramm-Binärdatei | |
etcd-Datenträger |
|
16 GiB |
Verteilte Datenbank für Kubernetes |
Blockspeicher |
|
512 GiB |
Blockspeicher-Abstraktion |
Objectstore1 |
Keine Angabe | 512 GiB |
In-Cluster-Objektspeicher |
Datenträger für das UiPath Paket | /uipath | 512 GiB |
Air-Gap-Paket |
Wir empfehlen, nicht den Betriebssystemdatenträger für die oben genannten Zwecke zu verwenden, um sicherzustellen, dass Prozesse über ausreichende Ressourcen verfügen.
Daten und etcd-Datenträger müssen separate physische Datenträger sein. Dadurch werden die Daten und etcd-Datenträger physisch von anderen Cluster-Workloads und -Aktivitäten isoliert und gleichzeitig die Leistung und Stabilität des Clusters verbessert.
Im folgenden Abschnitt finden Sie Details zur Verwendung des Beispielskripts zur Partitionierung und Konfiguration des Datenträgers vor der Installation.
Herunterladen des Skripts
configureUiPathDisks.sh
-Skript verwenden, um die Festplatte zu konfigurieren und zu partitionieren.
Anweisungen zum Herunterladen finden Sie unter ConfigureUiPathDisks.sh.
Ausführen des Skripts
configureUiPathDisks.sh
-Skript für die folgenden Zwecke verwenden:
- Konfigurieren der Datenträger und Mount-Punkte für eine neue Automation Suite-Clusterinstallation;
- Ändern der Größe des Datenträgers nach der Installation.
Um das Skript ausführbar zu machen, führen Sie Folgendes aus:
chmod +x ./configureUiPathDisks.sh
chmod +x ./configureUiPathDisks.sh
Um weitere Informationen zur Skriptverwendung zu erhalten, führen Sie Folgendes aus:
sudo ./configureUiPathDisks.sh --help
***************************************************************************************
Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk
Arguments
-n|--node-type NodeType, Possible values: agent, server. Default to server.
-i|--install-type Installation mode, Possible values: online, offline. Default to online.
-c|--cluster-disk-name Device to host rancher and kubelet. Ex: /dev/sdb.
-e|--etcd-disk-name Device to host etcd, Not required for agent node. Ex: /dev/sdb.
-R|--ceph-raw-disk-name Device to host ceph OSD, Not required for agent node. Ex: /dev/sdm
-l|--data-disk-name Device to host datadisk, Not required for agent node. Ex: /dev/sdc.
-b|--bundle-disk-name Device to host the uipath bundle.
Only required for offline installation on 1st server node.
-k|--robot-package-disk-name Device to host robot package cache folder
Only required for Automation Suite Robots dedicated node when 'packagecaching' is enabled
-P|--robot-package-path Path to robot package cache folder
(defaults to '/uipath_asrobots_package_cache' if not set)
-f|--complete-suite Installing complete product suite or any of these products:
aicenter, apps, taskmining, documentunderstanding.
This will configure the datadisk volume to be 2TiB instead of 512Gi.
-p|--primary-server Is this machine is first server machine? Applicable only for airgap install.
This is the machine on which UiPath AutomationSuite bundle will be installed.
Default to false.
-x|--extend-data-disk Extend the datadisk. Either attach new disk or resize the exiting datadisk.
-r|--resize Used in conjunction of with --extend-data-disk to resize the exiting volume,
instead of adding new volume.
-d|--debug Run in debug.
-h|--help Display help.
ExampleUsage:
configureUiPathDisks.sh --node-type server --install-type online \
--cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
--data-disk-name /dev/sdd
configureUiPathDisks.sh --data-disk-name /dev/sdh \
--extend-data-disk
***************************************************************************************
sudo ./configureUiPathDisks.sh --help
***************************************************************************************
Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk
Arguments
-n|--node-type NodeType, Possible values: agent, server. Default to server.
-i|--install-type Installation mode, Possible values: online, offline. Default to online.
-c|--cluster-disk-name Device to host rancher and kubelet. Ex: /dev/sdb.
-e|--etcd-disk-name Device to host etcd, Not required for agent node. Ex: /dev/sdb.
-R|--ceph-raw-disk-name Device to host ceph OSD, Not required for agent node. Ex: /dev/sdm
-l|--data-disk-name Device to host datadisk, Not required for agent node. Ex: /dev/sdc.
-b|--bundle-disk-name Device to host the uipath bundle.
Only required for offline installation on 1st server node.
-k|--robot-package-disk-name Device to host robot package cache folder
Only required for Automation Suite Robots dedicated node when 'packagecaching' is enabled
-P|--robot-package-path Path to robot package cache folder
(defaults to '/uipath_asrobots_package_cache' if not set)
-f|--complete-suite Installing complete product suite or any of these products:
aicenter, apps, taskmining, documentunderstanding.
This will configure the datadisk volume to be 2TiB instead of 512Gi.
-p|--primary-server Is this machine is first server machine? Applicable only for airgap install.
This is the machine on which UiPath AutomationSuite bundle will be installed.
Default to false.
-x|--extend-data-disk Extend the datadisk. Either attach new disk or resize the exiting datadisk.
-r|--resize Used in conjunction of with --extend-data-disk to resize the exiting volume,
instead of adding new volume.
-d|--debug Run in debug.
-h|--help Display help.
ExampleUsage:
configureUiPathDisks.sh --node-type server --install-type online \
--cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
--data-disk-name /dev/sdd
configureUiPathDisks.sh --data-disk-name /dev/sdh \
--extend-data-disk
***************************************************************************************
Online
Serverknoten
Um den Datenträger in einer HA-fähigen Produktionseinrichtung mit mehreren Knoten zu konfigurieren, führen Sie den folgenden Befehl auf allen Servermaschinen aus:
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk
Agent-Knoten
Um den Datenträger in einer HA-fähigen Online-Produktionseinrichtung mit mehreren Knoten zu konfigurieren, führen Sie den folgenden Befehl auf allen Agent-Maschinen aus:
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--node-type agent
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--node-type agent
Offline
Erster Serverknoten
Bei einer Offline-Installation müssen Sie die Abbilder des Produkts in die Docker-Registrierung laden. Dazu ist zusätzlicher Speicher in Form eines separaten Datenträgers erforderlich. Dieser Datenträger wird verwendet, um TAR-Produktpakete zu entpacken und Abbilder in die Docker-Registry hochzuladen. Dies muss nur auf einer Maschine vorhanden sein.
--primary-server
für eine der Servermaschinen oder die Maschine fest, auf der das Fabric- und Dienstinstallationsprogramm ausgeführt werden soll.
Um den Datenträger in einer HA-fähigen Produktionseinrichtung mit mehreren Knoten zu konfigurieren, führen Sie den folgenden Befehl auf einer der Servermaschinen aus:
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk \
--bundle-disk-name name_of_uipath_bundle_disk \
--primary-server \
--install-type offline
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk \
--bundle-disk-name name_of_uipath_bundle_disk \
--primary-server \
--install-type offline
Zusätzliche Serverknoten
--primary-server
und --bundle-disk-name
nicht anzugeben.
Um den Datenträger in einer HA-fähigen Produktionseinrichtung mit mehreren Knoten zu konfigurieren, führen Sie den folgenden Befehl auf den anderen Servermaschinen aus:
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk \
--install-type offline
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--etcd-disk-name name_of_etcd_disk \
--data-disk-name name_of_data_disk \
--install-type offline
Agent-Knoten
--primary-server
und --bundle-disk-name
nicht anzugeben.
Um den Datenträger in einer HA-fähigen Produktionseinrichtung mit mehreren Knoten zu konfigurieren, führen Sie den folgenden Befehl auf den anderen Agent-Maschinen aus.
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--node-type agent \
--install-type offline
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
--node-type agent \
--install-type offline
Sie können Ihre Speichergröße für den Objektspeicher im Cluster erweitern, indem Sie das folgende Skript ausführen:
./configureUiPathDisks.sh --ceph-raw-disk-name name_ceph_raw_disk
./configureUiPathDisks.sh --ceph-raw-disk-name name_ceph_raw_disk
-
Ein bekanntes Problem von Azure markiert die Azure-Festplatte fälschlicherweise als Nicht-SSD. Wenn Azure Ihr Cloudanbieter ist und Sie den Objectstore-Datenträger konfigurieren möchten, befolgen Sie die Anweisungen unter Fehlerbehebung.
-
Eine vertikale Skalierung der vorhandenen Datenträger wird nicht unterstützt. Um den Speicherplatz im Cluster nach der Installation zu vergrößern, fügen Sie neue unformatierte Festplatten hinzu.
Um den Datenträger zu erweitern, können Sie den neuen physischen Datenträger anschließen oder die Größe des vorhandenen Datenträgers ändern.
Hinzufügen eines neuen Datenträgers
Um den Datenträger mithilfe des neu angefügten Datenträgers zu erweitern, führen Sie den folgenden Befehl auf den Servermaschinen aus:
./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
--extend-data-disk
./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
--extend-data-disk
Ändern der Größe des vorhandenen Datenträgers
Um den Datenträger durch Ändern der Größe eines vorhandenen Datenträgers zu erweitern, führen Sie den folgenden Befehl auf den Servermaschinen aus:
./configureUiPathDisks.sh --extend-data-disk --resize
./configureUiPathDisks.sh --extend-data-disk --resize
-
Führen Sie die folgenden Schritte aus, um zu überprüfen, ob
/etc/fstab
korrekt so konfiguriert ist, dass der Neustart des Systems bewältigt werden kann.Hinweis:Stellen Sie sicher, dass Etcd- und DataDisk-Mountpunkte in der Dateifstab
stehen.Wenn Sie eine separate Festplattenpartition für/var/lib/rancher
und/var/lib/kubelet
haben, dann solltefstab
auch diese beiden Ordner enthalten. Stellen Sie auch sicher, dass Sie die Optionnofail
in diefstab
-Einträge aufnehmen, damit sie sich im Falle von Fehlern nicht auf das Booten der VM auswirkt. -
Überprüfen Sie, ob die Datenträger korrekt bereitgestellt werden, indem Sie den folgenden Befehl ausführen:
mount -afv
mount -afv -
Es sollte die folgende Antwort kommen:
/datadisk : already mounted /var/lib/rancher/rke2/server/db : already mounted /var/lib/rancher : already mounted /var/lib/kubelet : already mounted
/datadisk : already mounted /var/lib/rancher/rke2/server/db : already mounted /var/lib/rancher : already mounted /var/lib/kubelet : already mounted
Die folgende Seite hilft Linux-Administratoren bei der Verwaltung von Einstellungen auf Betriebssystem- und Kernel-Ebene, bevor sie eine Automation Suite-Installation durchführen.
Normalerweise werden diese Einstellungen über ein spezielles Verwaltungskonfigurationstool verwaltet, z. B. Puppet. Stellen Sie aus Konsistenz- und Dokumentationsgründen sicher, dass Ihre vorgenommenen Änderungen mit dem Steuerungsprozess Ihrer Umgebung übereinstimmen.
Sie müssen die folgenden Schritte ausführen, bevor Sie die Installation starten, da Fehlkonfigurationen auf Betriebssystem- und Kernel-Ebene zu unerklärlichen Fehlern führen können. Durch die Überprüfung dieser spezifischen Einstellungen können solche Fehler oft vermieden werden.
Sie müssen den Auslagerungsspeicher deaktivieren, bevor Sie die Automation Suite installieren. Es ist bekannt, dass Swap-Speicher bei Workloads in Containern Probleme verursachen können. Außerdem profitieren die Workloads der Automation Suite nicht von der Verwendung von Swap-Speicher und Kubernetes optimiert bereits die Speichernutzung.
sysctl
-Einstellungen sind auf der Maschine erforderlich:
-
IP-Weiterleitung aktivieren
-
Deaktivieren der umgekehrten Pfadfilterung
Dazu können Sie den folgenden Befehl ausführen:
cat <<EOF >>"/etc/sysctl.d/99-sysctl.conf"
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.conf.all.rp_filter=0
EOF
cat <<EOF >>"/etc/sysctl.d/99-sysctl.conf"
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.conf.all.rp_filter=0
EOF
nf-call-iptables
wird für die meisten Kubernetes-Bereitstellungen benötigt. Kubernetes erstellt virtuelle Netzwerke innerhalb des Clusters. Dadurch kann jeder Pod eine eigene IP-Adresse haben, die in Verbindung mit den internen Namensdiensten verwendet wird, um die Kommunikation zwischen den Diensten zu erleichtern. Der Cluster funktioniert nicht, wenn nf-call-iptables
nicht aktiviert ist. Weitere Informationen finden Sie in der offiziellen Kubernetes-Dokumentation.
Führen Sie den folgenden Befehl aus, um die Einstellungen zu übernehmen:
sysctl --system
sysctl --system
Bei Verwendung von fapolicy ist eine RKE2-spezifische Richtlinie erforderlich. Um diese zu generieren, verwenden Sie den folgenden Befehl:
cat <<-EOF >>"/etc/fapolicyd/rules.d/69-rke2.rules"
allow perm=any all : dir=/var/lib/rancher/
allow perm=any all : dir=/opt/cni/
allow perm=any all : dir=/run/k3s/
allow perm=any all : dir=/var/lib/kubelet/
allow perm=any all : dir=/root/.local/share/helm
EOF
cat <<-EOF >>"/etc/fapolicyd/rules.d/69-rke2.rules"
allow perm=any all : dir=/var/lib/rancher/
allow perm=any all : dir=/opt/cni/
allow perm=any all : dir=/run/k3s/
allow perm=any all : dir=/var/lib/kubelet/
allow perm=any all : dir=/root/.local/share/helm
EOF
Stellen Sie sicher, dass die Änderung Ihrem Linux-Team mitgeteilt wird und die erforderlichen Konfigurationsverwaltungsprozesse durchläuft.
/var/lib/rancher
-Bereitstellung verwendet werden, dürfen weder noexec
noch nosuid
festgelegt sein. Das Datenträgertool erstellt diese Bereitstellungen automatisch ohne diese Eigenschaften.
Wenn ein Linux-Administrator diese Eigenschaften manuell festlegt, funktioniert die Instanz nicht mehr.
Weitere Informationen zur Datenträgerkonfiguration finden Sie unter Datenträger-Voraussetzungen.
Stellen Sie sicher, dass für jede Quelle die folgenden Ports in der Firewall aktiviert sind.
Port |
Protokoll |
Quelle |
Zweck |
Anforderungen |
---|---|---|---|---|
|
TCP |
Jump Server/Clientmaschine |
Für SSH (Installation, Fehlerbehebung bei der Clusterverwaltung) |
Öffnen Sie diesen Port nicht für das Internet. Lassen Sie Zugriff auf die Clientmaschine bzw. den Jump Server zu. |
|
TCP |
Nur Offlineinstallation: erforderlich zum Senden von System-E-Mail-Benachrichtigungen. | ||
|
TCP |
Alle Knoten in einem Cluster + Lastenausgleich |
Bei HTTPS (Zugriff auf die Automation Suite) |
Dieser Port sollte über eingehende und ausgehende Verbindungen von allen Knoten im Cluster und dem Lastenausgleich verfügen. |
|
TCP |
Nur Offlineinstallation: erforderlich zum Senden von System-E-Mail-Benachrichtigungen. | ||
|
TCP |
Alle Knoten in einem Cluster |
etcd-Clientport |
Darf nicht gegenüber dem Internet exponiert werden. Der Zugriff zwischen Knoten über eine private IP-Adresse sollte ausreichend sein. |
|
TCP |
Alle Knoten in einem Cluster |
etcd-Peer-Port |
Darf nicht gegenüber dem Internet exponiert werden. Der Zugriff zwischen Knoten über eine private IP-Adresse sollte ausreichend sein. |
|
TCP |
Alle Knoten in einem Cluster |
Für den Zugriff auf Kube API mit HTTPS; erforderlich für das Verbinden von Knoten. |
Dieser Port sollte über eingehende und ausgehende Verbindungen von allen Knoten im Cluster verfügen. |
|
UDP |
Alle Knoten in einem Cluster |
Erforderlich für Cilium. |
Darf nicht gegenüber dem Internet exponiert werden. Der Zugriff zwischen Knoten über eine private IP-Adresse sollte ausreichend sein. |
|
TCP |
Alle Knoten im Cluster |
Wird von Cilium zur Überwachung und Behandlung von Pod-Abstürzen verwendet. |
Dieser Port sollte über eingehende und ausgehende Verbindungen von allen Knoten im Cluster verfügen. |
|
TCP |
Alle Knoten in einem Cluster + Lastenausgleich |
Für den Zugriff auf Kube API mit HTTPS, erforderlich für das Verbinden von Knoten |
Dieser Port sollte über eingehende und ausgehende Verbindungen von allen Knoten im Cluster und dem Lastenausgleich verfügen. |
|
TCP |
Alle Knoten in einem Cluster |
kubelet-/Metrikserver |
Darf nicht gegenüber dem Internet exponiert werden. Der Zugriff zwischen Knoten über eine private IP-Adresse sollte ausreichend sein. |
|
TCP |
Alle Knoten in einem Cluster |
NodePort-Port für die interne Kommunikation zwischen Knoten in einem Cluster |
Darf nicht gegenüber dem Internet exponiert werden. Der Zugriff zwischen Knoten über eine private IP-Adresse sollte ausreichend sein. |
6443
außerhalb der Clustergrenze ist obligatorisch, wenn eine direkte Verbindung mit der Kerberos-API besteht.
9345
wird von Knoten verwendet, um vorhandene Knoten zu erkennen und dem Cluster in der Bereitstellung mit mehreren Knoten beizutreten. Um die Erkennungsmechanismen der Hochverfügbarkeit am Laufen zu halten, empfehlen wir, ihn über den Lastausgleich mit Zustandsprüfung verfügbar zu machen.
Stellen Sie außerdem sicher, dass alle Konten eine Verbindung zum SQL-Server haben.
Exponieren Sie den SQL-Server nicht auf einem der reservierten Istio-Ports, da dies zu Verbindungsfehlern führen kann.
Wenn Sie im Netzwerk über eine Firewall verfügen, stellen Sie sicher, dass diese Ports geöffnet sind und der Datenverkehr gemäß den oben genannten Anforderungen zulässt.
Um die erforderlichen RPM-Pakete zu installieren und zu validieren, können Sie eines der folgenden Tools verwenden
- das manuelle Installationsprogramm install-uipath.sh. In Onlineumgebungen installiert und validiert er standardmäßig alle RPM-Pakete.
- Das interaktive Installationsprogramm
installUiPathAS.sh
. Es validiert alle RPM-Pakete über dasinstall-uipath.sh
-Installationsprogramm. -
- Um die RPM-Pakete zu validieren, führen Sie Folgendes aus:
validateUiPathASReadiness.sh validate-packages
; - Um die RPM-Pakete in einer Online-Installation zu installieren, führen Sie Folgendes aus:
validateUiPathASReadiness.sh install-packages
; - Um die RPM-Pakete in einer Offline-Installation zu installieren, führen Sie Folgendes aus:
validateUiPathASReadiness.sh install-packages --install-type offline
.
- Um die RPM-Pakete zu validieren, führen Sie Folgendes aus:
Eine Liste der RPM-Paketanforderungen finden Sie unter Hardware- und Softwareanforderungen.
In diesem Abschnitt wird erläutert, wie Sie FIPS 140-2 auf Ihren Maschinen aktivieren.
Sie können FIPS auf Ihren Red Hat Linux-basierten virtuellen Maschinen aktivieren. Führen Sie dazu die folgenden Schritte aus:
-
Aktivieren Sie FIPS, indem Sie den folgenden Befehl auf allen Ihren Maschinen ausführen, bevor Sie die Installation starten:
fips-mode-setup --enable
fips-mode-setup --enable -
Starten Sie Ihre Maschinen neu und überprüfen Sie, ob Sie FIPS erfolgreich aktiviert haben, indem Sie den folgenden Befehl ausführen:
fips-mode-setup --check
fips-mode-setup --check
Weitere Informationen zu den zusätzlichen Schritten, die Sie ausführen müssen, um die Automation Suite auf FIPS 140-2-Maschinen zu verwenden, finden Sie unter Bewährte Sicherheitspraktiken.
Um einen Proxy zu konfigurieren, müssen Sie bei der Schaffung der Voraussetzungen in der Umgebung und während der erweiterten Konfigurationsphase der Installation zusätzliche Konfigurationsschritte ausführen.
Beim Einrichten Ihrer Umgebung sind die folgenden Schritte erforderlich.
Stellen Sie sicher, dass die folgenden Regeln in Ihrer Netzwerksicherheitsgruppe für das gegebene virtuelle Netzwerk aktiviert sind.
Quelle |
Ziel (Destination) |
Route über Proxy |
Port |
Beschreibung |
---|---|---|---|---|
Virtuelles Netzwerk |
SQL |
Nein |
SQL Server-Port |
Erforderlich für SQL Server. |
Virtuelles Netzwerk |
Load balancer |
Nein |
|
Erforderlich, um dem Cluster neue Knoten hinzuzufügen. |
Virtuelles Netzwerk |
Cluster (Subnetz) |
Nein |
Alle Ports |
Erforderlich für die Kommunikation über einen privaten IP-Bereich. |
Virtuelles Netzwerk |
|
Nein |
|
Erforderlich für die Anmeldung und Verwendung des ArgoCD-Clients während der Bereitstellung. |
Virtuelles Netzwerk |
Proxyserver |
Ja |
Alle Ports |
Erforderlich, um Datenverkehr an den Proxyserver weiterzuleiten. |
Virtuelles Netzwerk |
NameServer |
Nein |
Alle Ports |
Die meisten Clouddienste wie Azure und AWS verwenden dies, um die VM-Metadaten abzurufen und dies als private IP zu betrachten. |
Virtuelles Netzwerk |
MetaDataServer |
Nein |
Alle Ports |
Die meisten Clouddienste wie Azure und AWS verwenden die IP-Adresse
169.254.169.254 , um Maschinenmetadaten abzurufen.
|
Beim Konfigurieren der Knoten müssen Sie die Proxykonfiguration zu jedem Knoten hinzufügen, der Teil des Clusters ist. Dieser Schritt ist erforderlich, damit ausgehender Datenverkehr vom Knoten über den Proxyserver weitergeleitet wird.
-
Fügen Sie die folgende Konfiguration in
/etc/environment
hinzu:http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>
http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server> -
Fügen Sie die folgende Konfiguration in
/etc/wgetrc
hinzu:http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>
http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>Obligatorische Parameter
Beschreibung
http_proxy
Wird zum Weiterleiten von ausgehenden HTTP-Anfragen aus dem Knoten verwendet. Dies muss der FQDN und Port des Proxyservers sein.
https_proxy
Wird zum Weiterleiten von ausgehenden HTTPS-Anfragen aus dem Knoten verwendet. Dies muss der FQDN und Port des Proxyservers sein.
no_proxy
Durch Kommas getrennte Liste von Hosts und IP-Adressen, die nicht über den Proxyserver weitergeleitet werden sollen. Dies sollte ein privates Subnetz, ein SQL-Serverhost, eine benannte Serveradresse und eine Metadatenserveradresse sein:alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>
.metadata server address
– Die meisten Clouddienste wie Azure und AWS verwenden die IP-Adresse169.254.169.254
, um Maschinenmetadaten abzurufen.named server address
– Die meisten Clouddienste wie Azure und AWS verwenden diese Option, um DNS-Abfragen aufzulösen.
Wichtig:Wenn Sie das AI Center mit einem externen Orchestrator verwenden, müssen Sie die externe Orchestrator-Domäne zur Listeno_proxy
hinzufügen. -
Überprüfen Sie, ob die Proxyeinstellungen ordnungsgemäß konfiguriert sind, indem Sie den folgenden Befehl ausführen:
curl -v $HTTP_PROXY curl -v <fixed_rke_address>:9345
curl -v $HTTP_PROXY curl -v <fixed_rke_address>:9345Wichtig: Wenn die Voraussetzungen an den Proxyserver erfüllt sind, stellen Sie sicher, dass die Proxykonfiguration während der Installation fortgesetzt wird. Führen Sie die Schritte unter Optional: Konfigurieren des Proxyservers aus, damit der Proxyserver ordnungsgemäß eingerichtet wird.
- Konfigurieren des Datenträgers
- Datenträger-Voraussetzungen
- Verwenden des Skripts zum Konfigurieren des Datenträgers
- Konfigurieren des Datenträgers für eine HA-fähige Produktionseinrichtung mit mehreren Knoten
- Konfigurieren des Objectstore-Datenträgers
- Erweitern des Datenträgers nach der Installation
- Validieren von Laufwerk-Mounts
- Konfigurieren von Einstellungen auf Kernel- und Betriebssystemebene
- Deaktivieren des Wechselspeichers
- Konfigurieren der „sysctl“-Einstellungen
- Konfigurieren von fapolicy-Einstellungen
- Konfigurieren von noexec- und nosuid-Einstellungen
- Aktivieren von Ports
- Installieren der erforderlichen RPM-Pakete
- Optional: Aktivieren von FIPS 140-2
- Optional: Konfigurieren des Proxyservers
- Schritt 1: Aktivieren von Ports im virtuellen Netzwerk
- Schritt 2: Hinzufügen der Proxykonfiguration zu den einzelnen Knoten