- Überblick
- Anforderungen
- Bereitstellungsvorlagen
- Anleitung: Vorbereiten der Installation
- Anleitung: Vorbereiten der Installation
- Schritt 1: Konfigurieren der OCI-konformen Registrierung für Offline-Installationen
- Schritt 2: Konfigurieren des externen Objektspeichers
- Schritt 3: Konfigurieren eines High Availability Add-ons
- Schritt 4: Konfigurieren der SQL-Datenbanken
- Schritt 5: Konfigurieren des Lastausgleichs
- Schritt 6: Konfigurieren des DNS
- Schritt 7: Konfigurieren der Datenträger
- Schritt 8: Konfigurieren der Einstellungen auf Kernel- und Betriebssystemebene
- Schritt 9: Konfigurieren der Knotenports
- Schritt 10: Anwenden verschiedener Einstellungen
- Schritt 12: Validieren und Installieren der erforderlichen RPM-Pakete
- Cluster_config.json-Beispiel
- Allgemeine Konfiguration
- Profilkonfiguration
- Zertifikatkonfiguration
- Datenbankkonfiguration
- Konfiguration des externen Objektspeichers
- Vorsignierte URL-Konfiguration
- ArgoCD-Konfiguration
- Externe OCI-konforme Registrierungskonfiguration
- Disaster Recovery: Aktiv/Passiv- und Aktiv/Aktiv-Konfigurationen
- Konfiguration des High Availability Add-ons
- Spezifische Orchestrator-Konfiguration
- Insights-spezifische Konfiguration
- Process Mining-spezifische Konfiguration
- Spezifische Konfiguration für Document Understanding
- Spezifische Konfiguration für Automation Suite Robots
- AI Center-spezifische Konfiguration
- Konfiguration der Überwachung
- Optional: Konfigurieren des Proxyservers
- Optional: Aktivieren der Widerstandsfähigkeit gegen zonale Ausfälle in einem HA-fähigen Produktionscluster mit mehreren Knoten
- Optional: Übergeben einer benutzerdefinierten resolv.conf-Datei
- Optional: Erhöhen der Fehlertoleranz
- Hinzufügen eines dedizierten Agent-Knotens mit GPU-Unterstützung
- Hinzufügen eines dedizierten Agent-Knotens für Task Mining
- Verbinden einer Task Mining-Anwendung
- Hinzufügen eines dedizierten Agentenknotens für Automation Suite-Roboter
- Schritt 15: Konfigurieren der temporären Docker-Registrierung für Offline-Installationen
- Schritt 16: Validieren der Voraussetzungen für die Installation
- Manuell: Durchführen der Installation
- Nach der Installation
- Clusterverwaltung
- Verwalten von Produkten
- Erste Schritte mit dem Clusterverwaltungsportal
- Migrieren von Objectstore von persistentem Volume zu Raw-Festplatten
- Migrieren vom clusterinternen zum externen High Availability Add-on
- Migrieren von Daten zwischen Objectstores
- Clusterinterner Objectstore zu einem externen Objectstore migrieren
- Migrieren zu einer externen OCI-konformen Registrierung
- Manueller Wechsel zum sekundären Cluster in einem Aktiv-/Passiv-Setup
- Disaster Recovery: Durchführen von Vorgängen nach der Installation
- Umwandlung einer bestehenden Installation in eine Multi-Site-Einrichtung
- Richtlinien zum Upgrade einer Aktiv/Passiv- oder Aktiv/Aktiv-Bereitstellung
- Leitlinien zum Sichern und Wiederherstellen einer Aktiv-/Passiv- oder Aktiv/Aktiv-Bereitstellung
- Skalieren einer Bereitstellung mit einem einzelnen Knoten (Auswertung) zu einer Bereitstellung mit mehreren Knoten (HA).
- Überwachung und Warnungen
- Migration und Upgrade
- Migrieren von eigenständigen Produkten zur Automation Suite
- Schritt 1: Wiederherstellen der eigenständigen Produktdatenbank
- Schritt 2: Aktualisieren des Schemas der wiederhergestellten Produktdatenbank
- Schritt 3: Verschieben der Identitätsorganisationsdaten von der eigenständigen Bereitstellung in die Automation Suite
- Schritt 4: Sichern der Plattformdatenbank in der Automation Suite
- Schritt 5: Zusammenführen von Organisationen in der Automation Suite
- Schritt 6: Aktualisieren der migrierten Produktverbindungszeichenfolgen
- Schritt 7: Migrieren des eigenständigen Orchestrator
- Schritt 8: Migrieren von eigenständigen Insights
- Schritt 9: Löschen des Standardmandanten
- Durchführen der Migration eines einzelnen Mandanten
- Migrieren zwischen Automation Suite-Clustern
- Aktualisieren der Automation Suite
- Herunterladen der Installationspakete und Übertragen aller Dateien auf den ersten Serverknoten
- Abrufen der zuletzt angewendeten Konfiguration aus dem Cluster
- Aktualisieren der Clusterkonfiguration
- Konfigurieren der OCI-konformen Registrierung für Offline-Installationen
- Ausführen des Upgrades
- Durchführen von Vorgängen nach dem Upgrade
- Produktspezifische Konfiguration
- Konfigurieren von Orchestrator-Parametern
- Konfigurieren von AppSettings
- Konfigurieren der maximalen Anforderungsgröße
- Überschreiben der Speicherkonfiguration auf Clusterebene
- Konfigurieren von NLog
- Speichern von Roboterprotokollen in Elasticsearch
- Konfigurieren von Anmeldeinformationsspeichern
- Konfigurieren der Verwendung von einem Verschlüsselungsschlüssel pro Mandant
- Bereinigen der Orchestrator-Datenbank
- Best Practices und Wartung
- Fehlersuche und ‑behebung
- Fehlerbehebung bei Diensten während der Installation
- Deinstallieren des Clusters
- Löschen von Offline-Artefakten für mehr Speicherplatz
- So löschen Sie Redis-Daten
- So können Sie die Istio-Protokollierung aktivieren
- So werden Protokolle manuell bereinigt
- So löschen Sie alte Protokolle, die im sf-logs-Bucket gespeichert sind
- So deaktivieren Sie Streaming-Protokolle für das AI Center
- Fehlerbehebung bei fehlgeschlagenen Automation Suite-Installationen
- So löschen Sie Bilder aus dem alten Installationsprogramm nach dem Upgrade
- Deaktivieren von TX-Prüfsummen-Offloading
- So legen Sie die ArgoCD-Protokollebene manuell auf Info fest
- So erweitern Sie den AI Center-Speicher
- So wird der codierte pull_secret_value für externe Registrierungen generiert
- Umgang mit schwachen Verschlüsselungen in TLS 1.2
- So überprüfen Sie die TLS-Version
- So arbeiten Sie mit Zertifikaten
- So planen Sie die Ceph-Sicherung und Wiederherstellung von Daten
- So löschen Sie ungenutzte Docker-Images aus Registrierungs-Pods
- Es kann keine Offlineinstallation auf RHEL 8.4 OS ausgeführt werden.
- Fehler beim Herunterladen des Pakets
- Die Offlineinstallation schlägt aufgrund fehlender binärer Dateien fehl
- Zertifikatproblem bei der Offlineinstallation
- Validierungsfehler bei der SQL-Verbindungszeichenfolge
- Voraussetzungsprüfung für das Selinux-iscsid-Modul schlägt fehl
- Azure-Datenträger nicht als SSD markiert
- Fehler nach der Zertifikatsaktualisierung
- Virenschutz verursacht Probleme bei der Installation
- Automation Suite funktioniert nach Betriebssystem-Upgrade nicht
- Bei der Automation Suite muss „backlog_wait_time“ auf 0 gesetzt werden.
- Volume nicht bereitstellbar, da es nicht für Workloads bereit ist
- Fehler bei der Protokollsammlung des Supportpakets
- Die temporäre Registrierungsinstallation schlägt unter RHEL 8.9 fehl
- Datenverlust bei der Neuinstallation oder Aktualisierung von Insights nach dem Automation Suite-Upgrade
- Zugriff auf Automation Hub nach Upgrade auf Automation Suite 2024.10.0 nicht mehr möglich
- Das Upgrade eines einzelnen Knotens schlägt in der Fabric-Phase fehl
- Upgrade schlägt aufgrund eines fehlerhaften Ceph . fehl
- Rke2 wird aufgrund von Platzproblemen nicht gestartet
- Datenträger kann nicht verbunden werden und verbleibt im Status der „Attach/Detach“-Schleife
- Upgrade schlägt aufgrund von klassischen Objekten in der Orchestrator-Datenbank fehl
- Ceph-Cluster in beeinträchtigtem Status nach parallelem Upgrade
- Fehlerhafte Insights-Komponente verursacht Fehlschlag der Migration
- Dienst-Upgrade schlägt für Apps fehl
- Timeouts beim direkten Upgrade
- Docker-Registrierungsmigration bleibt in PVC-Löschphase hängen
- AI Center-Bereitstellungsfehler nach Upgrade auf 2023.10 oder höher
- Upgrade schlägt in Offline-Umgebungen fehl
- SQL-Validierung schlägt während des Upgrades fehl
- Snapshot-controller-crds Pod im Status CrashLoopBackOff nach dem Upgrade
- Upgrade schlägt aufgrund überschriebener Insights-PVC-Größen fehl
- Fehler beim Upgrade auf Automation Suite 2024.10.1
- Upgrade schlägt aufgrund eines Velero-Migrationsproblems fehl
- Fehler beim Hoch- oder Herunterladen von Daten im Objektspeicher
- Die Größenänderung eines PVC bewirkt keine Korrektur von Ceph
- Fehler beim Ändern der Größe von objectstore PVC
- Rook Ceph oder Looker-Pod hängen im Init-Status fest
- Fehler beim Anhängen eines StatefulSet-Volumes
- Fehler beim Erstellen persistenter Volumes
- Festlegen eines Timeout-Intervalls für die Verwaltungsportale
- Die Authentifizierung funktioniert nach der Migration nicht
- kinit: KDC kann für Realm <AD Domain> beim Abrufen der ersten Anmeldeinformationen nicht gefunden werden
- Kinit: Keytab enthält keine geeigneten Schlüssel für *** beim Abrufen der ersten Anmeldeinformationen
- GSSAPI-Vorgang aufgrund eines ungültigen Statuscodes fehlgeschlagen
- Alarm für fehlgeschlagenen Kerberos-tgt-update-Auftrag erhalten
- SSPI-Anbieter: Server in Kerberos-Datenbank nicht gefunden
- Anmeldung eines AD-Benutzers aufgrund eines deaktivierten Kontos fehlgeschlagen
- ArgoCD-Anmeldung fehlgeschlagen
- Aktualisieren Sie die zugrunde liegenden Verzeichnisverbindungen
- Der Roboter kann keine Verbindung mit einer Automation Suite-Orchestrator-Instanz herstellen
- Teilweiser Fehler beim Wiederherstellen der Sicherung in der Automation Suite 2024.10.0
- Fehler beim Abrufen des Sandbox-Abbilds
- Pods werden nicht in der ArgoCD-Benutzeroberfläche angezeigt
- Redis-Testfehler
- RKE2-Server kann nicht gestartet werden
- Secret nicht im UiPath-Namespace gefunden
- ArgoCD wechselt nach der ersten Installation in den Status „In Bearbeitung“.
- MongoDB-Pods in „CrashLoopBackOff“ oder ausstehende PVC-Bereitstellung nach Löschung
- Pods stecken in Init:0/X
- Fehlende Ceph-rook-Metriken in Überwachungs-Dashboards
- Diskrepanz bei gemeldeten Fehlern bei diagnostischen Zustandsprüfungen
- Kein normales Upstream-Problem
- Document Understanding erscheint nicht auf der linken Leiste der Automation Suite
- Fehlerstatus beim Erstellen einer Datenbeschriftungssitzung
- Fehlerstatus beim Versuch, eine ML-Fähigkeit bereitzustellen
- Migrationsauftrag schlägt in ArgoCD fehl
- Die Handschrifterkennung mit dem Intelligent Form Extractor funktioniert nicht oder arbeitet zu langsam
- Ausführen von Hochverfügbarkeit mit Process Mining
- Die Process Mining-Datenaufnahme ist bei der Anmeldung über Kerberos fehlgeschlagen
- Nach Disaster Recovery funktioniert Dapr für Process Mining nicht mehr ordnungsgemäß
- Verbindung mit der Datenbank „AutomationSuite_ProcessMining_Lager“ über eine Verbindungszeichenfolge im pyodbc-Format nicht möglich
- Die Airflow-Installation schlägt mit „sqlaldemy.exc.ArgumentError“ fehl: URL konnte nicht analysiert werden rfc1738 aus Zeichenfolge „
- So fügen Sie eine IP-Tabellenregel hinzu, um den SQL Server-Port 1433 zu verwenden
- Dem Automation Suite-Zertifikat des Servers, auf dem CData Sync ausgeführt wird, wird nicht vertraut
- Ausführen des Diagnosetools
- Verwenden des Automation Suite-Supportpakets
- Erkunden von Protokollen
- Untersuchen der zusammengefassten Telemetrie

Automation Suite unter Linux – Installationsanleitung
Schritt 7: Konfigurieren der Datenträger
Bevor Sie eine Automation Suite-Installation durchführen, müssen Sie den Datenträger mit LVM partitionieren und konfigurieren, damit Sie seine Größe einfach und ohne Datenmigration oder Datenverlust ändern können.
/var
installiert ist, der standardmäßig nur 8 GB Speicherplatz zugewiesen sind.
- Das unterstützte Format für die Datenträger ist
ext4
oderxfs
. - Sie müssen alle Partitionen mit LVM erstellen, um sicherzustellen, dass die Clusterdaten auf einer anderen Festplatte liegen können, aber dennoch kohärent angezeigt werden. Somit lässt sich die Partitionsgröße auch in Zukunft erweitern, ohne dass die Gefahr einer Datenmigration oder eines Datenverlusts besteht.
- Alle Pods und Anwendungsprotokolle werden im Verzeichnis
/var/log/pods
gespeichert. Stellen Sie sicher, dass die Kapazität dieses Verzeichnisses mindestens 8 GB beträgt. Wir empfehlen auch,logrotate
so zu konfigurieren, dass die Protokolle in einem Intervall von täglich bis wöchentlich rotiert werden. -
Wenn Sie ein RKE2-Setup mit einem einzelnen Knoten und Speicher im Cluster verwenden, müssen Sie mindestens weitere 512 GB Speicherplatz für die Speicherung von Ceph-Datensicherungen bereitstellen. Weitere Informationen finden Sie unter Planen der Ceph-Sicherung und Wiederherstellen von Daten.
Die Datenträgeranforderungen für Online- und Offlineinstallationen sind identisch, mit Ausnahme des zusätzlich erforderlichen Speicherplatzes zum Entpacken des UiPath®-Offlinepakets.
Stellen Sie für das RHEL-Betriebssystem sicher, dass Sie über die folgenden minimalen Mount-Punkt-Größen auf der Maschine verfügen.
Datenträgerbezeichnung |
Server |
Mitarbeiter |
Partition |
Größe |
Zweck |
---|---|---|---|---|---|
Clusterlaufwerk Hinweis: Wenn Sie Document Understanding in modernen Projekten aktivieren, beträgt die Mindestgröße 400 GB.
|
|
|
|
190 GB |
Speichert die Container-Images und -Ebenen. |
|
56 GB |
Speichert Laufzeit-Kubernetes-Konfigurationen wie Secrets, ConfigMaps und emptyDir. | |||
|
10 GB |
Speichert die Binärdatei des Installationsprogramms. | |||
etcd-Datenträger |
|
|
|
16 GB |
Speichert die verteilte Datenbank für Kubernetes |
DataDisk |
|
|
|
15 GB |
Erforderlich für Insights. |
|
50 GB |
Erforderlich für die Überwachungstools. | |||
/datadisk/registry 1 |
200 GB |
Erforderlich für die Docker-Registrierung. | |||
/datadisk/objectstore 2 |
10 GB |
Erforderlich für ceph-mon. | |||
Objectstore2 |
|
|
Keine Angabe | 512 GB |
Erforderlich für clusterinternen Objectstore. |
AI Center3 |
|
|
Keine Angabe |
51 GB Minimum und 105 GB empfohlen für 1 Trainingspipeline. |
Nur erforderlich, wenn Sie das AI Center installieren. |
Datenträger für das UiPath®-Paket |
|
| /uipath | 512 GB |
Nur für Offline-Installationen erforderlich, um das Offlinepaket zu speichern. |
Ceph-Sicherung |
|
| /backup | 512 GB | Nur für die Einrichtung von RKE2 mit einem einzelnen Knoten und Speicher im Cluster erforderlich, um Ceph-Datensicherungen zu speichern. |
2 Dies bezieht sich auf den clusterinternen Objektspeicher und entfällt, wenn Sie einen externen Objektspeicher verwenden.
3 Das ist der Speicher, der von der AI Center-Trainingspipeline benötigt wird. Der Datenträger ist nur auf den Maschinen erforderlich, auf denen Sie die AI Center-Trainingspipeline ausführen möchten, und auf dem speziellen Task Mining-Knoten. Es wird empfohlen, diesen Datenträger auf den Agentmaschinen bereitzustellen.
Wir empfehlen, nicht den Betriebssystemdatenträger für den obigen Zweck zu verwenden, um sicherzustellen, dass Prozesse über ausreichende Ressourcen verfügen.
uipathctl
verwenden.
uipathctl
ist Teil des as-installer.zip
-Installationspakets. Um uipathctl
zu verwenden, führen Sie die folgenden Schritte aus:
-
Laden Sie
as-installer.zip
herunter und speichern Sie es an einem temporären Speicherort. Anweisungen zum Herunterladen finden Sie unter as-installer.zip. -
Extrahieren Sie den Inhalt, indem Sie den folgenden Befehl ausführen:
unzip as-installer.zip -d installer
unzip as-installer.zip -d installer
uipathctl
zum Konfigurieren der Datenträger zu erhalten, führen Sie den folgenden Befehl aus: ./bin/uipathctl rke2 disk --help
./bin/uipathctl rke2 disk --help
Um den Clusterdatenträger zu konfigurieren, führen Sie den folgenden Befehl auf allen Maschinen aus:
./bin/uipathctl rke2 disk --cluster-disk-name name_of_cluster_disk
./bin/uipathctl rke2 disk --cluster-disk-name name_of_cluster_disk
Um den etcd-Datenträger zu konfigurieren, führen Sie den folgenden Befehl auf allen Servermaschinen aus:
./bin/uipathctl rke2 disk --etcd-disk-name name_of_etcd_disk
./bin/uipathctl rke2 disk --etcd-disk-name name_of_etcd_disk
lsblk
aus, um alle Blockgeräte, ihre Größen und Mount-Punkte aufzulisten. Verwenden Sie die Datenträgergröße, um den relevanten Datenträger zu identifizieren (für das Flag --volume
sollte der 512-GB-Datenträger verwendet werden).
Führen Sie den folgenden Befehl auf allen Servermaschinen aus und geben Sie die erforderlichen Flags basierend auf Ihren Anforderungen an:
./bin/uipathctl rke2 disk --volume name_of_data_disk
./bin/uipathctl rke2 disk --volume name_of_data_disk
Markieren |
Wert |
---|---|
|
Beispiel für einen Datenträgernamen:
/dev/sde Sie benötigen den Datenträgernamen bei der Partitionierung der Datenträger, die die verschiedenen Bereitstellungen für Überwachung, Insights, den Objektspeicher und die Registrierung hosten. Die Angabe des Datenträgernamens ist bei der ersten Konfiguration des Datenträgers obligatorisch. Wird er beim anschließenden Durchlauf nicht angegeben, wird die Partition für die gewählte Komponente auf einem vorhandenen, mit
uipathdatavg verknüpften Datenträger erstellt.
|
|
Optional. Nur erforderlich, wenn die externe Registrierung nicht verfügbar ist. |
|
Optionales Flag. Die Überwachungspartition (Prometheus-Speicher) ist obligatorisch, wird also automatisch erstellt, auch wenn das Flag bei der ersten Ausführung nicht ausdrücklich übergeben wird. Das Flag wird jedoch in der nachfolgenden Ausführung während der Größenänderung der Überwachungspartition zusammen mit dem Flag
--size benötigt.
|
|
Optionales Flag. Nur erforderlich, wenn der externe Objektspeicher nicht verfügbar ist. Wenn sie verwendet wird, wird auch die für ceph-mon erforderliche
datadisk -Partition erstellt. Weitere Informationen finden Sie unter Partitionieren der Datenträger.
|
|
Optionales Flag. Die Insights-Partition wird automatisch erstellt, auch wenn das Flag bei der ersten Ausführung nicht ausdrücklich übergeben wird. Die Insights-Speicherkonfiguration ist bei der Infrastrukturinstallation erforderlich, damit Sie Insights nach der Installation aktivieren können. Das Flag wird jedoch in der nachfolgenden Ausführung während der Größenänderung der Insights-Partition zusammen mit dem Flag
--size benötigt.
|
|
Optional. Bei Angabe des Integer-Wertes wird die Größe der ausgewählten Komponente geändert, sofern genügend Platz vorhanden ist. Andernfalls wird der gesamte Datenträger verbraucht, um die ausgewählte Partition zu erweitern. Es muss genau eine Partition angegeben werden, deren Größe geändert werden muss. Hinweis:
Die Option
--size ist während der Datenträgerkonfiguration nicht erforderlich. Sie kann nach der Konfiguration zur Erweiterung der Datenträgergröße verwendet werden.
|
|
Pfad zum Speicherort auf dem Knoten Automation Suite Robots, um das Paket für die Zwischenspeicherung herunterzuladen. Dies muss nur auf dem Automation Suite Robots-Knoten durchgeführt werden. |
--size
zu ändern, wie im folgenden Beispiel gezeigt:
./bin/uipathctl rke2 disk --docker-registry --size 300
./bin/uipathctl rke2 disk --docker-registry --size 300
Dieser Schritt ist nur erforderlich, wenn der externe Objektspeicher nicht verfügbar ist.
Sie können die Speichergröße für den Objektspeicher im Cluster hinzufügen oder erweitern, indem Sie das folgende Skript auf allen Serverknoten ausführen:
./bin/uipathctl rke2 disk --ceph-raw-disk-name name_ceph_raw_disk
./bin/uipathctl rke2 disk --ceph-raw-disk-name name_ceph_raw_disk
-
Ein bekanntes Problem von Azure markiert die Azure-Festplatte fälschlicherweise als Nicht-SSD. Wenn Azure Ihr Cloudanbieter ist und Sie den Objectstore-Datenträger konfigurieren möchten, befolgen Sie die Anweisungen unter Fehlerbehebung.
-
Eine vertikale Skalierung der vorhandenen Datenträger wird nicht unterstützt. Um den Speicherplatz im Cluster nach der Installation zu vergrößern, fügen Sie neue unformatierte Festplatten hinzu.
Um den AI Center-Datenträger zu konfigurieren, führen Sie den folgenden Befehl auf den Maschinen aus, auf denen Sie die Trainingspipelines ausführen möchten:
./bin/uipathctl rke2 disk --aicenter-disk-name name_of_aicenter_disk_to_partition
./bin/uipathctl rke2 disk --aicenter-disk-name name_of_aicenter_disk_to_partition
So erweitern Sie den Speicher für das AI Center:
-
Wenn Sie einen neuen AI Center-Datenträger hinzufügen möchten, führen Sie den folgenden Befehl auf der Maschine aus, auf der Sie den Datenträger hinzufügen möchten:
./bin/uipathctl rke2 disk --aicenter-storage-extend name_of_new_aicenter_disk_to_attach
./bin/uipathctl rke2 disk --aicenter-storage-extend name_of_new_aicenter_disk_to_attach -
Wenn Sie den vorhandenen AI Center-Datenträger erweitert haben, führen Sie den folgenden Befehl auf der Maschine aus, auf der der zugrunde liegende AI Center-Datenträger erweitert wird:
./bin/uipathctl rke2 disk --aicenter-storage-extend
./bin/uipathctl rke2 disk --aicenter-storage-extend
Dieser Schritt ist für Setups mit einem einzigen Knoten ohne eigenen Automation Suite Robot-Agent erforderlich.
Um den Automation Suite Robot-Paket-Cache auf dem Serverknoten zu hosten, müssen Sie einen Datenträger mit mindestens 10 GB erstellen:
./bin/uipathctl rke2 disk --volume name_of_data_disk --robot-package-cache
./bin/uipathctl rke2 disk --volume name_of_data_disk --robot-package-cache
Dieser Schritt ist in den folgenden Szenarien erforderlich:
-
Bei einer Offline-Installation (Air-Gap);
-
Wenn keine externe Registrierung verfügbar ist.
Um den Bundle-Datenträger zu konfigurieren, führen Sie den folgenden Befehl nur auf dem ersten Serverknoten aus:
./bin/uipathctl rke2 disk --bundle-disk-name name_of_bundle_disk
./bin/uipathctl rke2 disk --bundle-disk-name name_of_bundle_disk
fstab
hinzufügen und die Option nofail
in diese fstab
-Einträge aufnehmen, damit der Start der VM im Falle eines Fehlers nicht beeinträchtigt wird.
/etc/fstab
korrekt konfiguriert ist und einen Neustart des Systems bewältigen kann, führen Sie die folgenden Schritte und den folgenden Befehl aus:
mount -afv
mount -afv
Sie sollten die folgende Ausgabe erhalten:
/var/lib/rancher : already mounted
/var/lib/kubelet : already mounted
/opt/UiPathAutomationSuite : already mounted
/datadisk/monitoring : already mounted
/datadisk/insights : already mounted
/var/lib/rancher/rke2/server/db : already mounted
# Additional mount point is require if customer is installing offline with internal registry
/datadisk/registry : already mounted
# Additional mount point is require if customer is using in-cluster objectstore
/datadisk/objectstore : already mounted
/var/lib/rancher : already mounted
/var/lib/kubelet : already mounted
/opt/UiPathAutomationSuite : already mounted
/datadisk/monitoring : already mounted
/datadisk/insights : already mounted
/var/lib/rancher/rke2/server/db : already mounted
# Additional mount point is require if customer is installing offline with internal registry
/datadisk/registry : already mounted
# Additional mount point is require if customer is using in-cluster objectstore
/datadisk/objectstore : already mounted
- Partitionieren der Datenträger
- Verwenden von uipathctl zum Konfigurieren der Datenträger
- Herunterladen von uipathctl
- Konfigurieren des Clusterdatenträgers auf allen Maschinen
- Konfigurieren des etcd-Datenträgers auf allen Servermaschinen
- Konfigurieren des Datenträgers auf allen Servermaschinen
- Konfigurieren des Objektspeicherdatenträgers auf allen Servermaschinen
- Konfigurieren des AI Center-Datenträgers auf ausgewählten Maschinen
- Konfigurieren des Hosting-Datenträgers für den Automation Suite Robot-Paket-Cache
- Konfigurieren des Bundle-Datenträgers auf dem ersten Serverknoten für die Registrierung im Cluster
- Validieren von Laufwerk-Mounts