- Überblick
- Anforderungen
- Bereitstellungsvorlagen
- Anleitung: Vorbereiten der Installation
- Anleitung: Vorbereiten der Installation
- Schritt 1: Konfigurieren der OCI-konformen Registrierung für Offline-Installationen
- Schritt 2: Konfigurieren des externen Objektspeichers
- Schritt 3: Konfigurieren eines High Availability Add-ons
- Schritt 4: Konfigurieren der SQL-Datenbanken
- Schritt 5: Konfigurieren des Lastausgleichs
- Schritt 6: Konfigurieren des DNS
- Schritt 7: Konfigurieren der Datenträger
- Schritt 8: Konfigurieren der Einstellungen auf Kernel- und Betriebssystemebene
- Schritt 9: Konfigurieren der Knotenports
- Schritt 10: Anwenden verschiedener Einstellungen
- Schritt 12: Validieren und Installieren der erforderlichen RPM-Pakete
- Cluster_config.json-Beispiel
- Allgemeine Konfiguration
- Profilkonfiguration
- Zertifikatkonfiguration
- Datenbankkonfiguration
- Konfiguration des externen Objektspeichers
- Vorsignierte URL-Konfiguration
- ArgoCD-Konfiguration
- Externe OCI-konforme Registrierungskonfiguration
- Disaster Recovery: Aktiv/Passiv- und Aktiv/Aktiv-Konfigurationen
- Konfiguration des High Availability Add-ons
- Spezifische Orchestrator-Konfiguration
- Insights-spezifische Konfiguration
- Process Mining-spezifische Konfiguration
- Spezifische Konfiguration für Document Understanding
- Spezifische Konfiguration für Automation Suite Robots
- AI Center-spezifische Konfiguration
- Konfiguration der Überwachung
- Optional: Konfigurieren des Proxyservers
- Optional: Aktivieren der Widerstandsfähigkeit gegen zonale Ausfälle in einem HA-fähigen Produktionscluster mit mehreren Knoten
- Optional: Übergeben einer benutzerdefinierten resolv.conf-Datei
- Optional: Erhöhen der Fehlertoleranz
- Hinzufügen eines dedizierten Agent-Knotens mit GPU-Unterstützung
- Hinzufügen eines dedizierten Agent-Knotens für Task Mining
- Verbinden einer Task Mining-Anwendung
- Hinzufügen eines dedizierten Agentenknotens für Automation Suite-Roboter
- Schritt 15: Konfigurieren der temporären Docker-Registrierung für Offline-Installationen
- Schritt 16: Validieren der Voraussetzungen für die Installation
- Manuell: Durchführen der Installation
- Nach der Installation
- Clusterverwaltung
- Verwalten von Produkten
- Erste Schritte mit dem Clusterverwaltungsportal
- Einrichten des externen NFS-Servers
- Konfigurieren des Sicherungsspeichers
- Sichern des Clusters
- Zusätzliche Konfiguration
- Wiederherstellen der Sicherung
- Migrieren von Objectstore von persistentem Volume zu Raw-Festplatten
- Migrieren vom clusterinternen zum externen High Availability Add-on
- Migrieren von Daten zwischen Objectstores
- Clusterinterner Objectstore zu einem externen Objectstore migrieren
- Migrieren zu einer externen OCI-konformen Registrierung
- Manueller Wechsel zum sekundären Cluster in einem Aktiv-/Passiv-Setup
- Disaster Recovery: Durchführen von Vorgängen nach der Installation
- Umwandlung einer bestehenden Installation in eine Multi-Site-Einrichtung
- Richtlinien zum Upgrade einer Aktiv/Passiv- oder Aktiv/Aktiv-Bereitstellung
- Leitlinien zum Sichern und Wiederherstellen einer Aktiv-/Passiv- oder Aktiv/Aktiv-Bereitstellung
- Skalieren einer Bereitstellung mit einem einzelnen Knoten (Auswertung) zu einer Bereitstellung mit mehreren Knoten (HA).
- Überwachung und Warnungen
- Migration und Upgrade
- Migrieren von eigenständigen Produkten zur Automation Suite
- Schritt 1: Wiederherstellen der eigenständigen Produktdatenbank
- Schritt 2: Aktualisieren des Schemas der wiederhergestellten Produktdatenbank
- Schritt 3: Verschieben der Identitätsorganisationsdaten von der eigenständigen Bereitstellung in die Automation Suite
- Schritt 4: Sichern der Plattformdatenbank in der Automation Suite
- Schritt 5: Zusammenführen von Organisationen in der Automation Suite
- Schritt 6: Aktualisieren der migrierten Produktverbindungszeichenfolgen
- Schritt 7: Migrieren des eigenständigen Orchestrator
- Schritt 8: Migrieren von eigenständigen Insights
- Schritt 9: Löschen des Standardmandanten
- Durchführen der Migration eines einzelnen Mandanten
- Migrieren zwischen Automation Suite-Clustern
- Aktualisieren der Automation Suite
- Herunterladen der Installationspakete und Übertragen aller Dateien auf den ersten Serverknoten
- Abrufen der zuletzt angewendeten Konfiguration aus dem Cluster
- Aktualisieren der Clusterkonfiguration
- Konfigurieren der OCI-konformen Registrierung für Offline-Installationen
- Ausführen des Upgrades
- Durchführen von Vorgängen nach dem Upgrade
- Produktspezifische Konfiguration
- Konfigurieren von Orchestrator-Parametern
- Konfigurieren von AppSettings
- Konfigurieren der maximalen Anforderungsgröße
- Überschreiben der Speicherkonfiguration auf Clusterebene
- Konfigurieren von NLog
- Speichern von Roboterprotokollen in Elasticsearch
- Konfigurieren von Anmeldeinformationsspeichern
- Konfigurieren der Verwendung von einem Verschlüsselungsschlüssel pro Mandant
- Bereinigen der Orchestrator-Datenbank
- Best Practices und Wartung
- Fehlersuche und ‑behebung
- Fehlerbehebung bei Diensten während der Installation
- Deinstallieren des Clusters
- Löschen von Offline-Artefakten für mehr Speicherplatz
- So löschen Sie Redis-Daten
- So können Sie die Istio-Protokollierung aktivieren
- So werden Protokolle manuell bereinigt
- So löschen Sie alte Protokolle, die im sf-logs-Bucket gespeichert sind
- So deaktivieren Sie Streaming-Protokolle für das AI Center
- Fehlerbehebung bei fehlgeschlagenen Automation Suite-Installationen
- So löschen Sie Bilder aus dem alten Installationsprogramm nach dem Upgrade
- Deaktivieren von TX-Prüfsummen-Offloading
- So legen Sie die ArgoCD-Protokollebene manuell auf Info fest
- So erweitern Sie den AI Center-Speicher
- So wird der codierte pull_secret_value für externe Registrierungen generiert
- Umgang mit schwachen Verschlüsselungen in TLS 1.2
- So überprüfen Sie die TLS-Version
- So arbeiten Sie mit Zertifikaten
- So planen Sie die Ceph-Sicherung und Wiederherstellung von Daten
- So löschen Sie ungenutzte Docker-Images aus Registrierungs-Pods
- Es kann keine Offlineinstallation auf RHEL 8.4 OS ausgeführt werden.
- Fehler beim Herunterladen des Pakets
- Die Offlineinstallation schlägt aufgrund fehlender binärer Dateien fehl
- Zertifikatproblem bei der Offlineinstallation
- Validierungsfehler bei der SQL-Verbindungszeichenfolge
- Voraussetzungsprüfung für das Selinux-iscsid-Modul schlägt fehl
- Azure-Datenträger nicht als SSD markiert
- Fehler nach der Zertifikatsaktualisierung
- Virenschutz verursacht Probleme bei der Installation
- Automation Suite funktioniert nach Betriebssystem-Upgrade nicht
- Bei der Automation Suite muss „backlog_wait_time“ auf 0 gesetzt werden.
- Volume nicht bereitstellbar, da es nicht für Workloads bereit ist
- Fehler bei der Protokollsammlung des Supportpakets
- Die temporäre Registrierungsinstallation schlägt unter RHEL 8.9 fehl
- Datenverlust bei der Neuinstallation oder Aktualisierung von Insights nach dem Automation Suite-Upgrade
- Zugriff auf Automation Hub nach Upgrade auf Automation Suite 2024.10.0 nicht mehr möglich
- Das Upgrade eines einzelnen Knotens schlägt in der Fabric-Phase fehl
- Upgrade schlägt aufgrund eines fehlerhaften Ceph . fehl
- Rke2 wird aufgrund von Platzproblemen nicht gestartet
- Datenträger kann nicht verbunden werden und verbleibt im Status der „Attach/Detach“-Schleife
- Upgrade schlägt aufgrund von klassischen Objekten in der Orchestrator-Datenbank fehl
- Ceph-Cluster in beeinträchtigtem Status nach parallelem Upgrade
- Fehlerhafte Insights-Komponente verursacht Fehlschlag der Migration
- Dienst-Upgrade schlägt für Apps fehl
- Timeouts beim direkten Upgrade
- Docker-Registrierungsmigration bleibt in PVC-Löschphase hängen
- AI Center-Bereitstellungsfehler nach Upgrade auf 2023.10 oder höher
- Upgrade schlägt in Offline-Umgebungen fehl
- SQL-Validierung schlägt während des Upgrades fehl
- Snapshot-controller-crds Pod im Status CrashLoopBackOff nach dem Upgrade
- Upgrade schlägt aufgrund überschriebener Insights-PVC-Größen fehl
- Fehler beim Upgrade auf Automation Suite 2024.10.1
- Upgrade schlägt aufgrund eines Velero-Migrationsproblems fehl
- Fehler beim Hoch- oder Herunterladen von Daten im Objektspeicher
- Die Größenänderung eines PVC bewirkt keine Korrektur von Ceph
- Fehler beim Ändern der Größe von objectstore PVC
- Rook Ceph oder Looker-Pod hängen im Init-Status fest
- Fehler beim Anhängen eines StatefulSet-Volumes
- Fehler beim Erstellen persistenter Volumes
- Festlegen eines Timeout-Intervalls für die Verwaltungsportale
- Die Authentifizierung funktioniert nach der Migration nicht
- kinit: KDC kann für Realm <AD Domain> beim Abrufen der ersten Anmeldeinformationen nicht gefunden werden
- Kinit: Keytab enthält keine geeigneten Schlüssel für *** beim Abrufen der ersten Anmeldeinformationen
- GSSAPI-Vorgang aufgrund eines ungültigen Statuscodes fehlgeschlagen
- Alarm für fehlgeschlagenen Kerberos-tgt-update-Auftrag erhalten
- SSPI-Anbieter: Server in Kerberos-Datenbank nicht gefunden
- Anmeldung eines AD-Benutzers aufgrund eines deaktivierten Kontos fehlgeschlagen
- ArgoCD-Anmeldung fehlgeschlagen
- Aktualisieren Sie die zugrunde liegenden Verzeichnisverbindungen
- Der Roboter kann keine Verbindung mit einer Automation Suite-Orchestrator-Instanz herstellen
- Teilweiser Fehler beim Wiederherstellen der Sicherung in der Automation Suite 2024.10.0
- Fehler beim Abrufen des Sandbox-Abbilds
- Pods werden nicht in der ArgoCD-Benutzeroberfläche angezeigt
- Redis-Testfehler
- RKE2-Server kann nicht gestartet werden
- Secret nicht im UiPath-Namespace gefunden
- ArgoCD wechselt nach der ersten Installation in den Status „In Bearbeitung“.
- MongoDB-Pods in „CrashLoopBackOff“ oder ausstehende PVC-Bereitstellung nach Löschung
- Pods stecken in Init:0/X
- Fehlende Ceph-rook-Metriken in Überwachungs-Dashboards
- Diskrepanz bei gemeldeten Fehlern bei diagnostischen Zustandsprüfungen
- Kein normales Upstream-Problem
- Document Understanding erscheint nicht auf der linken Leiste der Automation Suite
- Fehlerstatus beim Erstellen einer Datenbeschriftungssitzung
- Fehlerstatus beim Versuch, eine ML-Fähigkeit bereitzustellen
- Migrationsauftrag schlägt in ArgoCD fehl
- Die Handschrifterkennung mit dem Intelligent Form Extractor funktioniert nicht oder arbeitet zu langsam
- Ausführen von Hochverfügbarkeit mit Process Mining
- Die Process Mining-Datenaufnahme ist bei der Anmeldung über Kerberos fehlgeschlagen
- Nach Disaster Recovery funktioniert Dapr für Process Mining nicht mehr ordnungsgemäß
- Verbindung mit der Datenbank „AutomationSuite_ProcessMining_Lager“ über eine Verbindungszeichenfolge im pyodbc-Format nicht möglich
- Die Airflow-Installation schlägt mit „sqlaldemy.exc.ArgumentError“ fehl: URL konnte nicht analysiert werden rfc1738 aus Zeichenfolge „
- So fügen Sie eine IP-Tabellenregel hinzu, um den SQL Server-Port 1433 zu verwenden
- Dem Automation Suite-Zertifikat des Servers, auf dem CData Sync ausgeführt wird, wird nicht vertraut
- Ausführen des Diagnosetools
- Verwenden des Automation Suite-Supportpakets
- Erkunden von Protokollen
- Untersuchen der zusammengefassten Telemetrie

Automation Suite unter Linux – Installationsanleitung
Wiederherstellen der Sicherung
Ist ein Cluster wiederhergestellt, ist die Snapshot-Sicherung nicht mehr aktiviert. Informationen zum Aktivieren nach der Wiederherstellung finden Sie unter Aktivieren des Sicherungs-Snapshots.
Durch die Wiederherstellung des Clusters werden keine externen Datenquellen wie SQL Server, der Objektspeicher oder die OCI-konforme Registrierung wiederhergestellt. Stellen Sie sicher, dass Sie diese Datenquelle auf dem relevanten Snapshot wiederherstellen.
Führen Sie die folgenden Schritte aus, um den Cluster wiederherzustellen:
- Installieren Sie die Clusterinfrastruktur auf allen Serverknoten. Details…Hinweis:
Die Hardware, die Sie für den Wiederherstellungscluster bereitstellen, muss der Hardware des Sicherungsclusters ähneln. Weitere Informationen finden Sie unter Hardware- und Softwareanforderungen.
- Konfigurieren Sie den Snapshot auf dem wiederhergestellten Cluster. Details…
- Wählen Sie den wiederherzustellenden Snapshot aus. Details…
- Stellen Sie die Daten und Einstellungen wieder her. Details…
- Laden Sie das Wiederherstellungsinstallationsprogramm herunter. Sie finden es im Paket
as-installer.zip
. Anweisungen zum Herunterladen finden Sie unter Herunterladen der Installationspakete. - In Offlineumgebungen müssen Sie eine externe OCI-konforme Registrierung oder eine temporäre Registrierung bereitstellen. Beachten Sie, dass die Registrierungskonfiguration mit der des ursprünglichen Clusters identisch bleiben muss. Informationen zum Konfigurieren der Registrierung finden Sie in den folgenden Anweisungen:
- Konfigurieren der externen OCI-konformen Registrierung
- Konfigurieren der temporären Docker-Registrierung. Wählen Sie diese Option nur, wenn Sie vor dem Eintritt der Katastrophe kein externes OCI-konformes Register verwendet haben.
- Bereiten Sie die Konfigurationsdatei vor und stellen Sie sie auf allen Clusterknoten zur Verfügung. Führen Sie einen der folgenden Schritte aus, um die Konfigurationsdatei vorzubereiten:
- Option A: Wiederverwenden der
cluster_config.json
-Datei, die Sie vor der Katastrophe auf den Cluster angewendet haben; - Option B: Erstellen Sie eine minimale
cluster_config.json
-Datei mit den erforderlichen Parametern, wie im folgenden Beispiel gezeigt:{ "fixed_rke_address": "fqdn", "fqdn": "fqdn", "rke_token": "guid", "profile": "cluster_profile", "external_object_storage": { "enabled": false }, "install_type": "offline or online", "snapshot": { "enabled": true, "nfs": { "server": "nfs_server_endpoint", "location": "nfs_server_mountpoint" } }, "proxy": { "enabled": false } }
{ "fixed_rke_address": "fqdn", "fqdn": "fqdn", "rke_token": "guid", "profile": "cluster_profile", "external_object_storage": { "enabled": false }, "install_type": "offline or online", "snapshot": { "enabled": true, "nfs": { "server": "nfs_server_endpoint", "location": "nfs_server_mountpoint" } }, "proxy": { "enabled": false } }
- Option A: Wiederverwenden der
cluster_config.json
-Datei aufnehmen müssen. Stellen Sie sicher, dass Sie die gleichen Parameterwerte angeben wie die, die im ursprünglichen Cluster verwendet werden. Sie können die Parameterwerte nach der Wiederherstellung ändern.
cluster_config.json
-Parameter, die in der folgenden Tabelle aufgeführt sind, auch die externe OCI-konforme Registrierungskonfiguration angeben. Weitere Informationen finden Sie unter Konfiguration der externen OCI-konformen Registrierung.
Parameter |
Wert |
---|---|
|
FQDN des Automation Suite-Clusters. Der Wert muss mit dem alten FQDN übereinstimmen. Die Angabe eines anderen FQDN-Werts kann dazu führen, dass die Wiederherstellung fehlschlägt. |
|
Die feste Adresse, die für die Lastausgleich-Knotenregistrierung und Kube API-Anforderungen verwendet wird. Wenn der Lastausgleich wie empfohlen konfiguriert ist, sollte der Wert derselbe Wert wie für
fqdn sein. Verwenden Sie andernfalls den Wert fqdn des ersten Serverknotens. Weitere Informationen finden Sie unter Konfigurieren des Lastausgleichs.
|
|
Verwenden Sie hier einen neu generierten GUID. Dies ist ein vorab freigegebenes, Cluster-spezifisches Geheimnis. Er wird für alle Knoten benötigt, die dem Cluster beitreten. |
|
Legt das Profil der Installation fest. Die verfügbaren Profile sind:
|
|
Gibt den Typ der Installation an, die Sie durchführen möchten. Ihre Optionen sind:
|
| Der FQDN oder die IP-Adresse des Snapshot-Speicherorts (z. B. mynfs.mycompany.com oder 192.23.222.81 ).
|
| Der Speicherort oder Pfad zum Speicherort der Momentaufnahme. |
| Der Pfad zum benutzerdefinierten Verzeichnis, das für Pod-Protokolle verwendet wird. Dies ist erforderlich, wenn der Cluster mit einem benutzerdefinierten Pod-Protokollpfad konfiguriert wurde. |
|
Dieser Parameter ist nur obligatorisch, wenn der Proxy aktiviert ist. Weitere Informationen finden Sie unter Optional: Konfigurieren des Proxyservers. |
cluster_config.json
finden Sie unter Manuell: Erweiterte Installation.
Installieren der Clusterinfrastruktur auf dem primären Serverknoten
Führen Sie die folgenden Befehle aus, um die Infrastruktur auf dem primären Wiederherstellungsclusterknoten zu installieren:
cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json --accept-license-agreement --restore
cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json --accept-license-agreement --restore
cluster_config.json
vom primären Serverknoten auf die verbleibenden Server-/Agentenknoten.Der Schritt der Infrastrukturinstallation auf dem primären Serverknoten fügt zusätzliche Werte hinzu, die die verbleibenden Knoten benötigen.
Installieren der Clusterinfrastruktur auf sekundären Servern
So installieren Sie die Infrastruktur auf den sekundären Servern:
cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j server --accept-license-agreement --restore
cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j server --accept-license-agreement --restore
Installieren der Infrastruktur auf allen Agent-Maschinen
So installieren Sie die Infrastruktur auf den Agent-Knoten:
cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j agent --accept-license-agreement --restore
cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j agent --accept-license-agreement --restore
Hydratisieren der Registrierung im Cluster für Offline-Installationen
Dieser Schritt ist nur erforderlich, wenn Sie eine Registrierung im Cluster für Offline-Installationen verwenden. Sie müssen die Registrierung unterstützen, bevor Sie die Wiederherstellung auslösen, indem Sie den folgenden Befehl verwenden:
./bin/uipathctl rke2 registry hydrate-registry /opt/UiPathAutomationSuite/cluster_config.json
./bin/uipathctl rke2 registry hydrate-registry /opt/UiPathAutomationSuite/cluster_config.json
Installieren der Clusterinfrastruktur auf Dienstknoten
Installieren der Clusterinfrastruktur auf Task Mining-Knoten
So installieren Sie die Clusterinfrastruktur auf Task Mining-Knoten:
cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j task-mining --accept-license-agreement --restore
cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j task-mining --accept-license-agreement --restore
Installieren der Clusterinfrastruktur auf Automation Suite Robots-Knoten
So installieren Sie die Clusterinfrastruktur auf Automation Suite Robots-Knoten:
cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j asrobots --accept-license-agreement --restore
cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j asrobots --accept-license-agreement --restore
Installieren der Clusterinfrastruktur auf GPU-Knoten
So installieren Sie die Clusterinfrastruktur auf GPU-Knoten:
cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j gpu --accept-license-agreement --restore
cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j gpu --accept-license-agreement --restore
Sobald die Infrastruktur installiert ist, müssen Sie den Cluster-Snapshot für die Wiederherstellung vorbereiten. Je nach Szenario müssen Sie die folgenden Befehle ausführen:
-
Wenn Sie einen externen Objektspeicher verwenden:
./bin/uipathctl manifest apply /opt/UiPathAutomationSuite/cluster_config.json --only velero --versions versions/helm-charts.json
./bin/uipathctl manifest apply /opt/UiPathAutomationSuite/cluster_config.json --only velero --versions versions/helm-charts.json
-
Wenn Sie einen ceph-objectstore innerhalb des Clusters verwenden:
./bin/uipathctl manifest apply /opt/UiPathAutomationSuite/cluster_config.json --only base,rook-ceph-operator,rook-ceph-object-store,velero --versions versions/helm-charts.json
./bin/uipathctl manifest apply /opt/UiPathAutomationSuite/cluster_config.json --only base,rook-ceph-operator,rook-ceph-object-store,velero --versions versions/helm-charts.json
Um die Sicherung des wiederhergestellten Clusters zu konfigurieren, führen Sie die Schritte im Abschnitt Konfigurieren des Cluster-Snapshots aus.
Nachdem Sie den Snapshot konfiguriert haben, listen Sie die vorhandenen Snapshots auf und entscheiden Sie sich für den Snapshot, den Sie als Wiederherstellungspunkt verwenden möchten.
--from-snapshot <snapshot-name>
verwenden.
./bin/uipathctl snapshot restore create <restore_name> --from-snapshot <snapshot_name>
./bin/uipathctl snapshot restore create <restore_name> --from-snapshot <snapshot_name>
--wait
. Um den Status des Wiederherstellungsprozesses zu überprüfen, führen Sie den folgenden Befehl aus:./bin/uipathctl snapshot restore history
./bin/uipathctl snapshot restore history
Wenn Sie den Snapshot-Namen nicht angeben, stellt der Cluster den letzten erfolgreichen Snapshot wieder her. In der Snapshot-Liste finden Sie verfügbare Snapshots.
cluster_config.json
-Datei für die zukünftige Verwendung wiederherstellen, z. B. zum Hinzufügen neuer Knoten zum Cluster, Aktualisieren usw.
cluster_config.json
wiederherzustellen:
-
Sie müssen die zuletzt angewendete Konfiguration finden, indem Sie den folgenden Befehl ausführen:
Das folgende Beispiel ist ein Beispiel für die Befehlsausgabe:./bin/uipathctl manifest list-revisions
./bin/uipathctl manifest list-revisionsVERSION UPDATED STATUS 1 2024-11-07 00:46:41 +0000 UTC successful 2 2024-11-07 01:14:20 +0000 UTC successful 3 2024-11-07 01:23:23 +0000 UTC successful
VERSION UPDATED STATUS 1 2024-11-07 00:46:41 +0000 UTC successful 2 2024-11-07 01:14:20 +0000 UTC successful 3 2024-11-07 01:23:23 +0000 UTC successful -
Wählen Sie die richtige VERSIONS-Nummer aus, die vor der Sicherungserstellung bereitgestellt wurde, und führen Sie den folgenden Befehl aus, um die
cluster_config.json
-Datei abzurufen:./bin/uipathctl manifest get-revision --version <VERSION>
./bin/uipathctl manifest get-revision --version <VERSION>Das folgende Beispiel ist ein Beispiel für die Befehlsausgabe:
./bin/uipathctl manifest get-revision --version 1 > ./cluster_config.json
./bin/uipathctl manifest get-revision --version 1 > ./cluster_config.json
Stellen Sie nach der Wiederherstellung des Clusters sicher, dass Sie Ihre Zertifizierungsstellenzertifikate zum Vertrauensspeicher der wiederhergestellten VMs hinzufügen. Weitere Informationen finden Sie unter:
Nach der Wiederherstellung eines Automation Suite-Clusters müssen Sie das neue Überwachungskennwort abrufen. Führen Sie dazu die Schritte unter Zugreifen auf die Überwachungstools aus.
Führen Sie nach der Wiederherstellung eines Automation Suite -Clusters mit aktiviertem AI Center™ die Schritte auf der Seite Aktivieren des AI Centers im wiederhergestellten Cluster aus.
Wenn die Kerberos-Authentifizierung eingerichtet ist, müssen Sie sicherstellen, dass das Kerberos-Ticket nicht abgelaufen ist.
Um ein neues Kerberos-Ticket zu generieren, führen Sie die folgenden Befehle aus:
kubectl get cronjobs -A | grep kerberos //to identify the job with name kerberos-tgt-update
kubectl create job --from=cronjob/<cron-job-name> <new_job_name> -n <namespace>
kubectl get cronjobs -A | grep kerberos //to identify the job with name kerberos-tgt-update
kubectl create job --from=cronjob/<cron-job-name> <new_job_name> -n <namespace>
<cron-job-name>
, <new_job_name>
und <namespace>
durch den tatsächlichen Namen Ihres Cron-Auftrags, den beabsichtigten Namen für den neuen Auftrag bzw. Ihren tatsächlichen Namespace.
- Schritt 1: Installieren der Clusterinfrastruktur
- Vorbereitung
- Ausführung
- Schritt 2: Vorbereiten des Clusters auf die Wiederherstellung
- Schritt 3: Auswählen des wiederherzustellenden Snapshots
- Schritt 4: Wiederherstellen von Daten und Einstellungen
- Wiederherstellen von „cluster_config.json“
- Hinzufügen von Zertifizierungsstellenzertifikaten zum Vertrauensspeicher
- Abrufen des neuen Überwachungskennworts
- Aktivieren des AI Center im wiederhergestellten Cluster
- Ein neues Kerberos-Ticket wird generiert