automation-suite
2024.10
true
Wichtig :
Bitte beachten Sie, dass dieser Inhalt teilweise mithilfe von maschineller Übersetzung lokalisiert wurde. Es kann 1–2 Wochen dauern, bis die Lokalisierung neu veröffentlichter Inhalte verfügbar ist.
UiPath logo, featuring letters U and I in white

Automation Suite unter Linux – Installationsanleitung

Letzte Aktualisierung 10. Juni 2025

Wiederherstellen der Sicherung

Hinweis:

Ist ein Cluster wiederhergestellt, ist die Snapshot-Sicherung nicht mehr aktiviert. Informationen zum Aktivieren nach der Wiederherstellung finden Sie unter Aktivieren des Sicherungs-Snapshots.

Durch die Wiederherstellung des Clusters werden keine externen Datenquellen wie SQL Server, der Objektspeicher oder die OCI-konforme Registrierung wiederhergestellt. Stellen Sie sicher, dass Sie diese Datenquelle auf dem relevanten Snapshot wiederherstellen.

Führen Sie die folgenden Schritte aus, um den Cluster wiederherzustellen:

  1. Installieren Sie die Clusterinfrastruktur auf allen Serverknoten. Details…
    Hinweis:

    Die Hardware, die Sie für den Wiederherstellungscluster bereitstellen, muss der Hardware des Sicherungsclusters ähneln. Weitere Informationen finden Sie unter Hardware- und Softwareanforderungen.

  2. Konfigurieren Sie den Snapshot auf dem wiederhergestellten Cluster. Details…
  3. Wählen Sie den wiederherzustellenden Snapshot aus. Details…
  4. Stellen Sie die Daten und Einstellungen wieder her. Details…

Schritt 1: Installieren der Clusterinfrastruktur

Vorbereitung

  1. Laden Sie das Wiederherstellungsinstallationsprogramm herunter. Sie finden es im Paket as-installer.zip. Anweisungen zum Herunterladen finden Sie unter Herunterladen der Installationspakete.
  2. In Offlineumgebungen müssen Sie eine externe OCI-konforme Registrierung oder eine temporäre Registrierung bereitstellen. Beachten Sie, dass die Registrierungskonfiguration mit der des ursprünglichen Clusters identisch bleiben muss. Informationen zum Konfigurieren der Registrierung finden Sie in den folgenden Anweisungen:
  3. Bereiten Sie die Konfigurationsdatei vor und stellen Sie sie auf allen Clusterknoten zur Verfügung. Führen Sie einen der folgenden Schritte aus, um die Konfigurationsdatei vorzubereiten:
    • Option A: Wiederverwenden der cluster_config.json-Datei, die Sie vor der Katastrophe auf den Cluster angewendet haben;
    • Option B: Erstellen Sie eine minimale cluster_config.json-Datei mit den erforderlichen Parametern, wie im folgenden Beispiel gezeigt:
      {
        "fixed_rke_address": "fqdn",
        "fqdn": "fqdn",
        "rke_token": "guid",
        "profile": "cluster_profile",
        "external_object_storage": { 
          "enabled": false 
        },
        "install_type": "offline or online",
        "snapshot": {
          "enabled": true,
          "nfs": {
            "server": "nfs_server_endpoint",
            "location": "nfs_server_mountpoint"
          }
        },
        "proxy": { "enabled": false }
      }{
        "fixed_rke_address": "fqdn",
        "fqdn": "fqdn",
        "rke_token": "guid",
        "profile": "cluster_profile",
        "external_object_storage": { 
          "enabled": false 
        },
        "install_type": "offline or online",
        "snapshot": {
          "enabled": true,
          "nfs": {
            "server": "nfs_server_endpoint",
            "location": "nfs_server_mountpoint"
          }
        },
        "proxy": { "enabled": false }
      }
      
In der folgenden Tabelle sind alle Parameter beschrieben, die Sie in die minimale cluster_config.json-Datei aufnehmen müssen. Stellen Sie sicher, dass Sie die gleichen Parameterwerte angeben wie die, die im ursprünglichen Cluster verwendet werden. Sie können die Parameterwerte nach der Wiederherstellung ändern.
Wichtig:
In Offline-Umgebungen müssen Sie neben der Einstellung der cluster_config.json-Parameter, die in der folgenden Tabelle aufgeführt sind, auch die externe OCI-konforme Registrierungskonfiguration angeben. Weitere Informationen finden Sie unter Konfiguration der externen OCI-konformen Registrierung.

Parameter

Wert

fqdn

FQDN des Automation Suite-Clusters. Der Wert muss mit dem alten FQDN übereinstimmen. Die Angabe eines anderen FQDN-Werts kann dazu führen, dass die Wiederherstellung fehlschlägt.

fixed_rke_address

Die feste Adresse, die für die Lastausgleich-Knotenregistrierung und Kube API-Anforderungen verwendet wird.

Wenn der Lastausgleich wie empfohlen konfiguriert ist, sollte der Wert derselbe Wert wie für fqdn sein. Verwenden Sie andernfalls den Wert fqdn des ersten Serverknotens. Weitere Informationen finden Sie unter Konfigurieren des Lastausgleichs.

rke_token

Verwenden Sie hier einen neu generierten GUID. Dies ist ein vorab freigegebenes, Cluster-spezifisches Geheimnis. Er wird für alle Knoten benötigt, die dem Cluster beitreten.

profile

Legt das Profil der Installation fest. Die verfügbaren Profile sind:

  • default – Auswertungsprofil für einen einzelnen Knoten.
  • ha – HA-fähiges Produktionsprofil mit mehreren Knoten.

install_type

Gibt den Typ der Installation an, die Sie durchführen möchten. Ihre Optionen sind:

  • online – Eine Installation mit Zugriff auf das Internet
  • offline – Eine Installation ohne Zugriff auf das Internet

server

Der FQDN oder die IP-Adresse des Snapshot-Speicherorts (z. B. mynfs.mycompany.com oder 192.23.222.81).

location

Der Speicherort oder Pfad zum Speicherort der Momentaufnahme.

infra.pod_log_path

Der Pfad zum benutzerdefinierten Verzeichnis, das für Pod-Protokolle verwendet wird. Dies ist erforderlich, wenn der Cluster mit einem benutzerdefinierten Pod-Protokollpfad konfiguriert wurde.

proxy

Dieser Parameter ist nur obligatorisch, wenn der Proxy aktiviert ist. Weitere Informationen finden Sie unter Optional: Konfigurieren des Proxyservers.

Weitere Informationen zum Konfigurieren von cluster_config.json finden Sie unter Manuell: Erweiterte Installation.

Ausführung

Installieren der Clusterinfrastruktur auf dem primären Serverknoten

Führen Sie die folgenden Befehle aus, um die Infrastruktur auf dem primären Wiederherstellungsclusterknoten zu installieren:

cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json --accept-license-agreement --restorecd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json --accept-license-agreement --restore
Wichtig: Kopieren Sie cluster_config.json vom primären Serverknoten auf die verbleibenden Server-/Agentenknoten.Der Schritt der Infrastrukturinstallation auf dem primären Serverknoten fügt zusätzliche Werte hinzu, die die verbleibenden Knoten benötigen.

Installieren der Clusterinfrastruktur auf sekundären Servern

So installieren Sie die Infrastruktur auf den sekundären Servern:

cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j server --accept-license-agreement --restorecd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j server --accept-license-agreement --restore

Installieren der Infrastruktur auf allen Agent-Maschinen

So installieren Sie die Infrastruktur auf den Agent-Knoten:

cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j agent --accept-license-agreement --restorecd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j agent --accept-license-agreement --restore

Hydratisieren der Registrierung im Cluster für Offline-Installationen

Dieser Schritt ist nur erforderlich, wenn Sie eine Registrierung im Cluster für Offline-Installationen verwenden. Sie müssen die Registrierung unterstützen, bevor Sie die Wiederherstellung auslösen, indem Sie den folgenden Befehl verwenden:

./bin/uipathctl rke2 registry hydrate-registry /opt/UiPathAutomationSuite/cluster_config.json./bin/uipathctl rke2 registry hydrate-registry /opt/UiPathAutomationSuite/cluster_config.json 

Installieren der Clusterinfrastruktur auf Dienstknoten

Installieren der Clusterinfrastruktur auf Task Mining-Knoten

So installieren Sie die Clusterinfrastruktur auf Task Mining-Knoten:

cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j task-mining --accept-license-agreement --restorecd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j task-mining --accept-license-agreement --restore

Installieren der Clusterinfrastruktur auf Automation Suite Robots-Knoten

So installieren Sie die Clusterinfrastruktur auf Automation Suite Robots-Knoten:

cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j asrobots --accept-license-agreement --restorecd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j asrobots --accept-license-agreement --restore

Installieren der Clusterinfrastruktur auf GPU-Knoten

So installieren Sie die Clusterinfrastruktur auf GPU-Knoten:

cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j gpu --accept-license-agreement --restorecd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j gpu --accept-license-agreement --restore

Schritt 2: Vorbereiten des Clusters auf die Wiederherstellung

Sobald die Infrastruktur installiert ist, müssen Sie den Cluster-Snapshot für die Wiederherstellung vorbereiten. Je nach Szenario müssen Sie die folgenden Befehle ausführen:

  • Wenn Sie einen externen Objektspeicher verwenden:

    ./bin/uipathctl manifest apply /opt/UiPathAutomationSuite/cluster_config.json --only velero --versions versions/helm-charts.json
    ./bin/uipathctl manifest apply /opt/UiPathAutomationSuite/cluster_config.json --only velero --versions versions/helm-charts.json
  • Wenn Sie einen ceph-objectstore innerhalb des Clusters verwenden:

    ./bin/uipathctl manifest apply /opt/UiPathAutomationSuite/cluster_config.json --only base,rook-ceph-operator,rook-ceph-object-store,velero --versions versions/helm-charts.json
    ./bin/uipathctl manifest apply /opt/UiPathAutomationSuite/cluster_config.json --only base,rook-ceph-operator,rook-ceph-object-store,velero --versions versions/helm-charts.json

Um die Sicherung des wiederhergestellten Clusters zu konfigurieren, führen Sie die Schritte im Abschnitt Konfigurieren des Cluster-Snapshots aus.

Schritt 3: Auswählen des wiederherzustellenden Snapshots

Nachdem Sie den Snapshot konfiguriert haben, listen Sie die vorhandenen Snapshots auf und entscheiden Sie sich für den Snapshot, den Sie als Wiederherstellungspunkt verwenden möchten.

Schritt 4: Wiederherstellen von Daten und Einstellungen

Um einen vorherigen Cluster wiederherzustellen, geben Sie den Snapshot-Namen an, von dem Sie konvertieren möchten, indem Sie das Flag --from-snapshot <snapshot-name> verwenden.
./bin/uipathctl snapshot restore create <restore_name> --from-snapshot <snapshot_name>./bin/uipathctl snapshot restore create <restore_name> --from-snapshot <snapshot_name>
Der Befehl löst den Wiederherstellungsprozess im Hintergrund aus. Um auf die Fertigstellung des Befehls zu warten, bis der Wiederherstellungsprozess abgeschlossen ist, übergeben Sie die Option --wait . Um den Status des Wiederherstellungsprozesses zu überprüfen, führen Sie den folgenden Befehl aus:
./bin/uipathctl snapshot restore history./bin/uipathctl snapshot restore history

Wenn Sie den Snapshot-Namen nicht angeben, stellt der Cluster den letzten erfolgreichen Snapshot wieder her. In der Snapshot-Liste finden Sie verfügbare Snapshots.

Wiederherstellen von „cluster_config.json“

Nach der Automation Suite-Clusterwiederherstellung möchten Sie möglicherweise die cluster_config.json -Datei für die zukünftige Verwendung wiederherstellen, z. B. zum Hinzufügen neuer Knoten zum Cluster, Aktualisieren usw.
Führen Sie die folgenden Schritte aus, um cluster_config.json wiederherzustellen:
  1. Sie müssen die zuletzt angewendete Konfiguration finden, indem Sie den folgenden Befehl ausführen:

    ./bin/uipathctl manifest list-revisions./bin/uipathctl manifest list-revisions
    Das folgende Beispiel ist ein Beispiel für die Befehlsausgabe:
    VERSION  UPDATED                        STATUS
    1        2024-11-07 00:46:41 +0000 UTC  successful
    2        2024-11-07 01:14:20 +0000 UTC  successful
    3        2024-11-07 01:23:23 +0000 UTC  successfulVERSION  UPDATED                        STATUS
    1        2024-11-07 00:46:41 +0000 UTC  successful
    2        2024-11-07 01:14:20 +0000 UTC  successful
    3        2024-11-07 01:23:23 +0000 UTC  successful
  2. Wählen Sie die richtige VERSIONS-Nummer aus, die vor der Sicherungserstellung bereitgestellt wurde, und führen Sie den folgenden Befehl aus, um die cluster_config.json -Datei abzurufen:
    ./bin/uipathctl manifest get-revision --version <VERSION>./bin/uipathctl manifest get-revision --version <VERSION>

    Das folgende Beispiel ist ein Beispiel für die Befehlsausgabe:

    ./bin/uipathctl manifest get-revision --version 1 > ./cluster_config.json./bin/uipathctl manifest get-revision --version 1 > ./cluster_config.json

Hinzufügen von Zertifizierungsstellenzertifikaten zum Vertrauensspeicher

Stellen Sie nach der Wiederherstellung des Clusters sicher, dass Sie Ihre Zertifizierungsstellenzertifikate zum Vertrauensspeicher der wiederhergestellten VMs hinzufügen. Weitere Informationen finden Sie unter:

Abrufen des neuen Überwachungskennworts

Nach der Wiederherstellung eines Automation Suite-Clusters müssen Sie das neue Überwachungskennwort abrufen. Führen Sie dazu die Schritte unter Zugreifen auf die Überwachungstools aus.

Aktivieren des AI Center im wiederhergestellten Cluster

Führen Sie nach der Wiederherstellung eines Automation Suite -Clusters mit aktiviertem AI Center™ die Schritte auf der Seite Aktivieren des AI Centers im wiederhergestellten Cluster aus.

Ein neues Kerberos-Ticket wird generiert

Wenn die Kerberos-Authentifizierung eingerichtet ist, müssen Sie sicherstellen, dass das Kerberos-Ticket nicht abgelaufen ist.

Um ein neues Kerberos-Ticket zu generieren, führen Sie die folgenden Befehle aus:

kubectl get cronjobs -A | grep kerberos //to identify the job with name kerberos-tgt-update
kubectl create job --from=cronjob/<cron-job-name> <new_job_name> -n <namespace>kubectl get cronjobs -A | grep kerberos //to identify the job with name kerberos-tgt-update
kubectl create job --from=cronjob/<cron-job-name> <new_job_name> -n <namespace>
Ersetzen Sie <cron-job-name>, <new_job_name> und <namespace> durch den tatsächlichen Namen Ihres Cron-Auftrags, den beabsichtigten Namen für den neuen Auftrag bzw. Ihren tatsächlichen Namespace.

War diese Seite hilfreich?

Hilfe erhalten
RPA lernen – Automatisierungskurse
UiPath Community-Forum
Uipath Logo White
Vertrauen und Sicherheit
© 2005–2025 UiPath. Alle Rechte vorbehalten