- Überblick
- Anforderungen
- Empfohlen: Bereitstellungsvorlagen
- Anleitung: Vorbereiten der Installation
- Anleitung: Vorbereiten der Installation
- Schritt 1: Konfigurieren der OCI-konformen Registrierung für Offline-Installationen
- Schritt 2: Konfigurieren des externen Objektspeichers
- Schritt 3: Konfigurieren eines High Availability Add-ons
- Schritt 4: Konfigurieren von Microsoft SQL Server
- Schritt 5: Konfigurieren des Lastausgleichs
- Schritt 6: Konfigurieren des DNS
- Step 7: Configuring kernel and OS level settings
- Step 8: Configuring the disks
- Schritt 9: Konfigurieren der Knotenports
- Step 10: Applying miscellaneous settings
- Schritt 12: Validieren und Installieren der erforderlichen RPM-Pakete
- Schritt 13: Generieren von cluster_config.json
- Zertifikatkonfiguration
- Datenbankkonfiguration
- Konfiguration des externen Objektspeichers
- Vorsignierte URL-Konfiguration
- Externe OCI-konforme Registrierungskonfiguration
- Disaster Recovery: Aktiv/Passiv- und Aktiv/Aktiv-Konfigurationen
- Konfiguration des High Availability Add-ons
- Spezifische Orchestrator-Konfiguration
- Insights-spezifische Konfiguration
- Process Mining-spezifische Konfiguration
- Spezifische Konfiguration für Document Understanding
- Spezifische Konfiguration für Automation Suite Robots
- Konfiguration der Überwachung
- Optional: Konfigurieren des Proxyservers
- Optional: Aktivieren der Widerstandsfähigkeit gegen zonale Ausfälle in einem HA-fähigen Produktionscluster mit mehreren Knoten
- Optional: Übergeben einer benutzerdefinierten resolv.conf-Datei
- Optional: Erhöhen der Fehlertoleranz
- install-uipath.sh-Parameter
- Hinzufügen eines dedizierten Agent-Knotens mit GPU-Unterstützung
- Hinzufügen eines dedizierten Agent-Knotens für Task Mining
- Verbinden einer Task Mining-Anwendung
- Hinzufügen eines dedizierten Agentenknotens für Automation Suite-Roboter
- Step 15: Configuring the temporary Docker registry for offline installations
- Step 16: Validating the prerequisites for the installation
- Manuell: Durchführen der Installation
- Nach der Installation
- Clusterverwaltung
- Verwalten von Produkten
- Erste Schritte mit dem Clusterverwaltungsportal
- Migrieren von Objectstore von persistentem Volume zu Raw-Festplatten
- Migrieren von einem HA-Add-on zum externen High Availability Add-on
- Migrieren von Daten zwischen Objectstores
- Clusterinterner Objectstore zu einem externen Objectstore migrieren
- Manueller Wechsel zum sekundären Cluster in einer Aktiv-/Passiv-Einrichtung
- Disaster Recovery: Durchführen von Vorgängen nach der Installation
- Umwandlung einer bestehenden Installation in eine Multi-Site-Einrichtung
- Guidelines on upgrading an Active/Passive or Active/Active deployment
- Guidelines on backing up and restoring an Active/Passive or Active/Active deployment
- Redirecting traffic for the unsupported services to the primary cluster
- Überwachung und Warnungen
- Migration und Upgrade
- Schritt 1: Verschieben der Identitätsorganisationsdaten von einer eigenständigen in die Automation Suite
- Schritt 2: Wiederherstellen der eigenständigen Produktdatenbank
- Schritt 3: Sichern der Plattformdatenbank in der Automation Suite
- Schritt 4: Zusammenführen von Organisationen in der Automation Suite
- Schritt 5: Aktualisieren der migrierten Produktverbindungszeichenfolgen
- Schritt 6: Migrieren des eigenständigen Orchestrators
- Schritt 7: Migrieren von eigenständigen Insights
- Schritt 8: Löschen des Standardmandanten
- B) Migration von einzelnen Mandanten
- Migrieren von der Automation Suite unter Linux zur Automation Suite unter EKS/AKS
- Aktualisieren der Automation Suite
- Herunterladen der Installationspakete und Übertragen aller Dateien auf den ersten Serverknoten
- Abrufen der zuletzt angewendeten Konfiguration aus dem Cluster
- Aktualisieren der Clusterkonfiguration
- Konfigurieren der OCI-konformen Registrierung für Offline-Installationen
- Migrieren zu einer externen OCI-konformen Registrierung
- Ausführen des Upgrades
- Durchführen von Vorgängen nach dem Upgrade
- Vorbereiten des neuen Clusters
- Migrieren der Daten zum neuen Cluster
- Abschließen des Upgrades
- Sofortiges Rollback bei Fehler
- Produktspezifische Konfiguration
- Verwenden des Orchestrator-Konfiguratortools
- Konfigurieren von Orchestrator-Parametern
- Orchestrator-appSettings
- Konfigurieren von AppSettings
- Konfigurieren der maximalen Anforderungsgröße
- Überschreiben der Speicherkonfiguration auf Clusterebene
- Konfigurieren von Anmeldeinformationsspeichern
- Konfigurieren der Verwendung von einem Verschlüsselungsschlüssel pro Mandant
- Best Practices und Wartung
- Fehlersuche und ‑behebung
- Fehlerbehebung bei Diensten während der Installation
- Deinstallieren des Clusters
- Löschen von Offline-Artefakten für mehr Speicherplatz
- So löschen Sie Redis-Daten
- So können Sie die Istio-Protokollierung aktivieren
- So werden Protokolle manuell bereinigt
- So löschen Sie alte Protokolle, die im sf-logs-Paket gespeichert sind
- So deaktivieren Sie Streaming-Protokolle für das AI Center
- Fehlerbehebung bei fehlgeschlagenen Automation Suite-Installationen
- So löschen Sie Bilder aus dem alten Installationsprogramm nach dem Upgrade
- Deaktivieren von NIC-Prüfsummen-Offloading
- Upgrade von Automation Suite 2022.10.10 und 2022.4.11 auf 2023.10.2
- So legen Sie die ArgoCD-Protokollebene manuell auf Info fest
- Es kann keine Offlineinstallation auf RHEL 8.4 OS ausgeführt werden.
- Fehler beim Herunterladen des Pakets
- Die Offlineinstallation schlägt aufgrund fehlender binärer Dateien fehl
- Zertifikatproblem bei der Offlineinstallation
- Die erste Installation schlägt während des Longhorn-Setups fehl
- Validierungsfehler bei der SQL-Verbindungszeichenfolge
- Voraussetzungsprüfung für das Selinux-iscsid-Modul schlägt fehl
- Azure-Datenträger nicht als SSD markiert
- Fehler nach der Zertifikatsaktualisierung
- Virenschutz verursacht Probleme bei der Installation
- Automation Suite funktioniert nach Betriebssystem-Upgrade nicht
- Bei der Automation Suite muss „backlog_wait_time“ auf 0 gesetzt werden.
- Volume nicht bereitstellbar, da es nicht für Workloads bereit ist
- Fehler im Cluster nach automatisiertem Upgrade von 2021.10
- Upgrade schlägt aufgrund eines fehlerhaften Ceph . fehl
- Rke2 wird aufgrund von Platzproblemen nicht gestartet
- Datenträger kann nicht verbunden werden und verbleibt im Status der „Attach/Detach“-Schleife
- Upgrade schlägt aufgrund von klassischen Objekten in der Orchestrator-Datenbank fehl
- Ceph-Cluster in beeinträchtigtem Status nach parallelem Upgrade
- Fehlerhafte Insights-Komponente verursacht Fehlschlag der Migration
- Dienst-Upgrade schlägt für Apps fehl
- Timeouts beim direkten Upgrade
- Docker-Registrierungsmigration bleibt in PVC-Löschphase hängen
- AI Center-Bereitstellungsfehler nach Upgrade auf 2023.10
- Upgrade schlägt in Offline-Umgebungen fehl
- Fehler beim Hoch- oder Herunterladen von Daten im Objektspeicher
- Die Größenänderung eines PVC bewirkt keine Korrektur von Ceph
- Fehler beim Ändern der Größe von objectstore PVC
- Rook Ceph oder Looker-Pod hängen im Init-Status fest
- Fehler beim Anhängen eines StatefulSet-Volumes
- Fehler beim Erstellen persistenter Volumes
- Festlegen eines Timeout-Intervalls für die Verwaltungsportale
- Die Authentifizierung funktioniert nach der Migration nicht
- Kinit: KDC kann für Realm <AD Domain> beim Abrufen der ersten Anmeldeinformationen nicht gefunden werden.
- Kinit: Keytab enthält keine geeigneten Schlüssel für *** beim Abrufen der ersten Anmeldeinformationen
- GSSAPI-Vorgang aufgrund eines ungültigen Statuscodes fehlgeschlagen
- Alarm für fehlgeschlagenen Kerberos-tgt-update-Auftrag erhalten
- SSPI-Anbieter: Server in Kerberos-Datenbank nicht gefunden
- Anmeldung eines AD-Benutzers aufgrund eines deaktivierten Kontos fehlgeschlagen
- ArgoCD-Anmeldung fehlgeschlagen
- Aktualisieren Sie die zugrunde liegenden Verzeichnisverbindungen
- Fehler beim Abrufen des Sandbox-Abbilds
- Pods werden nicht in der ArgoCD-Benutzeroberfläche angezeigt
- Redis-Testfehler
- RKE2-Server kann nicht gestartet werden
- Secret nicht im UiPath-Namespace gefunden
- ArgoCD wechselt nach der ersten Installation in den Status „In Bearbeitung“.
- MongoDB-Pods in „CrashLoopBackOff“ oder ausstehende PVC-Bereitstellung nach Löschung
- Fehlerhafte Dienste nach Clusterwiederherstellung oder Rollback
- Pods stecken in Init:0/X
- Fehlende Ceph-rook-Metriken in Überwachungs-Dashboards
- Document Understanding erscheint nicht auf der linken Leiste der Automation Suite
- Fehlerstatus beim Erstellen einer Datenbeschriftungssitzung
- Fehlerstatus beim Versuch, eine ML-Fähigkeit bereitzustellen
- Migrationsauftrag schlägt in ArgoCD fehl
- Die Handschrifterkennung mit dem Intelligent Form Extractor funktioniert nicht oder arbeitet zu langsam
- Ausführen des Diagnosetools
- Verwenden des Automation Suite Support Bundle-Tools
- Erkunden von Protokollen
Migrieren der Daten zum neuen Cluster
-
Hydrate the docker registry running on the source cluster with the bundle corresponding to the version to which you plan to upgrade. Make sure to download
as.tar.gz
on the server machine of the source cluster where you attacted the UiPath® bundle disk on the/uipath
mount point. The preferred location is/uipath/<new_version>/as.tar.gz
. -
Erstellen Sie einen temporären Speicherort, um das Paket zu entpacken.
mkdir -p /uipath/tmp
mkdir -p /uipath/tmp -
Hydratisieren Sie die Docker-Registrierung des Quellclusters mit dem neuesten Offlinepaket.
./configureUipathAS.sh registry upload --offline-bundle /uipath/<new_version>/as.tar.gz --offline-tmp-folder /uipath/tmp
./configureUipathAS.sh registry upload --offline-bundle /uipath/<new_version>/as.tar.gz --offline-tmp-folder /uipath/tmp
Das Skript zur Datenmigration kann ausgeführt werden, bevor der Cluster in den Wartungsmodus versetzt wird – dies verkürzt die Migrationszeit während der Ausfallzeit.
-
Sie können dem Installationsprogramm gestatten, die neuen Datenbanken während der Installation von Infrastruktur und Fabric mit den Standardnamen zu erstellen. Weitere Informationen finden Sie unter Konfigurieren des Microsoft SQL-Servers.
-
Wenn Ihre Datenbanknamen unterschiedlich sind, müssen Sie die vom Installationsprogramm erstellten Datenbanken löschen, die Datenbanken vom Quell-SQL-Server auf den neuen SQL-Server kopieren und die Datenbanknamen beibehalten.
-
Wenn Sie den Namen der Datenbank im neuen SQL-Server ändern möchten, müssen Sie die Datei
cluster_config.json
für jedes Produkt, das Sie installieren, sorgfältig bearbeiten.
-
Stellen Sie sicher, dass Sie das neue Installationsprogramm auf Ihren Quellcluster übertragen, um die Daten in den neuen Zielcluster zu migrieren. Führen Sie die Schritte unter Herunterladen der Installationspakete und Übertragen auf die Maschinen auf einem der Serverknoten des Quellclusters aus, von dem aus Sie die Migration auslösen möchten.
-
Versetzen Sie den Quellcluster in den Wartungsmodus:
./configureUiPathAS.sh enable-maintenance-mode
./configureUiPathAS.sh enable-maintenance-modeWichtig:Die Ausfallzeit beginnt jetzt.
-
Kopieren Sie Ihre Datenbanken mit Ihrer bevorzugten Methode in den Zielcluster. Sie können z. B. den Assistenten zum Kopieren der Datenbank verwenden.
-
Rufen Sie die Datei
target_kubeconfig
des Zielclusters ab, um die Datenmigration durchzuführen, indem Sie den folgenden Befehl ausführen:./configureUiPathAS.sh kubeconfig get --migration
./configureUiPathAS.sh kubeconfig get --migrationHinweis: Die Dateitarget_kubeconfig
ist erforderlich, um die Informationen des Zielobjektspeichers im Cluster abzurufen und die erforderliche Datenkopie für die Zielversion auszuführen. -
Kopieren Sie die generierte Datei in den Quellcluster. Sie müssen diese Datei während der Datenmigration verwenden.
-
Kopieren Sie die Daten vom Quellcluster in den Zielcluster, indem Sie das Datenmigrationsskript auf dem Quellcluster ausführen.
cd /opt/UiPathAutomationSuite/<new_version>/installer/bin uipathctl cluster migration run cluster_config.json --target-kubeconfig <target_kubeconfig> --versions versions.json
cd /opt/UiPathAutomationSuite/<new_version>/installer/bin uipathctl cluster migration run cluster_config.json --target-kubeconfig <target_kubeconfig> --versions versions.jsonHinweis:- Der vorherige Migrationsbefehl ist idempotent. Wenn der Befehl zwischendurch wegen der Netzwerkverbindung fehlschlägt, können Sie ihn erneut ausführen, und der Migrationsprozess wird dort fortgesetzt, wo er unterbrochen wurde.
- Optional können Sie eine differenzielle Synchronisierung der Datenmigration durchführen, indem Sie den Migrationsbefehl erneut ausführen.
-
Wenn Sie einen externen Objektspeicher im Quellcluster verwenden, klonen Sie die Objektspeicher-Buckets.