- Überblick
- Anforderungen
- Bereitstellungsvorlagen
- Anleitung: Vorbereiten der Installation
- Anleitung: Vorbereiten der Installation
- Schritt 2: Konfigurieren der OCI-konformen Registrierung für Offline-Installationen
- Schritt 3: Konfigurieren des externen Objektspeichers
- Schritt 4: Konfigurieren des High Availability Add-on
- Schritt 5: Konfigurieren von SQL-Datenbanken
- Schritt 7: Konfigurieren des DNS
- Schritt 8: Konfigurieren der Datenträger
- Schritt 10: Konfigurieren der Knotenports
- Schritt 11: Anwenden verschiedener Einstellungen
- Schritt 12: Validieren und Installieren der erforderlichen RPM-Pakete
- Schritt 13: Generieren von cluster_config.json
- Cluster_config.json-Beispiel
- Allgemeine Konfiguration
- Profilkonfiguration
- Zertifikatkonfiguration
- Datenbankkonfiguration
- Konfiguration des externen Objektspeichers
- Vorsignierte URL-Konfiguration
- ArgoCD-Konfiguration
- Konfiguration der Kerberos-Authentifizierung
- Externe OCI-konforme Registrierungskonfiguration
- Disaster Recovery: Aktiv/Passiv- und Aktiv/Aktiv-Konfigurationen
- Konfiguration des High Availability Add-ons
- Spezifische Orchestrator-Konfiguration
- Insights-spezifische Konfiguration
- Process Mining-spezifische Konfiguration
- Spezifische Konfiguration für Document Understanding
- Spezifische Konfiguration für Automation Suite Robots
- AI Center-spezifische Konfiguration
- Konfiguration der Überwachung
- Optional: Konfigurieren des Proxyservers
- Optional: Aktivieren der Widerstandsfähigkeit gegen zonale Ausfälle in einem HA-fähigen Produktionscluster mit mehreren Knoten
- Optional: Übergeben einer benutzerdefinierten resolv.conf-Datei
- Optional: Erhöhen der Fehlertoleranz
- Hinzufügen eines dedizierten Agent-Knotens mit GPU-Unterstützung
- Hinzufügen eines dedizierten Agentenknotens für Automation Suite-Roboter
- Schritt 15: Konfigurieren der temporären Docker-Registrierung für Offline-Installationen
- Schritt 16: Validieren der Voraussetzungen für die Installation
- Ausführen von uipathctl
- Manuell: Durchführen der Installation
- Nach der Installation
- Clusterverwaltung
- Verwalten von Produkten
- Erste Schritte mit dem Clusterverwaltungsportal
- Migrieren von Redis vom clusterinternen zum externen High Availability Add-on
- Migrieren von Daten zwischen Objectstores
- Clusterinterner Objectstore zu einem externen Objectstore migrieren
- Migrieren von der clusterinternen Registrierung zu einer externen OCI-konformen Registrierung
- Manueller Wechsel zum sekundären Cluster in einem Aktiv-/Passiv-Setup
- Disaster Recovery: Durchführen von Vorgängen nach der Installation
- Umwandlung einer bestehenden Installation in eine Multi-Site-Einrichtung
- Richtlinien zum Upgrade einer Aktiv/Passiv- oder Aktiv/Aktiv-Bereitstellung
- Leitlinien zum Sichern und Wiederherstellen einer Aktiv-/Passiv- oder Aktiv/Aktiv-Bereitstellung
- Skalieren einer Bereitstellung mit einem einzelnen Knoten (Auswertung) zu einer Bereitstellung mit mehreren Knoten (HA).
- Überwachung und Warnungen
- Migration und Upgrade
- Migrieren zwischen Automation Suite-Clustern
- Aktualisieren der Automation Suite
- Herunterladen der Installationspakete und Übertragen aller Dateien auf den ersten Serverknoten
- Abrufen der zuletzt angewendeten Konfiguration aus dem Cluster
- Aktualisieren der Clusterkonfiguration
- Konfigurieren der OCI-konformen Registrierung für Offline-Installationen
- Ausführen des Upgrades
- Durchführen von Vorgängen nach dem Upgrade
- Produktspezifische Konfiguration
- Konfigurieren von Orchestrator-Parametern
- Konfigurieren von AppSettings
- Konfigurieren der maximalen Anforderungsgröße
- Überschreiben der Speicherkonfiguration auf Clusterebene
- Konfigurieren von NLog
- Speichern von Roboterprotokollen in Elasticsearch
- Konfigurieren von Anmeldeinformationsspeichern
- Konfigurieren der Verwendung von einem Verschlüsselungsschlüssel pro Mandant
- Bereinigen der Orchestrator-Datenbank
- Best Practices und Wartung
- Fehlersuche und ‑behebung
- Fehlerbehebung bei Diensten während der Installation
- Deinstallieren des Clusters
- Löschen von Offline-Artefakten für mehr Speicherplatz
- So löschen Sie Redis-Daten
- So können Sie die Istio-Protokollierung aktivieren
- So werden Protokolle manuell bereinigt
- So löschen Sie alte Protokolle, die im sf-logs-Bucket gespeichert sind
- So deaktivieren Sie Streaming-Protokolle für das AI Center
- Fehlerbehebung bei fehlgeschlagenen Automation Suite-Installationen
- So löschen Sie Bilder aus dem alten Installationsprogramm nach dem Upgrade
- Deaktivieren von TX-Prüfsummen-Offloading
- So legen Sie die ArgoCD-Protokollebene manuell auf Info fest
- So erweitern Sie den AI Center-Speicher
- So wird der codierte pull_secret_value für externe Registrierungen generiert
- Umgang mit schwachen Verschlüsselungen in TLS 1.2
- So überprüfen Sie die TLS-Version
- So arbeiten Sie mit Zertifikaten
- So planen Sie die Ceph-Sicherung und Wiederherstellung von Daten
- Sammeln von DU-Nutzungsdaten mit dem clusterinternen Objektspeicher (Ceph)
- So installieren Sie RKE2 SELinux in Air-Gap-Umgebungen
- So löschen Sie alte differenzielle Sicherungen auf einem NFS-Server
- Fehler beim Herunterladen des Pakets
- Die Offlineinstallation schlägt aufgrund fehlender binärer Dateien fehl
- Zertifikatproblem bei der Offlineinstallation
- Validierungsfehler bei der SQL-Verbindungszeichenfolge
- Azure-Datenträger nicht als SSD markiert
- Fehler nach der Zertifikatsaktualisierung
- Virenschutz verursacht Probleme bei der Installation
- Automation Suite funktioniert nach Betriebssystem-Upgrade nicht
- Bei der Automation Suite muss „backlog_wait_time“ auf 0 gesetzt werden.
- Die temporäre Registrierungsinstallation schlägt unter RHEL 8.9 fehl
- Häufiges Neustartproblem bei UiPath-Namespace-Bereitstellungen während Offline-Installationen
- DNS-Einstellungen werden von CoreDNS nicht berücksichtigt
- Upgrade schlägt aufgrund eines fehlerhaften Ceph . fehl
- Rke2 wird aufgrund von Platzproblemen nicht gestartet
- Upgrade schlägt aufgrund von klassischen Objekten in der Orchestrator-Datenbank fehl
- Ceph-Cluster in beeinträchtigtem Status nach parallelem Upgrade
- Dienst-Upgrade schlägt für Apps fehl
- Timeouts beim direkten Upgrade
- Upgrade schlägt in Offline-Umgebungen fehl
- Snapshot-controller-crds Pod im Status CrashLoopBackOff nach dem Upgrade
- Upgrade schlägt aufgrund überschriebener Insights-PVC-Größen fehl
- Upgradefehler aufgrund von Hostnamen in Großbuchstaben
- Festlegen eines Timeout-Intervalls für die Verwaltungsportale
- Die Authentifizierung funktioniert nach der Migration nicht
- kinit: KDC kann für Realm <AD Domain> beim Abrufen der ersten Anmeldeinformationen nicht gefunden werden
- Kinit: Keytab enthält keine geeigneten Schlüssel für *** beim Abrufen der ersten Anmeldeinformationen
- GSSAPI-Vorgang aufgrund eines ungültigen Statuscodes fehlgeschlagen
- Alarm für fehlgeschlagenen Kerberos-tgt-update-Auftrag erhalten
- SSPI-Anbieter: Server in Kerberos-Datenbank nicht gefunden
- Anmeldung eines AD-Benutzers aufgrund eines deaktivierten Kontos fehlgeschlagen
- ArgoCD-Anmeldung fehlgeschlagen
- Aktualisieren Sie die zugrunde liegenden Verzeichnisverbindungen
- Fehler beim Abrufen des Sandbox-Abbilds
- Pods werden nicht in der ArgoCD-Benutzeroberfläche angezeigt
- Redis-Testfehler
- RKE2-Server kann nicht gestartet werden
- Secret nicht im UiPath-Namespace gefunden
- ArgoCD wechselt nach der ersten Installation in den Status „In Bearbeitung“.
- Fehlende Ceph-rook-Metriken in Überwachungs-Dashboards
- Diskrepanz bei gemeldeten Fehlern bei diagnostischen Zustandsprüfungen
- Kein normales Upstream-Problem
- Redis-Start wird durch Antivirenprogramm blockiert
- Document Understanding erscheint nicht auf der linken Leiste der Automation Suite
- Fehlerstatus beim Erstellen einer Datenbeschriftungssitzung
- Fehlerstatus beim Versuch, eine ML-Fähigkeit bereitzustellen
- Migrationsauftrag schlägt in ArgoCD fehl
- Die Handschrifterkennung mit dem Intelligent Form Extractor funktioniert nicht oder arbeitet zu langsam
- Ausführen von Hochverfügbarkeit mit Process Mining
- Die Process Mining-Datenaufnahme ist bei der Anmeldung über Kerberos fehlgeschlagen
- Verbindung mit der Datenbank „AutomationSuite_ProcessMining_Lager“ über eine Verbindungszeichenfolge im pyodbc-Format nicht möglich
- Die Airflow-Installation schlägt mit „sqlaldemy.exc.ArgumentError“ fehl: URL konnte nicht analysiert werden rfc1738 aus Zeichenfolge „
- So fügen Sie eine IP-Tabellenregel hinzu, um den SQL Server-Port 1433 zu verwenden
- Dem Automation Suite-Zertifikat des Servers, auf dem CData Sync ausgeführt wird, wird nicht vertraut
- Ausführen des Diagnosetools
- Verwenden des Automation Suite-Supportpakets
- Erkunden von Protokollen
- Untersuchen der zusammengefassten Telemetrie

Automation Suite unter Linux – Installationsanleitung
Das parallele Upgrade der Automation Suite ermöglicht es Ihnen, Upgrade-Vorgänge sicher in einer parallelen Umgebung durchzuführen, anstatt ein Upgrade an Ort und Stelle durchzuführen.
Mit dieser Methode können Administratoren den Datenverkehr vom alten Automation Suite-Cluster (z. B. die blaue Bereitstellung) zum neuen Automation Suite-Cluster (z. B. die grüne Bereitstellung) umleiten, nachdem die neue Bereitstellung überprüft wurde. Wenn Sie ein Problem feststellen, können Sie schnell zur alten Bereitstellung zurückkehren.
Bei einem Parallel-Upgrade wird den beiden parallelen Clustern eine einzige Lizenz freigegeben.
- Wenn AI Center aktiviert ist, stellen Sie sicher, dass Sie die CUDA-Anforderungen erfüllen.
- Hardwareanforderungen, abhängig vom gewählten Modell:
- Paralleles Upgrade (Zielcluster identischer Größe) – Sowohl die Quell- als auch die Zielumgebung müssen die gleichen Hardware- und Softwareanforderungen erfüllen.
- Paralleles Upgrade (Start mit einzelnem Knoten) – Sie können einen Zielcluster mit einem einzelnen Knoten einrichten und dann skalieren. Stellen Sie sicher, dass Sie die vom Automation Suite-Installationsgrößenrechner vorgeschlagenen Hardwareanforderungen auf der Grundlage Ihrer Produktauswahl und Ihrer Nutzungsdetails erfüllen.
- Softwareanforderungen: Sowohl die Quell- als auch die Zielumgebung müssen die gleichen Hardware- und Softwareanforderungen erfüllen.
|
Daten |
Upgrade-Mechanismus | |
|---|---|---|
| Status | Verantwortung | |
|
SQL |
Beibehalten |
Kunde |
| FQDN |
Einbehalten; Optional Sie müssen einen neuen FQDN für den neuen Cluster auswählen. Optional können Sie bei Bedarf zum vorherigen FQDN zurückkehren. | Kunde |
| Pakete nach Bedarf |
Nicht migriert Führen Sie ein Skript aus, um festzustellen, welche Pakete sich im Cluster befinden. Manuelles Seeding ist erforderlich. | Kunde |
| Zertifikat |
Nicht migriert Sie müssen Zertifikate als Teil der neuen Clusterinstallation mitbringen. | Kunde |
| Clusterkonfiguration |
Nicht migriert Sie müssen
cluster_config.json aus dem ursprünglichen Quellcluster generieren, damit Sie der neuen Cluster-Installation dieselben Dienste zuordnen.
| Kunde |
| Benutzerdefinierte Warnungen und Dashboards, die von Benutzern erstellt wurden |
Nicht migriert Sie müssen die benutzerdefinierten Warnungen und Dashboards nach dem Upgrade neu konfigurieren. | Kunde |
| Von Benutzern erstellte Anwendungsprotokolle / Prometheus-Streaming-Konfiguration |
Nicht migriert Sie müssen das Anwendungsprotokoll und das Prometheus-Streaming neu konfigurieren. | Kunde |
| Dynamische Workloads |
Abhängig von der Anwendung AI Center-Trainingsaufträge gehen verloren; Fähigkeiten werden beibehalten. |
Fähigkeiten (Skript, das nach dem Upgrade ausgeführt werden muss): UiPath® Trainingsaufträge: Kunde |
|
Objektspeicher |
Beibehalten |
Clusterinterner Objektspeicher (Ceph): UiPath® Externer Objektspeicher: Kunde |
|
Insights |
Beibehalten |
UiPath® |
|
MongoDB-Daten |
Beibehalten MongoDB-Daten werden in die Ziel-SQL verschoben. |
UiPath® |
|
RabbitMQ |
Nicht benötigt |
UiPath® |
| Überwachen (Daten) |
Nicht benötigt Überwachungsdaten gelten nicht für den neuen Cluster. Wichtig: Wenn Sie die integrierten Überwachungskomponenten nicht verwenden, müssen Sie nach dem Migrationsupgrade externe Überwachungskomponenten einrichten.
| Keine Angabe |
| Docker-Registrierung |
Nicht benötigt Sie müssen eine Docker-Registrierung im Cluster installieren oder eine externe Docker-Registrierung einbringen. | Keine Angabe |
|
Nr. |
Upgrade-Prozessschritte |
|---|---|
|
1 |
Bereiten Sie den neuen Cluster vor:
|
|
2 |
Migrieren Sie die Daten in den neuen Cluster:
|
|
3 |
Schließen Sie das Upgrade ab:
|
| 4 | Skalieren des Zielclusters – gilt nur, wenn Sie sich für ein paralleles Upgrade (Einzelknotenstart) entschieden haben:
|
Wir bieten zwei Modelle für parallele Upgrades an:
- Paralleles Upgrade (Zielcluster identischer Größe):
- Erfordert, dass der Zielcluster über die gleichen Hardwareressourcen wie der Quellcluster verfügt.
- Einmalig für den Datenverkehr verfügbar:
-
Die Datenmigration ist abgeschlossen.
-
Integritätsprüfungen sind erfolgreich.
-
- Paralleles Upgrade (Einzelknotenstart):
- Beginnt mit einem Knoten-Setup und skaliert dann zu einem HA-Setup. Dies reduziert die anfänglichen Hardwareanforderungen für ein paralleles Upgrade.
- Die Hardware für das Setup mit einem Knoten muss den Empfehlungen des Kapazitätsrechners für das Setup mit einem Knoten entsprechen.
- Zur Skalierung:
- Knoten aus dem Quellcluster können außer Betrieb genommen und dem Zielcluster hinzugefügt werden.
- Einmalig für den Datenverkehr verfügbar:
- Die Datenmigration ist abgeschlossen.
- Der Cluster wird auf mehrere Knoten skaliert.
- Integritätsprüfungen sind erfolgreich.
| Paralleles Upgrade (Zielcluster identischer Größe) | Paralleles Upgrade (Start mit Einzelknoten) | |
|---|---|---|
| Hardwareanforderungen | Erfordert identische Hardware für Quell- und Zielcluster. | Beginnt mit minimaler Hardware, wird nach Bedarf skaliert. |
| Ausfallzeit | Minimale Ausfallzeit durch vollständig redundante Zielumgebung. | Höhere Ausfallzeit aufgrund von Knotenskalierungsvorgängen. |
| Auswirkungen auf den Quellcluster | Keine Auswirkungen. | Quellknoten können außer Betrieb genommen und mit dem Zielcluster verbunden werden. |
| Rollback-Prozess | Einfaches Rollback, da die Quelle unverändert bleibt. | Wenn der Skalierungsvorgang im Zielcluster fehlschlägt, umfasst das Rollback die Reintegration der Knoten in den Quellcluster. |
| Auswirkungen auf die Kosten | Höhere Kosten aufgrund von doppelter Infrastruktur. | Niedrigere Kosten durch reduzierte anfängliche Hardwareanforderungen. |