- Überblick
- Anforderungen
- Empfohlen: Bereitstellungsvorlagen
- Anleitung: Vorbereiten der Installation
- Anleitung: Vorbereiten der Installation
- Schritt 1: Konfigurieren der OCI-konformen Registrierung für Offline-Installationen
- Schritt 2: Konfigurieren des externen Objektspeichers
- Schritt 3: Konfigurieren eines High Availability Add-ons
- Schritt 4: Konfigurieren von Microsoft SQL Server
- Schritt 5: Konfigurieren des Lastausgleichs
- Schritt 6: Konfigurieren des DNS
- Schritt 7: Konfigurieren der Datenträger
- Schritt 8: Konfigurieren der Einstellungen auf Kernel- und Betriebssystemebene
- Schritt 9: Konfigurieren der Knotenports
- Schritt 10: Anwenden verschiedener Einstellungen
- Schritt 12: Validieren und Installieren der erforderlichen RPM-Pakete
- Schritt 13: Generieren von cluster_config.json
- Zertifikatkonfiguration
- Datenbankkonfiguration
- Konfiguration des externen Objektspeichers
- Vorsignierte URL-Konfiguration
- Externe OCI-konforme Registrierungskonfiguration
- Disaster Recovery: Aktiv/Passiv- und Aktiv/Aktiv-Konfigurationen
- Konfiguration des High Availability Add-ons
- Spezifische Orchestrator-Konfiguration
- Insights-spezifische Konfiguration
- Process Mining-spezifische Konfiguration
- Spezifische Konfiguration für Document Understanding
- Spezifische Konfiguration für Automation Suite Robots
- Konfiguration der Überwachung
- Optional: Konfigurieren des Proxyservers
- Optional: Aktivieren der Widerstandsfähigkeit gegen zonale Ausfälle in einem HA-fähigen Produktionscluster mit mehreren Knoten
- Optional: Übergeben einer benutzerdefinierten resolv.conf-Datei
- Optional: Erhöhen der Fehlertoleranz
- install-uipath.sh-Parameter
- Hinzufügen eines dedizierten Agent-Knotens mit GPU-Unterstützung
- Hinzufügen eines dedizierten Agent-Knotens für Task Mining
- Verbinden einer Task Mining-Anwendung
- Hinzufügen eines dedizierten Agentenknotens für Automation Suite-Roboter
- Schritt 15: Konfigurieren der temporären Docker-Registrierung für Offline-Installationen
- Schritt 16: Validieren der Voraussetzungen für die Installation
- Manuell: Durchführen der Installation
- Nach der Installation
- Clusterverwaltung
- Verwalten von Produkten
- Erste Schritte mit dem Clusterverwaltungsportal
- Migrieren von Objectstore von persistentem Volume zu Raw-Festplatten
- Migrieren vom clusterinternen zum externen High Availability Add-on
- Migrieren von Daten zwischen Objectstores
- Clusterinterner Objectstore zu einem externen Objectstore migrieren
- Migrieren zu einer externen OCI-konformen Registrierung
- Manueller Wechsel zum sekundären Cluster in einem Aktiv-/Passiv-Setup
- Disaster Recovery: Durchführen von Vorgängen nach der Installation
- Umwandlung einer bestehenden Installation in eine Multi-Site-Einrichtung
- Richtlinien zum Upgrade einer Aktiv/Passiv- oder Aktiv/Aktiv-Bereitstellung
- Leitlinien zum Sichern und Wiederherstellen einer Aktiv-/Passiv- oder Aktiv/Aktiv-Bereitstellung
- Umleitung des Datenverkehrs für die nicht unterstützten Dienste auf den primären Cluster
- Überwachung und Warnungen
- Migration und Upgrade
- Schritt 1: Verschieben der Identitätsorganisationsdaten von einer eigenständigen in die Automation Suite
- Schritt 2: Wiederherstellen der eigenständigen Produktdatenbank
- Schritt 3: Sichern der Plattformdatenbank in der Automation Suite
- Schritt 4: Zusammenführen von Organisationen in der Automation Suite
- Schritt 5: Aktualisieren der migrierten Produktverbindungszeichenfolgen
- Schritt 6: Migrieren des eigenständigen Orchestrators
- Schritt 7: Migrieren von eigenständigen Insights
- Schritt 8: Löschen des Standardmandanten
- B) Migration von einzelnen Mandanten
- Migrieren von der Automation Suite unter Linux zur Automation Suite unter EKS/AKS
- Aktualisieren der Automation Suite
- Herunterladen der Installationspakete und Übertragen aller Dateien auf den ersten Serverknoten
- Abrufen der zuletzt angewendeten Konfiguration aus dem Cluster
- Aktualisieren der Clusterkonfiguration
- Konfigurieren der OCI-konformen Registrierung für Offline-Installationen
- Ausführen des Upgrades
- Durchführen von Vorgängen nach dem Upgrade
- Produktspezifische Konfiguration
- Verwenden des Orchestrator-Konfiguratortools
- Konfigurieren von Orchestrator-Parametern
- Orchestrator-appSettings
- Konfigurieren von AppSettings
- Konfigurieren der maximalen Anforderungsgröße
- Überschreiben der Speicherkonfiguration auf Clusterebene
- Konfigurieren von Anmeldeinformationsspeichern
- Konfigurieren der Verwendung von einem Verschlüsselungsschlüssel pro Mandant
- Bereinigen der Orchestrator-Datenbank
- Best Practices und Wartung
- Fehlersuche und ‑behebung
- Fehlerbehebung bei Diensten während der Installation
- Deinstallieren des Clusters
- Löschen von Offline-Artefakten für mehr Speicherplatz
- So löschen Sie Redis-Daten
- So können Sie die Istio-Protokollierung aktivieren
- So werden Protokolle manuell bereinigt
- So löschen Sie alte Protokolle, die im sf-logs-Paket gespeichert sind
- So deaktivieren Sie Streaming-Protokolle für das AI Center
- Fehlerbehebung bei fehlgeschlagenen Automation Suite-Installationen
- So löschen Sie Bilder aus dem alten Installationsprogramm nach dem Upgrade
- Deaktivieren von TX-Prüfsummen-Offloading
- Upgrade von Automation Suite 2022.10.10 und 2022.4.11 auf 2023.10.2
- So legen Sie die ArgoCD-Protokollebene manuell auf Info fest
- So erweitern Sie den AI Center-Speicher
- So wird der codierte pull_secret_value für externe Registrierungen generiert
- Umgang mit schwachen Verschlüsselungen in TLS 1.2
- Es kann keine Offlineinstallation auf RHEL 8.4 OS ausgeführt werden.
- Fehler beim Herunterladen des Pakets
- Die Offlineinstallation schlägt aufgrund fehlender binärer Dateien fehl
- Zertifikatproblem bei der Offlineinstallation
- Die erste Installation schlägt während des Longhorn-Setups fehl
- Validierungsfehler bei der SQL-Verbindungszeichenfolge
- Voraussetzungsprüfung für das Selinux-iscsid-Modul schlägt fehl
- Azure-Datenträger nicht als SSD markiert
- Fehler nach der Zertifikatsaktualisierung
- Virenschutz verursacht Probleme bei der Installation
- Automation Suite funktioniert nach Betriebssystem-Upgrade nicht
- Bei der Automation Suite muss „backlog_wait_time“ auf 0 gesetzt werden.
- Volume nicht bereitstellbar, da es nicht für Workloads bereit ist
- Fehler bei der Protokollsammlung des Supportpakets
- Das Upgrade eines einzelnen Knotens schlägt in der Fabric-Phase fehl
- Fehler im Cluster nach automatisiertem Upgrade von 2021.10
- Upgrade schlägt aufgrund eines fehlerhaften Ceph . fehl
- Rke2 wird aufgrund von Platzproblemen nicht gestartet
- Datenträger kann nicht verbunden werden und verbleibt im Status der „Attach/Detach“-Schleife
- Upgrade schlägt aufgrund von klassischen Objekten in der Orchestrator-Datenbank fehl
- Ceph-Cluster in beeinträchtigtem Status nach parallelem Upgrade
- Fehlerhafte Insights-Komponente verursacht Fehlschlag der Migration
- Dienst-Upgrade schlägt für Apps fehl
- Timeouts beim direkten Upgrade
- Docker-Registrierungsmigration bleibt in PVC-Löschphase hängen
- AI Center-Bereitstellungsfehler nach Upgrade auf 2023.10
- Upgrade schlägt in Offline-Umgebungen fehl
- SQL-Validierung schlägt während des Upgrades fehl
- Snapshot-controller-crds Pod im Status CrashLoopBackOff nach dem Upgrade
- Fehler beim Hoch- oder Herunterladen von Daten im Objektspeicher
- Die Größenänderung eines PVC bewirkt keine Korrektur von Ceph
- Fehler beim Ändern der Größe von objectstore PVC
- Rook Ceph oder Looker-Pod hängen im Init-Status fest
- Fehler beim Anhängen eines StatefulSet-Volumes
- Fehler beim Erstellen persistenter Volumes
- Festlegen eines Timeout-Intervalls für die Verwaltungsportale
- Die Authentifizierung funktioniert nach der Migration nicht
- kinit: KDC kann für Realm <AD Domain> beim Abrufen der ersten Anmeldeinformationen nicht gefunden werden
- Kinit: Keytab enthält keine geeigneten Schlüssel für *** beim Abrufen der ersten Anmeldeinformationen
- GSSAPI-Vorgang aufgrund eines ungültigen Statuscodes fehlgeschlagen
- Alarm für fehlgeschlagenen Kerberos-tgt-update-Auftrag erhalten
- SSPI-Anbieter: Server in Kerberos-Datenbank nicht gefunden
- Anmeldung eines AD-Benutzers aufgrund eines deaktivierten Kontos fehlgeschlagen
- ArgoCD-Anmeldung fehlgeschlagen
- Aktualisieren Sie die zugrunde liegenden Verzeichnisverbindungen
- Fehler beim Abrufen des Sandbox-Abbilds
- Pods werden nicht in der ArgoCD-Benutzeroberfläche angezeigt
- Redis-Testfehler
- RKE2-Server kann nicht gestartet werden
- Secret nicht im UiPath-Namespace gefunden
- ArgoCD wechselt nach der ersten Installation in den Status „In Bearbeitung“.
- MongoDB-Pods in „CrashLoopBackOff“ oder ausstehende PVC-Bereitstellung nach Löschung
- Fehlerhafte Dienste nach Clusterwiederherstellung oder Rollback
- Pods stecken in Init:0/X
- Fehlende Ceph-rook-Metriken in Überwachungs-Dashboards
- Document Understanding erscheint nicht auf der linken Leiste der Automation Suite
- Fehlerstatus beim Erstellen einer Datenbeschriftungssitzung
- Fehlerstatus beim Versuch, eine ML-Fähigkeit bereitzustellen
- Migrationsauftrag schlägt in ArgoCD fehl
- Die Handschrifterkennung mit dem Intelligent Form Extractor funktioniert nicht oder arbeitet zu langsam
- Ausführen von Hochverfügbarkeit mit Process Mining
- Die Process Mining-Datenaufnahme ist bei der Anmeldung über Kerberos fehlgeschlagen
- Nach Disaster Recovery funktioniert Dapr für Process Mining und Task Mining nicht mehr ordnungsgemäß.
- Verbindung mit der Datenbank „AutomationSuite_ProcessMining_Lager“ über eine Verbindungszeichenfolge im pyodbc-Format nicht möglich
- Die Airflow-Installation schlägt mit „sqlaldemy.exc.ArgumentError“ fehl: URL konnte nicht analysiert werden rfc1738 aus Zeichenfolge „
- So fügen Sie eine IP-Tabellenregel hinzu, um den SQL Server-Port 1433 zu verwenden
- Ausführen des Diagnosetools
- Verwenden des Automation Suite Support Bundle-Tools
- Erkunden von Protokollen
Grundlegende Architekturüberlegungen
Wie bei jeder standortübergreifenden Bereitstellung sollten auch bei der Automation Suite in erster Linie die Infrastruktur, die Datenquelle, die Verwaltung, das Ziel für die Wiederherstellungszeit, das Ziel für den Wiederherstellungspunkt usw. in Bezug auf die Architektur berücksichtigt werden.
Es wird empfohlen, für beide Cluster dieselbe Hardware zu verwenden. Der Automation Suite-Cluster funktioniert jedoch wahrscheinlich mit ähnlichen Hardwarekonfigurationen mit geringen Unterschieden. Heterogene Hardware kann die Komplexität erhöhen und die Fehlerbehebung verlangsamen.
Die Latenz ist beim Entwerfen eines Aktiv/Aktiv-Modells von entscheidender Bedeutung. Sie gibt die Round Trip Time (RTT) zwischen den beiden Automation Suite-Clustern an. Eine minimale Latenz zwischen den beiden Standorten ist optimal, da sie das Risiko von Datenverlusten während eines Ausfalls erheblich reduziert. Die RTT muss unter einen Schwellenwert von 10 ms fallen.
Sie sollten die RTT vor dem Übergang in die Produktionsphase gründlich testen, da sie sich direkt auf die Leistungsmetriken auswirkt. Wenn die Latenz den Richtwert von 10 ms zwischen den Site-Paaren überschreitet, empfehlen wir, ein Aktiv/Passiv-Setup anstelle einer Aktiv/Aktiv-Konfiguration in Betracht zu ziehen.
Jede Komponente, die eine Synchronisierung erfordert, sollte eine RTT von weniger als 10 ms haben. Dazu gehören SQL-Server, HAA, Objektspeicher usw.
Die beiden Automation Suite-Cluster sind unabhängig und haben keine gemeinsame Konfiguration. Daher muss jede Verwaltungs- oder Wartungsaktivität für diese Cluster einzeln durchgeführt werden. Sie müssen beispielsweise die SQL-Verbindungszeichenfolgen auf beiden Clustern aktualisieren, Zertifikate getrennt konfigurieren usw. Zudem müssen Sie die beiden Cluster unabhängig voneinander überwachen, sie einzeln aktualisieren usw.
Der Objektspeicher bildet in Kombination mit der SQL-Datenbank den Status eines installierten Produkts in der Automation Suite.
Die SQL Server-Konfiguration spielt eine wichtige Rolle in einer Bereitstellung mit mehreren Standorten. Obwohl der SQL-Server eine externe Komponente der Automation Suite ist, sind ein paar zusätzliche Schritte erforderlich, um eine echte HA bei der Arbeit mit der gesamten Automation Suite zu gewährleisten.
MultiSubnetFailover=True
in der Verbindungszeichenfolge festzulegen, wenn der SQL-Server/die Datenbanken über mehrere Subnetze verteilt sind.
Weitere Informationen finden Sie unter Always On-Verfügbarkeitsgruppen und Voraussetzungen, Einschränkungen und Empfehlungen für Always On-Verfügbarkeitsgruppen.
Der externe Objektspeicher ist immun gegen eine mögliche Beeinträchtigung durch einen Knotenausfall. Datenreplikation und Disaster Recovery können unabhängig von der Automation Suite durchgeführt werden. Wie SQL-Server muss der externe Objektspeicher in einem High Availability Disaster Recovery-Setup konfiguriert werden. Die primäre Objektspeicherinstanz befindet sich physisch im primären Rechenzentrum und mindestens eine sekundäre Instanz befindet sich in dem sekundären Rechenzentrum mit aktivierter Datensynchronisierung. Sie können einen Lastausgleich auf dem Objektspeicher konfigurieren, um sicherzustellen, dass beide Automation Suite-Cluster auf dieselben Endpunkte verweisen. Somit ist die Bereitstellung von der internen Konfiguration des Objektspeichers unabhängig.
Bei AWS S3 unterstützt der Zugriffspunkt mit mehreren Regionen nicht alle s3-APIs, die von allen Produkten benötigt werden, die in der Automation Suite ausgeführt werden. Weitere Informationen zur Liste der unterstützten APIs finden Sie unter Verwenden von Zugriffspunkten für mehrere Regionen mit unterstützten API-Vorgängen.
Sie können zwei Buckets pro Produkt/Suite in beiden Regionen erstellen und die Synchronisierung aktivieren. Der Automation Suite-Cluster, der in derselben Region ausgeführt wird, verweist auf die Buckets in derselben Region.
Die RTO-Richtlinie Ihres Unternehmens ist für die Konzeption Ihres Automation Suite-Clusters mit mehreren Sites entscheidend. Berücksichtigen Sie die folgenden Aspekte, um das gewünschte RTO zu erreichen:
- Design des Traffic Managers;
- Verfügbarkeit der Knoten im sekundären/passiven Cluster;
- Dynamische Workload-Verfügbarkeit auf dem sekundären Cluster; Beispiel: MLFähigkeit;
- Konfigurationsverwaltung.
Um das volle Potenzial beider Cluster auszuschöpfen, ist es wichtig, den Traffic Manager entsprechend zu konfigurieren. Die Einrichtung sollte idealerweise die Verteilung des Datenverkehrs auf beide Cluster erleichtern. Diese Strategie gewährleistet nicht nur eine ausgewogene Lastverteilung, sondern gewährleistet auch die Geschäftskontinuität, indem sie mögliche Unterbrechungen im Falle eines vollständigen Ausfalls eines der beiden Standorte reduziert.
Sollte eine Katastrophe dazu führen, dass ein Standort vollständig ausfällt, so muss der andere Standort über ausreichende Kapazitäten verfügen, um die Geschäftsautomatisierung nicht zu beeinträchtigen. Eine unzureichende Kapazität am funktionierenden Standort kann sich negativ auf den Geschäftsbetrieb auswirken und möglicherweise zu erheblichen betrieblichen Problemen führen.
Einige Produkte, z. B. das AI Center, stellen die ML-Fähigkeiten dynamisch zur Laufzeit bereit. Die Bereitstellung der Fähigkeiten in einem anderen Cluster ist immer asynchron. Dadurch kann ihre Verfügbarkeit nicht garantiert werden. Um sicherzustellen, dass Ihre Automatisierungslösung innerhalb der gewünschten Zeit wieder online ist, können Sie die Fähigkeiten in einem anderen Cluster regelmäßig synchronisieren.
Da Automation Suite-Bereitstellungen mit mehreren Standorten aus zwei verschiedenen Clustern bestehen, muss jeder Vorgang, der auf einem beliebigen Cluster ausgeführt wird, rechtzeitig auf dem anderen Cluster ausgeführt werden, um die Abweichung zu verringern. Dadurch wird sichergestellt, dass beide Cluster über ähnliche Konfigurationen verfügen und während der Wiederherstellungsphase kein zusätzlicher Aufwand erforderlich ist.
Die Richtlinie Ihrer Organisation rund um das Ziel des Wiederherstellungspunkts (Recovery Point Objective, RPO) ist von entscheidender Bedeutung für den Entwurf eines Automation Suite-Clusters mit mehreren Sites. Um das gewünschte RPO zu erreichen, müssen Sie die folgenden Aspekte berücksichtigen:
- Datensynchronisierung;
- Geplante Sicherung.
Wenn Daten in die primäre Datenquelle geschrieben werden, müssen sie auch mit dem sekundären Cluster synchronisiert werden. Es besteht jedoch das Risiko von Datenverlusten, wenn das Rechenzentrum ausgefallen ist und die Daten nicht synchronisiert werden. Beispielhafte Netzwerkkonfigurationen, z. B. hohe Bandbreite und geringe Latenz zwischen den beiden Rechenzentren, können die Synchronisierung beschleunigen.
Nicht jede Disaster Recovery bietet vollständige Immunität gegen Datenverlust. Sie können jedoch eine regelmäßige und periodische Sicherungsstrategie anwenden, um die negativen Auswirkungen auf die Datenwiederherstellung zu minimieren. Weitere Informationen finden Sie unter Sichern und Wiederherstellen des Clusters.