- Überblick
- Anforderungen
- Installation
- Fragen und Antworten: Bereitstellungsvorlagen
- Herunterladen der Installationspakete
- install-uipath.sh-Parameter
- Aktivieren eines High Availability Add-ons für den Cluster
- Document Understanding-Konfigurationsdatei
- Hinzufügen eines dedizierten Agent-Knotens mit GPU-Unterstützung
- Verbinden einer Task Mining-Anwendung
- Hinzufügen eines dedizierten Agent-Knotens für Task Mining
- Nach der Installation
- Clusterverwaltung
- Verwalten von Produkten
- Verwalten des Clusters in ArgoCD
- Einrichten des externen NFS-Servers
- Automatisiert: Aktivieren der Sicherung im Cluster
- Automatisiert: Deaktivieren der Clustersicherung
- Automatisiert, online: Wiederherstellen des Clusters
- Automatisiert, offline: Wiederherstellen des Clusters
- Manuell: Aktivieren der Clustersicherung
- Manuell: Deaktivieren der Clustersicherung
- Manuell, online: Wiederherstellen des Clusters
- Manuell, offline: Wiederherstellen des Clusters
- Zusätzliche Konfiguration
- Migrieren von Objectstore von persistentem Volume zu Raw-Festplatten
- Überwachung und Warnungen
- Migration und Upgrade
- Automatisiert: Online-Upgrade
- Automatisiert: Offline-Upgrade
- Handbuch: Online-Upgrade
- Manuell: Offline-Upgrade
- Rollback bei Fehler
- Migrieren einer physischen Longhorn-Festplatte zum LVM
- Migration von Canal zu Cilium CNI
- Herabstufen von Ceph von 16.2.6 auf 15.2.9
- Migrationsoptionen
- Schritt 1: Verschieben der Identitätsorganisationsdaten von einer eigenständigen in die Automation Suite
- Schritt 2: Wiederherstellen der eigenständigen Produktdatenbank
- Schritt 3: Sichern der Plattformdatenbank in der Automation Suite
- Schritt 4: Zusammenführen von Organisationen in der Automation Suite
- Schritt 5: Aktualisieren der migrierten Produktverbindungszeichenfolgen
- Schritt 6: Migrieren von eigenständigen Insights
- Schritt 7: Löschen des Standardmandanten
- B) Migration von einzelnen Mandanten
- Produktspezifische Konfiguration
- Best Practices und Wartung
- Fehlersuche und ‑behebung
- Fehlerbehebung bei Diensten während der Installation
- Deinstallieren des Clusters
- Löschen von Offline-Artefakten für mehr Speicherplatz
- So löschen Sie Redis-Daten
- So können Sie die Istio-Protokollierung aktivieren
- So werden Protokolle manuell bereinigt
- So löschen Sie alte Protokolle, die im sf-logs-Bucket gespeichert sind
- So deaktivieren Sie Streaming-Protokolle für das AI Center
- Fehlerbehebung bei fehlgeschlagenen Automation Suite-Installationen
- So löschen Sie Bilder aus dem alten Installationsprogramm nach dem Upgrade
- Automatisches Bereinigen von Longhorn-Snapshots
- Deaktivieren von TX-Prüfsummen-Offloading
- Umgang mit schwachen Verschlüsselungen in TLS 1.2
- Es kann keine Offlineinstallation auf RHEL 8.4 OS ausgeführt werden.
- Fehler beim Herunterladen des Pakets
- Die Offlineinstallation schlägt aufgrund fehlender binärer Dateien fehl
- Zertifikatproblem bei der Offlineinstallation
- Die erste Installation schlägt während des Longhorn-Setups fehl
- Validierungsfehler bei der SQL-Verbindungszeichenfolge
- Voraussetzungsprüfung für das Selinux-iscsid-Modul schlägt fehl
- Azure-Datenträger nicht als SSD markiert
- Fehler nach der Zertifikatsaktualisierung
- Automation Suite funktioniert nach Betriebssystem-Upgrade nicht
- Für die Automation Suite muss Backlog_wait_time festgelegt werden 1
- Volume nicht bereitstellbar, da es nicht für Workloads bereit ist
- RKE2 schlägt während der Installation und Aktualisierung fehl
- Fehler beim Hoch- oder Herunterladen von Daten im Objektspeicher
- Die Größenänderung eines PVC bewirkt keine Korrektur von Ceph
- Fehler beim Ändern der Größe von objectstore PVC
- Rook Ceph oder Looker-Pod hängen im Init-Status fest
- Fehler beim Anhängen eines StatefulSet-Volumes
- Fehler beim Erstellen persistenter Volumes
- Patch zur Rückgewinnung von Speicherplatz
- Sicherung aufgrund des Fehlers „TooManySnapshots“ fehlgeschlagen
- Alle Longhorn-Replikate sind fehlerhaft
- Festlegen eines Timeout-Intervalls für die Verwaltungsportale
- Aktualisieren Sie die zugrunde liegenden Verzeichnisverbindungen
- Anmeldung nach der Migration nicht mehr möglich
- Kinit: KDC kann für Realm <AD Domain> beim Abrufen der ersten Anmeldeinformationen nicht gefunden werden
- Kinit: Keytab enthält keine geeigneten Schlüssel für *** beim Abrufen der ersten Anmeldeinformationen
- Der GSSAPI-Vorgang ist mit Fehler fehlgeschlagen: Es wurde ein ungültiger Statuscode übermittelt (Die Anmeldeinformationen des Clients wurden widerrufen).
- Alarm für fehlgeschlagenen Kerberos-tgt-update-Auftrag empfangen
- SSPI-Anbieter: Server nicht in Kerberos-Datenbank gefunden
- Die Anmeldung ist für den Benutzer <ADDOMAIN><aduser> fehlgeschlagen. Grund: Das Konto ist deaktiviert.
- ArgoCD-Anmeldung fehlgeschlagen
- Fehler beim Abrufen des Sandbox-Abbilds
- Pods werden nicht in der ArgoCD-Benutzeroberfläche angezeigt
- Redis-Testfehler
- RKE2-Server kann nicht gestartet werden
- Secret nicht im UiPath-Namespace gefunden
- Nach der ersten Installation wechselte ArgoCD in den Status „Progressing“.
- MongoDB-Pods in „CrashLoopBackOff“ oder ausstehende PVC-Bereitstellung nach Löschung
- UNERWARTETE INKONSISTENZ; fsck MANUELL AUSFÜHREN
- Herabgestufte MongoDB- oder Geschäftsanwendungen nach der Clusterwiederherstellung
- Self-heal-operator und Sf-k8-utils-Repository fehlen
- Fehlerhafte Dienste nach Clusterwiederherstellung oder Rollback
- RabbitMQ-Pod bleibt in CrashLoopBackOff hängen
- Prometheus im Zustand „CrashloopBackoff“ mit OOM-Fehler (Out-of-Memory)
- Fehlende Ceph-rook-Metriken in Überwachungs-Dashboards
- Pods können nicht mit FQDN in einer Proxy-Umgebung kommunizieren
- Document Understanding erscheint nicht auf der linken Leiste der Automation Suite
- Fehlerstatus beim Erstellen einer Datenbeschriftungssitzung
- Fehlerstatus beim Versuch, eine ML-Fähigkeit bereitzustellen
- Migrationsauftrag schlägt in ArgoCD fehl
- Die Handschrifterkennung mit dem Intelligent Form Extractor funktioniert nicht oder arbeitet zu langsam
- Verwenden des Automation Suite-Diagnosetools
- Verwenden des Automation Suite-Supportpakets
- Erkunden von Protokollen
Automation Suite-Installationsanleitung
Migrieren einer physischen Longhorn-Festplatte zum LVM
Im Release 2021.10.0 mussten Benutzer einen physischen Datenträger als Blockspeicher/DataDisk bereitstellen. Bei einem physischen Datenträger war die Größe eines Volumens/PVC, das Sie erstellen konnten, jedoch auf die Größe des zugrunde liegenden Datenträgers beschränkt. Außerdem war nur eine vertikale Skalierung möglich. Aus diesem Grund empfiehlt Longhorn dringend, LVM zu verwenden, um alle Datenlaufwerke in einer einzigen Partition zu aggregieren. Dies ermöglicht eine einfache Erweiterung der Blockspeicherung in der Zukunft Longhorn | Best Practices.
Wenn Sie 2 TiB Speicher an Longhorn zugewiesen haben und Ihre Speicheranforderungen niedrig sind, empfehlen wir, zu LVM zu migrieren.
- Ihr Cluster muss ein HA-fähiges Produktionscluster mit mehreren Knoten sein, d. h. der Cluster sollte mindestens drei Serverknoten enthalten.
- Stellen Sie sicher, dass zu dem Zeitpunkt der Knotenrotation keiner der Workloads der AI-Familie (AI Center, DU, TM) ausgeführt wird oder diese Workloads plötzlich fehlschlagen.
- Sie müssen die Automation Suite auf die Version 2021.10.1 aktualisieren.
- Beim Einrichten des Clusters unter
cluster_config.json
alsfixed_rke2_address
wird die LB-URL verwendet, anstatt IP oder FQDN der ersten Maschine hart zu codieren. - Stellen Sie drei Standby-Maschinen bereit, die Ihre ursprünglichen Serverknoten ersetzen werden. Die Hardwarekonfiguration dieser Maschinen sollte mit der von Ihren vorhandenen Serverknoten identisch sein. Maschinen müssen demselben VPC, Subnetz, Netzwerksicherheitsgruppe usw. zugeordnet werden. Die Anzahl der angefügten Datenträger und ihre Größe sollten ebenfalls gleich sein.
- Stellen Sie sicher, dass alle Ports auf den Maschinen zugänglich sind. Weitere Informationen finden Sie unter Konfigurieren der Maschinen.
- Erstellen Sie die Festplattenpartitionen nicht manuell auf neuen Maschinen. Verwenden Sie stattdessen das Skript zur Partitionierung des Datenträgers, das unter Konfigurieren des Datenträgers beschrieben wird.
- Stellen Sie sicher, dass die Hostnamen der Maschinen identisch sind. Wenn Ihre alten Server z. B.
server0
,server1
undserver2
benannt wurden, geben Sie auch den neuen Serverknoten diese Hostnamen. - Kopieren Sie den Installationsordner zusammen mit
cluster_config.json
vom vorhandenen ersten Server auf alle drei neu erstellten Maschinen. - Bevor Sie mit der Serverrotation fortfahren, führen Sie dieses Zustandsüberprüfungsskript auf einem der vorhandenen Server aus. Das Skript sollte keine Fehler auslösen und die folgende Meldung anzeigen:
All Deployments are Healthy
(„Alle Bereitstellungen in gutem Zustand“).
- Serverknoten müssen nacheinander rotiert werden. Beachten Sie, dass der Knotenrotationsprozess nicht für Agent-Knoten gilt.
- Fahren Sie alte
server-N
-Knoten herunter, damit Workloads, die auf dem Knoten ausgeführt werden, ordnungsgemäß gelöscht werden (N
ist der n-te Serverknoten, z. B.server0
). -
Entfernen Sie den Server aus dem Cluster, indem Sie den folgenden Befehl ausführen:
#where N is the nth server node Ex: server0 kubectl delete node server-N
#where N is the nth server node Ex: server0 kubectl delete node server-N - Entfernen Sie Server-N aus dem Backend-Pool des Lastenausgleichs, d. h. sowohl aus dem Server- als auch aus dem Knotenpool. Weitere Informationen finden Sie unter Konfigurieren des Lastenausgleichs.
- Installieren Sie auf dem neuen Server-N-Knoten Kubernetes und konfigurieren Sie den neuen Knoten als Server. Weitere Informationen finden Sie unter Hinzufügen eines neuen Knotens zum Cluster.
- Sobald die Kubernetes-Installation erfolgreich ist, führen Sie
kubectl get nodes
aus und überprüfen Sie, ob der neue Knoten tatsächlich mit dem ursprünglichen Cluster verbunden ist. - Führen Sie das Zustandsüberprüfungsskript im hinzugefügten Knoten aus, um den Zustand des Clusters zu überwachen. Das Skript sollte die folgende Meldung anzeigen:
All Deployments are Healthy
(„Alle Bereitstellungen in gutem Zustand). - Sobald das Zustandsüberprüfungsskript erfolgreich zurückgegeben wurde, fügen Sie den neuen Serverknoten zu den Server- und Knotenpools unter dem Lastenausgleich hinzu. Weitere Informationen finden Sie unter Konfigurieren des Lastenausgleichs.
- Wiederholen Sie den Knotenrotationsprozess für andere Serverknoten, d. h. server1, server2, ..., server-N.
- Nachdem alle Serverknoten rotiert wurden, können Sie die älteren Serverknoten löschen, die sich im heruntergefahrenen Status befinden.