- Überblick
- Anforderungen
- Empfohlen: Bereitstellungsvorlagen
- Anleitung: Vorbereiten der Installation
- Anleitung: Vorbereiten der Installation
- Schritt 1: Konfigurieren der OCI-konformen Registrierung für Offline-Installationen
- Schritt 2: Konfigurieren des externen Objektspeichers
- Schritt 3: Konfigurieren eines High Availability Add-ons
- Schritt 4: Konfigurieren von Microsoft SQL Server
- Schritt 5: Konfigurieren des Lastausgleichs
- Schritt 6: Konfigurieren des DNS
- Schritt 7: Konfigurieren der Datenträger
- Schritt 8: Konfigurieren der Einstellungen auf Kernel- und Betriebssystemebene
- Schritt 9: Konfigurieren der Knotenports
- Schritt 10: Anwenden verschiedener Einstellungen
- Schritt 12: Validieren und Installieren der erforderlichen RPM-Pakete
- Schritt 13: Generieren von cluster_config.json
- Zertifikatkonfiguration
- Datenbankkonfiguration
- Konfiguration des externen Objektspeichers
- Vorsignierte URL-Konfiguration
- Externe OCI-konforme Registrierungskonfiguration
- Disaster Recovery: Aktiv/Passiv- und Aktiv/Aktiv-Konfigurationen
- Konfiguration des High Availability Add-ons
- Spezifische Orchestrator-Konfiguration
- Insights-spezifische Konfiguration
- Process Mining-spezifische Konfiguration
- Spezifische Konfiguration für Document Understanding
- Spezifische Konfiguration für Automation Suite Robots
- Konfiguration der Überwachung
- Optional: Konfigurieren des Proxyservers
- Optional: Aktivieren der Widerstandsfähigkeit gegen zonale Ausfälle in einem HA-fähigen Produktionscluster mit mehreren Knoten
- Optional: Übergeben einer benutzerdefinierten resolv.conf-Datei
- Optional: Erhöhen der Fehlertoleranz
- install-uipath.sh-Parameter
- Hinzufügen eines dedizierten Agent-Knotens mit GPU-Unterstützung
- Hinzufügen eines dedizierten Agent-Knotens für Task Mining
- Verbinden einer Task Mining-Anwendung
- Hinzufügen eines dedizierten Agentenknotens für Automation Suite-Roboter
- Schritt 15: Konfigurieren der temporären Docker-Registrierung für Offline-Installationen
- Schritt 16: Validieren der Voraussetzungen für die Installation
- Manuell: Durchführen der Installation
- Nach der Installation
- Clusterverwaltung
- Verwalten von Produkten
- Erste Schritte mit dem Clusterverwaltungsportal
- Migrieren von Objectstore von persistentem Volume zu Raw-Festplatten
- Migrieren vom clusterinternen zum externen High Availability Add-on
- Migrieren von Daten zwischen Objectstores
- Clusterinterner Objectstore zu einem externen Objectstore migrieren
- Migrieren zu einer externen OCI-konformen Registrierung
- Manueller Wechsel zum sekundären Cluster in einem Aktiv-/Passiv-Setup
- Disaster Recovery: Durchführen von Vorgängen nach der Installation
- Umwandlung einer bestehenden Installation in eine Multi-Site-Einrichtung
- Richtlinien zum Upgrade einer Aktiv/Passiv- oder Aktiv/Aktiv-Bereitstellung
- Leitlinien zum Sichern und Wiederherstellen einer Aktiv-/Passiv- oder Aktiv/Aktiv-Bereitstellung
- Umleitung des Datenverkehrs für die nicht unterstützten Dienste auf den primären Cluster
- Überwachung und Warnungen
- Migration und Upgrade
- Schritt 1: Verschieben der Identitätsorganisationsdaten von einer eigenständigen in die Automation Suite
- Schritt 2: Wiederherstellen der eigenständigen Produktdatenbank
- Schritt 3: Sichern der Plattformdatenbank in der Automation Suite
- Schritt 4: Zusammenführen von Organisationen in der Automation Suite
- Schritt 5: Aktualisieren der migrierten Produktverbindungszeichenfolgen
- Schritt 6: Migrieren des eigenständigen Orchestrators
- Schritt 7: Migrieren von eigenständigen Insights
- Schritt 8: Löschen des Standardmandanten
- B) Migration von einzelnen Mandanten
- Migrieren von der Automation Suite unter Linux zur Automation Suite unter EKS/AKS
- Aktualisieren der Automation Suite
- Herunterladen der Installationspakete und Übertragen aller Dateien auf den ersten Serverknoten
- Abrufen der zuletzt angewendeten Konfiguration aus dem Cluster
- Aktualisieren der Clusterkonfiguration
- Konfigurieren der OCI-konformen Registrierung für Offline-Installationen
- Ausführen des Upgrades
- Durchführen von Vorgängen nach dem Upgrade
- Produktspezifische Konfiguration
- Verwenden des Orchestrator-Konfiguratortools
- Konfigurieren von Orchestrator-Parametern
- Orchestrator-appSettings
- Konfigurieren von AppSettings
- Konfigurieren der maximalen Anforderungsgröße
- Überschreiben der Speicherkonfiguration auf Clusterebene
- Konfigurieren von Anmeldeinformationsspeichern
- Konfigurieren der Verwendung von einem Verschlüsselungsschlüssel pro Mandant
- Bereinigen der Orchestrator-Datenbank
- Best Practices und Wartung
- Fehlersuche und ‑behebung
- Fehlerbehebung bei Diensten während der Installation
- Deinstallieren des Clusters
- Löschen von Offline-Artefakten für mehr Speicherplatz
- So löschen Sie Redis-Daten
- So können Sie die Istio-Protokollierung aktivieren
- So werden Protokolle manuell bereinigt
- So löschen Sie alte Protokolle, die im sf-logs-Paket gespeichert sind
- So deaktivieren Sie Streaming-Protokolle für das AI Center
- Fehlerbehebung bei fehlgeschlagenen Automation Suite-Installationen
- So löschen Sie Bilder aus dem alten Installationsprogramm nach dem Upgrade
- Deaktivieren von TX-Prüfsummen-Offloading
- Upgrade von Automation Suite 2022.10.10 und 2022.4.11 auf 2023.10.2
- So legen Sie die ArgoCD-Protokollebene manuell auf Info fest
- So erweitern Sie den AI Center-Speicher
- So wird der codierte pull_secret_value für externe Registrierungen generiert
- Umgang mit schwachen Verschlüsselungen in TLS 1.2
- Es kann keine Offlineinstallation auf RHEL 8.4 OS ausgeführt werden.
- Fehler beim Herunterladen des Pakets
- Die Offlineinstallation schlägt aufgrund fehlender binärer Dateien fehl
- Zertifikatproblem bei der Offlineinstallation
- Die erste Installation schlägt während des Longhorn-Setups fehl
- Validierungsfehler bei der SQL-Verbindungszeichenfolge
- Voraussetzungsprüfung für das Selinux-iscsid-Modul schlägt fehl
- Azure-Datenträger nicht als SSD markiert
- Fehler nach der Zertifikatsaktualisierung
- Virenschutz verursacht Probleme bei der Installation
- Automation Suite funktioniert nach Betriebssystem-Upgrade nicht
- Bei der Automation Suite muss „backlog_wait_time“ auf 0 gesetzt werden.
- Volume nicht bereitstellbar, da es nicht für Workloads bereit ist
- Fehler bei der Protokollsammlung des Supportpakets
- Das Upgrade eines einzelnen Knotens schlägt in der Fabric-Phase fehl
- Fehler im Cluster nach automatisiertem Upgrade von 2021.10
- Upgrade schlägt aufgrund eines fehlerhaften Ceph . fehl
- Rke2 wird aufgrund von Platzproblemen nicht gestartet
- Datenträger kann nicht verbunden werden und verbleibt im Status der „Attach/Detach“-Schleife
- Upgrade schlägt aufgrund von klassischen Objekten in der Orchestrator-Datenbank fehl
- Ceph-Cluster in beeinträchtigtem Status nach parallelem Upgrade
- Fehlerhafte Insights-Komponente verursacht Fehlschlag der Migration
- Dienst-Upgrade schlägt für Apps fehl
- Timeouts beim direkten Upgrade
- Docker-Registrierungsmigration bleibt in PVC-Löschphase hängen
- AI Center-Bereitstellungsfehler nach Upgrade auf 2023.10
- Upgrade schlägt in Offline-Umgebungen fehl
- SQL-Validierung schlägt während des Upgrades fehl
- Snapshot-controller-crds Pod im Status CrashLoopBackOff nach dem Upgrade
- Fehler beim Hoch- oder Herunterladen von Daten im Objektspeicher
- Die Größenänderung eines PVC bewirkt keine Korrektur von Ceph
- Fehler beim Ändern der Größe von objectstore PVC
- Rook Ceph oder Looker-Pod hängen im Init-Status fest
- Fehler beim Anhängen eines StatefulSet-Volumes
- Fehler beim Erstellen persistenter Volumes
- Festlegen eines Timeout-Intervalls für die Verwaltungsportale
- Die Authentifizierung funktioniert nach der Migration nicht
- kinit: KDC kann für Realm <AD Domain> beim Abrufen der ersten Anmeldeinformationen nicht gefunden werden
- Kinit: Keytab enthält keine geeigneten Schlüssel für *** beim Abrufen der ersten Anmeldeinformationen
- GSSAPI-Vorgang aufgrund eines ungültigen Statuscodes fehlgeschlagen
- Alarm für fehlgeschlagenen Kerberos-tgt-update-Auftrag erhalten
- SSPI-Anbieter: Server in Kerberos-Datenbank nicht gefunden
- Anmeldung eines AD-Benutzers aufgrund eines deaktivierten Kontos fehlgeschlagen
- ArgoCD-Anmeldung fehlgeschlagen
- Aktualisieren Sie die zugrunde liegenden Verzeichnisverbindungen
- Fehler beim Abrufen des Sandbox-Abbilds
- Pods werden nicht in der ArgoCD-Benutzeroberfläche angezeigt
- Redis-Testfehler
- RKE2-Server kann nicht gestartet werden
- Secret nicht im UiPath-Namespace gefunden
- ArgoCD wechselt nach der ersten Installation in den Status „In Bearbeitung“.
- MongoDB-Pods in „CrashLoopBackOff“ oder ausstehende PVC-Bereitstellung nach Löschung
- Fehlerhafte Dienste nach Clusterwiederherstellung oder Rollback
- Pods stecken in Init:0/X
- Fehlende Ceph-rook-Metriken in Überwachungs-Dashboards
- Document Understanding erscheint nicht auf der linken Leiste der Automation Suite
- Fehlerstatus beim Erstellen einer Datenbeschriftungssitzung
- Fehlerstatus beim Versuch, eine ML-Fähigkeit bereitzustellen
- Migrationsauftrag schlägt in ArgoCD fehl
- Die Handschrifterkennung mit dem Intelligent Form Extractor funktioniert nicht oder arbeitet zu langsam
- Ausführen von Hochverfügbarkeit mit Process Mining
- Die Process Mining-Datenaufnahme ist bei der Anmeldung über Kerberos fehlgeschlagen
- Nach Disaster Recovery funktioniert Dapr für Process Mining und Task Mining nicht mehr ordnungsgemäß.
- Verbindung mit der Datenbank „AutomationSuite_ProcessMining_Lager“ über eine Verbindungszeichenfolge im pyodbc-Format nicht möglich
- Die Airflow-Installation schlägt mit „sqlaldemy.exc.ArgumentError“ fehl: URL konnte nicht analysiert werden rfc1738 aus Zeichenfolge „
- So fügen Sie eine IP-Tabellenregel hinzu, um den SQL Server-Port 1433 zu verwenden
- Ausführen des Diagnosetools
- Verwenden des Automation Suite Support Bundle-Tools
- Erkunden von Protokollen
Schritt 7: Konfigurieren der Datenträger
Bevor Sie eine Automation Suite-Installation durchführen, müssen Sie den Datenträger mit LVM partitionieren und konfigurieren, damit Sie seine Größe einfach und ohne Datenmigration oder Datenverlust ändern können.
/var
-Partition installiert wird, der standardmäßig nur 8 GiB Speicherplatz zugewiesen ist.
- Das unterstützte Format für die Datenträger ist
ext4
oderxfs
. - Sie müssen alle Partitionen mit LVM erstellen, um sicherzustellen, dass die Clusterdaten auf einer anderen Festplatte liegen können, aber dennoch kohärent angezeigt werden. Somit lässt sich die Partitionsgröße auch in Zukunft erweitern, ohne dass die Gefahr einer Datenmigration oder eines Datenverlusts besteht.
- Alle Pods und Anwendungsprotokolle werden im Verzeichnis
/var/log/pods
gespeichert. Stellen Sie sicher, dass die Kapazität dieses Verzeichnisses mindestens 8 GiB beträgt. Wir empfehlen auch,logrotate
so zu konfigurieren, dass die Protokolle in einem Intervall von täglich bis wöchentlich rotiert werden.
Die Datenträgeranforderungen für Online- und Offlineinstallationen sind identisch, mit Ausnahme des zusätzlich erforderlichen Speicherplatzes zum Entpacken des UiPath®-Offlinepakets.
Stellen Sie für das RHEL-Betriebssystem sicher, dass Sie über die folgenden minimalen Mount-Punkt-Größen auf der Maschine verfügen.
Datenträgerbezeichnung |
Server |
Mitarbeiter |
Partition |
Größe |
Zweck |
---|---|---|---|---|---|
Clusterlaufwerk |
|
|
|
190 GiB |
Speichert die Container-Images und -Ebenen. |
|
56 GiB |
Speichert Laufzeit-Kubernetes-Konfigurationen wie Secrets, ConfigMaps und emptyDir. | |||
|
10 GiB |
Speichert die Binärdatei des Installationsprogramms. | |||
etcd-Datenträger |
|
|
|
16 GiB |
Speichert die verteilte Datenbank für Kubernetes |
Blockspeicher |
|
|
|
15 GiB |
Erforderlich für Insights. |
|
50 GiB |
Erforderlich für die Überwachungstools. | |||
/datadisk/registry 1 |
200 GiB |
Erforderlich für die Docker-Registrierung. | |||
/datadisk/objectstore 2 |
10 Gib |
Erforderlich für ceph-mon. | |||
Objectstore2 |
|
|
Keine Angabe | 512 GiB |
Erforderlich für clusterinternen Objectstore. |
AI Center3 |
|
|
Keine Angabe |
51 GiB Minimum und 105 GiB empfohlen für 1 Trainingspipeline. |
Nur erforderlich, wenn Sie das AI Center installieren. |
Datenträger für das UiPath®-Paket |
|
| /uipath | 512 GiB |
Nur für Offline-Installationen erforderlich, um das Offlinepaket zu speichern. |
2 Dies bezieht sich auf den clusterinternen Objektspeicher und entfällt, wenn Sie einen externen Objektspeicher verwenden.
3 Das ist der Speicher, der von der AI Center-Trainingspipeline benötigt wird. Der Datenträger ist nur auf den Maschinen erforderlich, auf denen Sie die AI Center-Trainingspipeline ausführen möchten, und auf dem speziellen Task Mining-Knoten. Es wird empfohlen, diesen Datenträger auf den Agentmaschinen bereitzustellen.
Wir empfehlen, nicht den Betriebssystemdatenträger für die oben genannten Zwecke zu verwenden, um sicherzustellen, dass Prozesse über ausreichende Ressourcen verfügen.
configureUiPathDisks.sh
-Skript verwenden, um die Datenträger zu konfigurieren und zu partitionieren.
Anweisungen zum Herunterladen finden Sie unter ConfigureUiPathDisks.sh.
configureUiPathDisks.sh
-Skript für die folgenden Zwecke verwenden:
- Konfigurieren der Datenträger und Mount-Punkte für eine neue Automation Suite-Clusterinstallation;
- Ändern der Größe des Datenträgers nach der Installation.
Führen Sie den folgenden Befehl aus, um das Skript ausführbar zu machen:
chmod +x ./configureUiPathDisks.sh
chmod +x ./configureUiPathDisks.sh
Um die erforderlichen Berechtigungen für das Skript zu erteilen, führen Sie den folgenden Befehl aus:
chmod +x configureUiPathDisks.sh
chmod +x configureUiPathDisks.sh
Um weitere Details zur Skriptnutzung zu erhalten, führen Sie den folgenden Befehl aus:
sudo ./configureUiPathDisks.sh --help
sudo ./configureUiPathDisks.sh --help
Um den Clusterdatenträger zu konfigurieren, führen Sie den folgenden Befehl auf allen Maschinen aus:
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk
./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk
Um den etcd-Datenträger zu konfigurieren, führen Sie den folgenden Befehl auf allen Servermaschinen aus:
./configureUiPathDisks.sh --etcd-disk-name name_of_etcd_disk
./configureUiPathDisks.sh --etcd-disk-name name_of_etcd_disk
Um den Datenträger zu konfigurieren, führen Sie den folgenden Befehl auf allen Servermaschinen aus und geben Sie die erforderlichen Flags basierend auf Ihren Anforderungen an:
./configureUiPathDisks.sh --volume name_of_data_disk
./configureUiPathDisks.sh --volume name_of_data_disk
Markieren |
Wert |
---|---|
|
Beispiel für einen Datenträgernamen:
/dev/sde Sie benötigen den Datenträgernamen bei der Partitionierung der Datenträger, die die verschiedenen Bereitstellungen für Überwachung, Insights, den Objektspeicher und die Registrierung hosten. Die Angabe des Datenträgernamens ist bei der ersten Konfiguration des Datenträgers obligatorisch. Wird er beim anschließenden Durchlauf nicht angegeben, wird die Partition für die gewählte Komponente auf einem vorhandenen, mit
uipathdatavg verknüpften Datenträger erstellt.
|
|
Optional. Nur erforderlich, wenn die externe Registrierung nicht verfügbar ist. |
|
Optional. Wenn das Flag bei der ersten Ausführung nicht übergeben wird, wird automatisch die Partition für die Überwachung (Prometheus-Speicher) erstellt. Das Flag wird jedoch in der nachfolgenden Ausführung während der Größenänderung der Überwachungspartition zusammen mit dem Flag
--resize benötigt.
|
|
Optional. Nur erforderlich, wenn der externe Objektspeicher nicht verfügbar ist. |
|
Optional. Wenn das Flag bei der ersten Ausführung nicht übergeben wird, wird automatisch die Partition für Insights erstellt. Sie wird jedoch in der nachfolgenden Ausführung während der Größenänderung der Insights-Partition zusammen mit dem Flag
--resize benötigt.
|
|
Optional. Bei Angabe des Integer-Wertes wird die Größe der ausgewählten Komponente geändert, sofern genügend Platz vorhanden ist. Andernfalls wird der gesamte Datenträger verbraucht, um die ausgewählte Partition zu erweitern. Es muss genau eine Partition angegeben werden, deren Größe geändert werden muss. |
|
Pfad zum Speicherort auf dem Knoten Automation Suite Robots, um das Paket für die Zwischenspeicherung herunterzuladen. Dies muss nur auf dem Automation Suite Robots-Knoten durchgeführt werden. |
--resize
zu ändern, wie im folgenden Beispiel gezeigt:
./configureUiPathDisks.sh --volume /dev/sde --docker-registry --resize 300
./configureUiPathDisks.sh --volume /dev/sde --docker-registry --resize 300
/dev/sde
an den vorhandenen Datenträger angefügt wird und wie die Größe der Docker-Registrierungspartition auf 300 GiB geändert wird.
Dieser Schritt ist nur erforderlich, wenn der externe Objektspeicher nicht verfügbar ist.
Sie können die Speichergröße für den Objektspeicher im Cluster hinzufügen oder erweitern, indem Sie das folgende Skript auf allen Serverknoten ausführen:
./configureUiPathDisks.sh --ceph-raw-disk-name name_ceph_raw_disk
./configureUiPathDisks.sh --ceph-raw-disk-name name_ceph_raw_disk
-
Ein bekanntes Problem von Azure markiert die Azure-Festplatte fälschlicherweise als Nicht-SSD. Wenn Azure Ihr Cloudanbieter ist und Sie den Objectstore-Datenträger konfigurieren möchten, befolgen Sie die Anweisungen unter Fehlerbehebung.
-
Eine vertikale Skalierung der vorhandenen Datenträger wird nicht unterstützt. Um den Speicherplatz im Cluster nach der Installation zu vergrößern, fügen Sie neue unformatierte Festplatten hinzu.
Um den AI Center-Datenträger zu konfigurieren, führen Sie den folgenden Befehl auf den Maschinen aus, auf denen Sie die Trainingspipelines ausführen möchten:
./configureUiPathDisks.sh --aicenter-disk-name name_of_aicenter_disk_to_partition
./configureUiPathDisks.sh --aicenter-disk-name name_of_aicenter_disk_to_partition
So erweitern Sie den Speicher für das AI Center:
-
Wenn Sie einen neuen AI Center-Datenträger hinzufügen möchten, führen Sie den folgenden Befehl auf der Maschine aus, auf der Sie den Datenträger hinzufügen möchten:
./configureUiPathDisks.sh --aicenter-storage-extend name_of_new_aicenter_disk_to_attach
./configureUiPathDisks.sh --aicenter-storage-extend name_of_new_aicenter_disk_to_attach -
Wenn Sie den vorhandenen AI Center-Datenträger erweitert haben, führen Sie den folgenden Befehl auf der Maschine aus, auf der der zugrunde liegende AI Center-Datenträger erweitert wird:
./configureUiPathDisks.sh --aicenter-storage-extend
./configureUiPathDisks.sh --aicenter-storage-extend
Dieser Schritt ist für Setups mit einem einzigen Knoten ohne eigenen Automation Suite Robot-Agent erforderlich.
Um den Automation Suite Robot-Paket-Cache auf dem Serverknoten zu hosten, müssen Sie einen Datenträger mit mindestens 10 GB erstellen:
./configureUiPathDisks.sh --volume name_of_data_disk --robot-package-cache
./configureUiPathDisks.sh --volume name_of_data_disk --robot-package-cache
Dieser Schritt ist in den folgenden Szenarien erforderlich:
-
Bei einer Offline-Installation (Air-Gap);
-
Wenn keine externe Registrierung verfügbar ist.
Um den Bundle-Datenträger zu konfigurieren, führen Sie den folgenden Befehl nur auf dem ersten Serverknoten aus:
./configureUiPathDisks.sh --bundle-disk-name name_of_bundle_disk
./configureUiPathDisks.sh --bundle-disk-name name_of_bundle_disk
fstab
hinzufügen und die Option nofail
in diese fstab
-Einträge aufnehmen, damit der Start der VM im Falle eines Fehlers nicht beeinträchtigt wird.
/etc/fstab
korrekt konfiguriert ist und einen Neustart des Systems bewältigen kann, führen Sie die folgenden Schritte und den folgenden Befehl aus:
mount -afv
mount -afv
Sie sollten die folgende Ausgabe erhalten:
/var/lib/rancher : already mounted
/var/lib/kubelet : already mounted
/opt/UiPathAutomationSuite : already mounted
/datadisk/monitoring : already mounted
/datadisk/insights : already mounted
/var/lib/rancher/rke2/server/db : already mounted
# Additional mount point is require if customer is installing offline with internal registry
/datadisk/registry : already mounted
# Additional mount point is require if customer is using in-cluster objectstore
/datadisk/objectstore : already mounted
/var/lib/rancher : already mounted
/var/lib/kubelet : already mounted
/opt/UiPathAutomationSuite : already mounted
/datadisk/monitoring : already mounted
/datadisk/insights : already mounted
/var/lib/rancher/rke2/server/db : already mounted
# Additional mount point is require if customer is installing offline with internal registry
/datadisk/registry : already mounted
# Additional mount point is require if customer is using in-cluster objectstore
/datadisk/objectstore : already mounted
- Partitionieren der Datenträger
- Verwenden des Skripts zum Konfigurieren der Datenträger
- Herunterladen des Skripts
- Ausführen des Skripts
- Konfigurieren des Clusterdatenträgers auf allen Maschinen
- Konfigurieren des etcd-Datenträgers auf allen Servermaschinen
- Konfigurieren des Datenträgers auf allen Servermaschinen
- Konfigurieren des Objektspeicherdatenträgers auf allen Servermaschinen
- Konfigurieren des AI Center-Datenträgers auf ausgewählten Maschinen
- Konfigurieren des Hosting-Datenträgers für den Automation Suite Robot-Paket-Cache
- Konfigurieren des Bundle-Datenträgers auf dem ersten Serverknoten für die Registrierung im Cluster
- Validieren von Laufwerk-Mounts