- Überblick
- Anforderungen
- Bereitstellungsvorlagen
- Anleitung: Vorbereiten der Installation
- Anleitung: Vorbereiten der Installation
- Schritt 2: Konfigurieren der OCI-konformen Registrierung für Offline-Installationen
- Schritt 3: Konfigurieren des externen Objektspeichers
- Schritt 4: Konfigurieren des High Availability Add-on
- Schritt 5: Konfigurieren von SQL-Datenbanken
- Schritt 7: Konfigurieren des DNS
- Schritt 8: Konfigurieren der Datenträger
- Schritt 9: Konfigurieren der Einstellungen auf Kernel- und Betriebssystemebene
- Schritt 10: Konfigurieren der Knotenports
- Schritt 11: Anwenden verschiedener Einstellungen
- Schritt 12: Validieren und Installieren der erforderlichen RPM-Pakete
- Cluster_config.json-Beispiel
- Allgemeine Konfiguration
- Profilkonfiguration
- Zertifikatkonfiguration
- Datenbankkonfiguration
- Konfiguration des externen Objektspeichers
- Vorsignierte URL-Konfiguration
- ArgoCD-Konfiguration
- Konfiguration der Kerberos-Authentifizierung
- Externe OCI-konforme Registrierungskonfiguration
- Disaster Recovery: Aktiv/Passiv- und Aktiv/Aktiv-Konfigurationen
- Konfiguration des High Availability Add-ons
- Spezifische Orchestrator-Konfiguration
- Insights-spezifische Konfiguration
- Process Mining-spezifische Konfiguration
- Spezifische Konfiguration für Document Understanding
- Spezifische Konfiguration für Automation Suite Robots
- AI Center-spezifische Konfiguration
- Konfiguration der Überwachung
- Optional: Konfigurieren des Proxyservers
- Optional: Aktivieren der Widerstandsfähigkeit gegen zonale Ausfälle in einem HA-fähigen Produktionscluster mit mehreren Knoten
- Optional: Übergeben einer benutzerdefinierten resolv.conf-Datei
- Optional: Erhöhen der Fehlertoleranz
- Hinzufügen eines dedizierten Agent-Knotens mit GPU-Unterstützung
- Hinzufügen eines dedizierten Agentenknotens für Automation Suite-Roboter
- Schritt 15: Konfigurieren der temporären Docker-Registrierung für Offline-Installationen
- Schritt 16: Validieren der Voraussetzungen für die Installation
- Manuell: Durchführen der Installation
- Nach der Installation
- Clusterverwaltung
- Verwalten von Produkten
- Erste Schritte mit dem Clusterverwaltungsportal
- Einrichten des externen NFS-Servers
- Konfigurieren des Sicherungsspeichers
- Sichern des Clusters
- Zusätzliche Konfiguration
- Wiederherstellen der Sicherung
- Migrieren von Redis vom clusterinternen zum externen High Availability Add-on
- Migrieren von Daten zwischen Objectstores
- Clusterinterner Objectstore zu einem externen Objectstore migrieren
- Migrieren von der clusterinternen Registrierung zu einer externen OCI-konformen Registrierung
- Manueller Wechsel zum sekundären Cluster in einem Aktiv-/Passiv-Setup
- Disaster Recovery: Durchführen von Vorgängen nach der Installation
- Umwandlung einer bestehenden Installation in eine Multi-Site-Einrichtung
- Richtlinien zum Upgrade einer Aktiv/Passiv- oder Aktiv/Aktiv-Bereitstellung
- Leitlinien zum Sichern und Wiederherstellen einer Aktiv-/Passiv- oder Aktiv/Aktiv-Bereitstellung
- Skalieren einer Bereitstellung mit einem einzelnen Knoten (Auswertung) zu einer Bereitstellung mit mehreren Knoten (HA).
- Überwachung und Warnungen
- Migration und Upgrade
- Migrieren zwischen Automation Suite-Clustern
- Aktualisieren der Automation Suite
- Herunterladen der Installationspakete und Übertragen aller Dateien auf den ersten Serverknoten
- Abrufen der zuletzt angewendeten Konfiguration aus dem Cluster
- Aktualisieren der Clusterkonfiguration
- Konfigurieren der OCI-konformen Registrierung für Offline-Installationen
- Ausführen des Upgrades
- Durchführen von Vorgängen nach dem Upgrade
- Produktspezifische Konfiguration
- Konfigurieren von Orchestrator-Parametern
- Konfigurieren von AppSettings
- Konfigurieren der maximalen Anforderungsgröße
- Überschreiben der Speicherkonfiguration auf Clusterebene
- Konfigurieren von NLog
- Speichern von Roboterprotokollen in Elasticsearch
- Konfigurieren von Anmeldeinformationsspeichern
- Konfigurieren der Verwendung von einem Verschlüsselungsschlüssel pro Mandant
- Bereinigen der Orchestrator-Datenbank
- Best Practices und Wartung
- Fehlersuche und ‑behebung
- Fehlerbehebung bei Diensten während der Installation
- Deinstallieren des Clusters
- Löschen von Offline-Artefakten für mehr Speicherplatz
- So löschen Sie Redis-Daten
- So können Sie die Istio-Protokollierung aktivieren
- So werden Protokolle manuell bereinigt
- So löschen Sie alte Protokolle, die im sf-logs-Bucket gespeichert sind
- So deaktivieren Sie Streaming-Protokolle für das AI Center
- Fehlerbehebung bei fehlgeschlagenen Automation Suite-Installationen
- So löschen Sie Bilder aus dem alten Installationsprogramm nach dem Upgrade
- Deaktivieren von TX-Prüfsummen-Offloading
- So legen Sie die ArgoCD-Protokollebene manuell auf Info fest
- So erweitern Sie den AI Center-Speicher
- So wird der codierte pull_secret_value für externe Registrierungen generiert
- Umgang mit schwachen Verschlüsselungen in TLS 1.2
- So überprüfen Sie die TLS-Version
- So arbeiten Sie mit Zertifikaten
- So planen Sie die Ceph-Sicherung und Wiederherstellung von Daten
- Sammeln von DU-Nutzungsdaten mit dem clusterinternen Objektspeicher (Ceph)
- So installieren Sie RKE2 SELinux in Air-Gap-Umgebungen
- How to clean up old differential backups on an NFS server
- Fehler beim Herunterladen des Pakets
- Die Offlineinstallation schlägt aufgrund fehlender binärer Dateien fehl
- Zertifikatproblem bei der Offlineinstallation
- Validierungsfehler bei der SQL-Verbindungszeichenfolge
- Azure-Datenträger nicht als SSD markiert
- Fehler nach der Zertifikatsaktualisierung
- Virenschutz verursacht Probleme bei der Installation
- Automation Suite funktioniert nach Betriebssystem-Upgrade nicht
- Bei der Automation Suite muss „backlog_wait_time“ auf 0 gesetzt werden.
- Die temporäre Registrierungsinstallation schlägt unter RHEL 8.9 fehl
- Häufiges Neustartproblem bei UiPath-Namespace-Bereitstellungen während Offline-Installationen
- DNS-Einstellungen werden von CoreDNS nicht berücksichtigt
- Upgrade schlägt aufgrund eines fehlerhaften Ceph . fehl
- Rke2 wird aufgrund von Platzproblemen nicht gestartet
- Upgrade schlägt aufgrund von klassischen Objekten in der Orchestrator-Datenbank fehl
- Ceph-Cluster in beeinträchtigtem Status nach parallelem Upgrade
- Dienst-Upgrade schlägt für Apps fehl
- Timeouts beim direkten Upgrade
- Upgrade schlägt in Offline-Umgebungen fehl
- Snapshot-controller-crds Pod im Status CrashLoopBackOff nach dem Upgrade
- Upgrade schlägt aufgrund überschriebener Insights-PVC-Größen fehl
- Festlegen eines Timeout-Intervalls für die Verwaltungsportale
- Die Authentifizierung funktioniert nach der Migration nicht
- kinit: KDC kann für Realm <AD Domain> beim Abrufen der ersten Anmeldeinformationen nicht gefunden werden
- Kinit: Keytab enthält keine geeigneten Schlüssel für *** beim Abrufen der ersten Anmeldeinformationen
- GSSAPI-Vorgang aufgrund eines ungültigen Statuscodes fehlgeschlagen
- Alarm für fehlgeschlagenen Kerberos-tgt-update-Auftrag erhalten
- SSPI-Anbieter: Server in Kerberos-Datenbank nicht gefunden
- Anmeldung eines AD-Benutzers aufgrund eines deaktivierten Kontos fehlgeschlagen
- ArgoCD-Anmeldung fehlgeschlagen
- Aktualisieren Sie die zugrunde liegenden Verzeichnisverbindungen
- Fehler beim Abrufen des Sandbox-Abbilds
- Pods werden nicht in der ArgoCD-Benutzeroberfläche angezeigt
- Redis-Testfehler
- RKE2-Server kann nicht gestartet werden
- Secret nicht im UiPath-Namespace gefunden
- ArgoCD wechselt nach der ersten Installation in den Status „In Bearbeitung“.
- Fehlende Ceph-rook-Metriken in Überwachungs-Dashboards
- Diskrepanz bei gemeldeten Fehlern bei diagnostischen Zustandsprüfungen
- Kein normales Upstream-Problem
- Redis-Start wird durch Antivirenprogramm blockiert
- Document Understanding erscheint nicht auf der linken Leiste der Automation Suite
- Fehlerstatus beim Erstellen einer Datenbeschriftungssitzung
- Fehlerstatus beim Versuch, eine ML-Fähigkeit bereitzustellen
- Migrationsauftrag schlägt in ArgoCD fehl
- Die Handschrifterkennung mit dem Intelligent Form Extractor funktioniert nicht oder arbeitet zu langsam
- Ausführen von Hochverfügbarkeit mit Process Mining
- Die Process Mining-Datenaufnahme ist bei der Anmeldung über Kerberos fehlgeschlagen
- Verbindung mit der Datenbank „AutomationSuite_ProcessMining_Lager“ über eine Verbindungszeichenfolge im pyodbc-Format nicht möglich
- Die Airflow-Installation schlägt mit „sqlaldemy.exc.ArgumentError“ fehl: URL konnte nicht analysiert werden rfc1738 aus Zeichenfolge „
- So fügen Sie eine IP-Tabellenregel hinzu, um den SQL Server-Port 1433 zu verwenden
- Dem Automation Suite-Zertifikat des Servers, auf dem CData Sync ausgeführt wird, wird nicht vertraut
- Ausführen des Diagnosetools
- Verwenden des Automation Suite-Supportpakets
- Erkunden von Protokollen
- Untersuchen der zusammengefassten Telemetrie

Automation Suite unter Linux – Installationsanleitung
cluster_config.jsonim Automation Suite-Cluster angeben.
cluster_config.jsonvor, bevor Sie eine geplante Sicherung aktivieren oder eine Sicherung nach Bedarf vornehmen.
Sie können diese Informationen während der Installation des Automation Suite -Clusters oder später nach der Installation angeben, während Sie die Sicherung des Clusters aktivieren oder erstellen.
cluster_config.json
- Verwenden Sie für die NFS-Serversicherung das folgende
cluster_config.json-Beispiel:
{
//... cluster_config.json
"snapshot": {
"enabled": true,
"nfs": {
"server": "nfs_server_endpoint",
"location": "nfs_server_mountpoint"
}
}
}{
//... cluster_config.json
"snapshot": {
"enabled": true,
"nfs": {
"server": "nfs_server_endpoint",
"location": "nfs_server_mountpoint"
}
}
}cluster_config.json-Parameter
|
Schlüssel |
Wert |
|---|---|
|
|
Der FQDN oder die IP-Adresse des Snapshot-Speicherorts (z. B.
mynfs.mycompany.com oder 192.23.222.81).
|
|
| NFS-Serverpfad, der gemäß den Anweisungen in Schritt 2: Konfigurieren des Bereitstellungspfads erstellt wurde. Stellen Sie sicher, dass er über ausreichende Berechtigungen verfügt und die Verzeichnisstruktur bereits vorhanden ist.
Hinweis:
Wichtig:
Wenn Sie Amazon EFS als NFS-kompatiblen Speicher verwenden, müssen Sie den Wert
location auf das Stammverzeichnis (/) der EFS-Bereitstellung festlegen.
Die Verwendung von Unterverzeichnissen (z. B.
/asbackup) wird nicht unterstützt und führt dazu, dass der Bereitstellungsvorgang fehlschlägt.
|
- Für die externe Objektspeichersicherung verwenden Sie die folgenden
cluster_config.json-Beispiele:
{
//... cluster_config.json
"snapshot": {
"enabled": true,
"external_object_storage": {
"bucket_name": "<s3_bucket_used_for_backup>",
"storage_type": "s3",
"region": "<s3_bucket_region>"
}
}
}{
//... cluster_config.json
"snapshot": {
"enabled": true,
"external_object_storage": {
"bucket_name": "<s3_bucket_used_for_backup>",
"storage_type": "s3",
"region": "<s3_bucket_region>"
}
}
}cluster_config.json-Parameter
Schlüssel Wert bucket_nameDer Name des S3-Buckets zum Speichern des Snapshots arn
ARN für die Verbindung mit dem S3.
Wenn der Knoten über die erforderlichen Berechtigungen zum Herstellen einer Verbindung mit dem Sicherungsobjektspeicher verfügt, wird der ARN nicht benötigt. Stellen Sie andernfalls sicher, dass Sie eine IAM-Rolle mit den erforderlichen Berechtigungen erstellen und den ARN hinzufügen.
regionDie Region, in der S3 vorhanden ist.
{
//... cluster_config.json
"snapshot" : {
"external_object_storage": {
"client_secret": "<azure_service_principal_client_secret>",
"resource_group": "<azure_resource_group_with_storage_account>",
"auth_mode": "ServicePrincipal",
"account_name": "<azure_storage_account_name>",
"account_key": "<azure_storage_account_key>"
"bucket_name": "<azure_container_name>",
"client_id": "<azure_service_principal_id>",
"subscription_id": "<azure_subscription_id>",
"cloud_name": "AzurePublicCloud",
},
"aks_infra_resource_group":"<azure_infra_resource_group>"
}
}{
//... cluster_config.json
"snapshot" : {
"external_object_storage": {
"client_secret": "<azure_service_principal_client_secret>",
"resource_group": "<azure_resource_group_with_storage_account>",
"auth_mode": "ServicePrincipal",
"account_name": "<azure_storage_account_name>",
"account_key": "<azure_storage_account_key>"
"bucket_name": "<azure_container_name>",
"client_id": "<azure_service_principal_id>",
"subscription_id": "<azure_subscription_id>",
"cloud_name": "AzurePublicCloud",
},
"aks_infra_resource_group":"<azure_infra_resource_group>"
}
}
cluster_config.json-Parameter
Schlüssel Wert bucket_nameName des Containers in Azure Storage-Konto zum Speichern der Momentaufnahme resource_groupRessourcengruppe, in der das Azure Storage-Zielkonto zum Speichern der Momentaufnahme vorhanden ist. auth_modeMuss auf ServicePrincipalfestgelegt sein. client_idClient-ID für die Dienstprinzipalauthentifizierung client_secretGeheimer Clientschlüssel für die Dienstprinzipal-basierte Authentifizierung account_nameName des Azure Storage-Kontos, unter dem die Momentaufnahme gesichert wird account_key
Zugriffsschlüssel für das Azure-Speicherkonto, bei dem der Snapshot gesichert werden muss.
Dieser Parameter ist optional.
cloud_name
Standardwert AzurePublicCloud
Ändern Sie ggf. in eine der folgenden Optionen: AzureUSGovernmentCloud, AzureChinaCloud, AzureGermanCloud
subscription_idAbonnement-ID, unter der das Azure Storage-Konto zum Speichern der Sicherung gespeichert ist. aks_infra_resource_group
Ressourcengruppe, in der die Maschinen und andere Ressourcen für den AKS-Cluster erstellt werden. Wird normalerweise von Azure erstellt und verwaltet und beginnt mit MC_.
Während andere Werte während der Sicherung und Wiederherstellung gleich bleiben können, wird dieser Wert während der Wiederherstellung geändert. Dies muss die neue Ressourcengruppe sein, in der die Kubernetes-Ressourcen des neuen AKS-Clusters bereitgestellt werden.
Hinweis: Informationen zum Erstellen eines Dienstprinzipals für die Authentifizierung in Azure finden Sie in der Microsoft-Dokumentation.
Für die lokale Datenträgersicherung verwenden Sie das folgende cluster_config.json-Beispiel:
{
//... cluster_config.json
"snapshot": {
"enabled": true,
"local_disk": {
"path": "/backup"
}
}
}{
//... cluster_config.json
"snapshot": {
"enabled": true,
"local_disk": {
"path": "/backup"
}
}
}
cluster_config.json-Parameter
Schlüssel Wert pathLokales Verzeichnis zum Speichern von Snapshots.
cluster_config.jsonvorgenommen haben, wie im vorherigen Abschnitt beschrieben, führen Sie den folgenden Befehl aus, um die Konfiguration zu übernehmen:
-
Für Konfigurationen vom NFS-Server und dem lokalen Datenträger:
./bin/uipathctl manifest apply cluster_config.json --only velero,rke2-backup-hook --versions versions/helm-charts.json./bin/uipathctl manifest apply cluster_config.json --only velero,rke2-backup-hook --versions versions/helm-charts.json - Für die Konfiguration des externen Objektspeichers:
./bin/uipathctl manifest apply cluster_config.json --only velero --versions versions/helm-charts.json./bin/uipathctl manifest apply cluster_config.json --only velero --versions versions/helm-charts.json