automation-suite
2024.10
false
- Überblick
- Anforderungen
- Vor der Installation
- Vorbereiten der Installation
- Installieren und Konfigurieren des Dienstgeflechts
- Herunterladen der Installationspakete
- Konfigurieren der OCI-konformen Registrierung
- Erteilen von Installationsberechtigungen
- Installieren und Konfigurieren des GitOps-Tools
- Anwenden verschiedener Konfigurationen
- Ausführen von uipathctl
- Installation
- Nach der Installation
- Migration und Upgrade
- Aktualisieren der Automation Suite
- Migrieren von eigenständigen Produkten zur Automation Suite
- Schritt 1: Wiederherstellen der eigenständigen Produktdatenbank
- Schritt 2: Aktualisieren des Schemas der wiederhergestellten Produktdatenbank
- Schritt 3: Verschieben der Identitätsorganisationsdaten von der eigenständigen Bereitstellung in die Automation Suite
- Schritt 4: Sichern der Plattformdatenbank in der Automation Suite
- Schritt 5: Zusammenführen von Organisationen in der Automation Suite
- Schritt 6: Aktualisieren der migrierten Produktverbindungszeichenfolgen
- Schritt 7: Migrieren des eigenständigen Orchestrator
- Schritt 8: Migrieren von eigenständigen Insights
- Schritt 9: Löschen des Standardmandanten
- Durchführen der Migration eines einzelnen Mandanten
- Migrieren zwischen Automation Suite-Clustern
- Migrieren von der Automation Suite auf EKS/AKS zur Automation Suite auf OpenShift
- Überwachung und Warnungen
- Clusterverwaltung
- Produktspezifische Konfiguration
- Konfigurieren von Orchestrator-Parametern
- Konfigurieren von AppSettings
- Konfigurieren der maximalen Anforderungsgröße
- Überschreiben der Speicherkonfiguration auf Clusterebene
- Konfigurieren von NLog
- Speichern von Roboterprotokollen in Elasticsearch
- Konfigurieren von Anmeldeinformationsspeichern
- Konfigurieren der Verwendung von einem Verschlüsselungsschlüssel pro Mandant
- Bereinigen der Orchestrator-Datenbank
- Fehlersuche und ‑behebung
- Zugriff auf Automation Hub nach Upgrade auf Automation Suite 2024.10.0 nicht mehr möglich
- AI Center-Bereitstellungsfehler nach Upgrade auf 2023.10 oder höher
- Insights-Volumes, die nach der Migration in zwei verschiedenen Zonen erstellt wurden
- Upgrade schlägt aufgrund überschriebener Insights-PVC-Größen fehl
- Das Sicherungssetup funktioniert nicht, da die Verbindung mit Azure Government fehlgeschlagen ist
- Hängende Pods im uipath-Namespace bei Aktivierung von benutzerdefinierten Knoten-Markierungen
- Automation Hub und Apps können mit Proxy-Setup nicht gestartet werden
- Der Roboter kann keine Verbindung mit einer Automation Suite-Orchestrator-Instanz herstellen
- Protokollstreaming funktioniert nicht in Proxy-Setups
- Die Velero-Sicherung schlägt mit dem Fehler „FehlgeschlageneValidierung“ fehl
- Beim Zugriff auf den FQDN wird RBAC zurückgegeben: Zugriff verweigert
Wichtig :
Bitte beachten Sie, dass dieser Inhalt teilweise mithilfe von maschineller Übersetzung lokalisiert wurde.
Es kann 1–2 Wochen dauern, bis die Lokalisierung neu veröffentlichter Inhalte verfügbar ist.

Automation Suite in der EKS/AKS-Installationsanleitung
Letzte Aktualisierung 13. Nov. 2025
Die Protokollweiterleitung funktioniert nicht in Proxy-Setups, da die Proxy-Umgebungsvariablen nicht in den Protokollierungs-Pods festgelegt wurden.
-
Legen Sie die Umgebungsvariablen
http_proxy,https_proxyundno_proxyfest. Beispiel:export http_proxy=http://<proxy>:3128 export https_proxy=http://<proxy>:3128 export no_proxy=<fqdn>,.<fqdn>,10.0.0.0/8,kerberossql.autosuitead.local,kerberospostgres.AUTOSUITEAD.LOCAL,rook-ceph-rgw-rook-ceph.rook-ceph.svc.cluster.local,localhost,127.0.0.1,kubernetes,kubernetes.default,kubernetes.default.svc,kubernetes.default.svc.cluster,kubernetes.default.svc.cluster.local,.svc,.svc.cluster,.svc.cluster.local,.svc.cluster.local.,.uipath.svc.cluster.local,argocd-repo-server,istiod.istio-system.svc,logging-operator-logging-fluentd.logging.svc.cluster.local,.local,.cluster,ai-helper-svc,ai-pkgmanager-svc,ai-deployer-svc,ai-appmanager-svc,ai-trainer-svc,studioweb-backend,studioweb-frontend,studioweb-typecacheexport http_proxy=http://<proxy>:3128 export https_proxy=http://<proxy>:3128 export no_proxy=<fqdn>,.<fqdn>,10.0.0.0/8,kerberossql.autosuitead.local,kerberospostgres.AUTOSUITEAD.LOCAL,rook-ceph-rgw-rook-ceph.rook-ceph.svc.cluster.local,localhost,127.0.0.1,kubernetes,kubernetes.default,kubernetes.default.svc,kubernetes.default.svc.cluster,kubernetes.default.svc.cluster.local,.svc,.svc.cluster,.svc.cluster.local,.svc.cluster.local.,.uipath.svc.cluster.local,argocd-repo-server,istiod.istio-system.svc,logging-operator-logging-fluentd.logging.svc.cluster.local,.local,.cluster,ai-helper-svc,ai-pkgmanager-svc,ai-deployer-svc,ai-appmanager-svc,ai-trainer-svc,studioweb-backend,studioweb-frontend,studioweb-typecache -
Führen Sie das folgende Skript aus, das die Umgebungsvariablen in die Protokollierungs-Pods aufnimmt und neu startet.
#!/bin/bash set -euo pipefail APP_NAME="logging" NAMESPACE="argocd" HTTP_PROXY="${http_proxy:-}" HTTPS_PROXY="${https_proxy:-}" NO_PROXY="${no_proxy:-}" # Create a temporary JSON patch PATCH_FILE=$(mktemp) cat > "$PATCH_FILE" <<EOF { "spec": { "source": { "helm": { "parameters": [ { "name": "logging-operator.env[0].name", "value": "http_proxy" }, { "name": "logging-operator.env[0].value", "value": "${HTTP_PROXY}" }, { "name": "logging-operator.env[1].name", "value": "https_proxy" }, { "name": "logging-operator.env[1].value", "value": "${HTTPS_PROXY}" }, { "name": "logging-operator.env[2].name", "value": "no_proxy" }, { "name": "logging-operator.env[2].value", "value": "${NO_PROXY}" }, { "name": "logging-operator.logging.fluentd.envVars[0].name", "value": "http_proxy" }, { "name": "logging-operator.logging.fluentd.envVars[0].value", "value": "${HTTP_PROXY}" }, { "name": "logging-operator.logging.fluentd.envVars[1].name", "value": "https_proxy" }, { "name": "logging-operator.logging.fluentd.envVars[1].value", "value": "${HTTPS_PROXY}" }, { "name": "logging-operator.logging.fluentd.envVars[2].name", "value": "no_proxy" }, { "name": "logging-operator.logging.fluentd.envVars[2].value", "value": "${NO_PROXY}" }, { "name": "logging-operator.logging.fluentbit.envVars[0].name", "value": "http_proxy" }, { "name": "logging-operator.logging.fluentbit.envVars[0].value", "value": "${HTTP_PROXY}" }, { "name": "logging-operator.logging.fluentbit.envVars[1].name", "value": "https_proxy" }, { "name": "logging-operator.logging.fluentbit.envVars[1].value", "value": "${HTTPS_PROXY}" }, { "name": "logging-operator.logging.fluentbit.envVars[2].name", "value": "no_proxy" }, { "name": "logging-operator.logging.fluentbit.envVars[2].value", "value": "${NO_PROXY}" } ] } } } } EOF # Patch the Argo CD Application kubectl patch application "$APP_NAME" -n "$NAMESPACE" --type merge --patch-file "$PATCH_FILE" # Cleanup rm -f "$PATCH_FILE" echo "Patched Argo CD Application '$APP_NAME' with proxy parameters." echo "Restarting logging pods..." kubectl rollout restart deploy/logging-logging-operator -n logging kubectl rollout restart sts/logging-fluentd -n logging kubectl rollout restart ds/logging-fluentbit -n logging echo "Rollout restart completed"#!/bin/bash set -euo pipefail APP_NAME="logging" NAMESPACE="argocd" HTTP_PROXY="${http_proxy:-}" HTTPS_PROXY="${https_proxy:-}" NO_PROXY="${no_proxy:-}" # Create a temporary JSON patch PATCH_FILE=$(mktemp) cat > "$PATCH_FILE" <<EOF { "spec": { "source": { "helm": { "parameters": [ { "name": "logging-operator.env[0].name", "value": "http_proxy" }, { "name": "logging-operator.env[0].value", "value": "${HTTP_PROXY}" }, { "name": "logging-operator.env[1].name", "value": "https_proxy" }, { "name": "logging-operator.env[1].value", "value": "${HTTPS_PROXY}" }, { "name": "logging-operator.env[2].name", "value": "no_proxy" }, { "name": "logging-operator.env[2].value", "value": "${NO_PROXY}" }, { "name": "logging-operator.logging.fluentd.envVars[0].name", "value": "http_proxy" }, { "name": "logging-operator.logging.fluentd.envVars[0].value", "value": "${HTTP_PROXY}" }, { "name": "logging-operator.logging.fluentd.envVars[1].name", "value": "https_proxy" }, { "name": "logging-operator.logging.fluentd.envVars[1].value", "value": "${HTTPS_PROXY}" }, { "name": "logging-operator.logging.fluentd.envVars[2].name", "value": "no_proxy" }, { "name": "logging-operator.logging.fluentd.envVars[2].value", "value": "${NO_PROXY}" }, { "name": "logging-operator.logging.fluentbit.envVars[0].name", "value": "http_proxy" }, { "name": "logging-operator.logging.fluentbit.envVars[0].value", "value": "${HTTP_PROXY}" }, { "name": "logging-operator.logging.fluentbit.envVars[1].name", "value": "https_proxy" }, { "name": "logging-operator.logging.fluentbit.envVars[1].value", "value": "${HTTPS_PROXY}" }, { "name": "logging-operator.logging.fluentbit.envVars[2].name", "value": "no_proxy" }, { "name": "logging-operator.logging.fluentbit.envVars[2].value", "value": "${NO_PROXY}" } ] } } } } EOF # Patch the Argo CD Application kubectl patch application "$APP_NAME" -n "$NAMESPACE" --type merge --patch-file "$PATCH_FILE" # Cleanup rm -f "$PATCH_FILE" echo "Patched Argo CD Application '$APP_NAME' with proxy parameters." echo "Restarting logging pods..." kubectl rollout restart deploy/logging-logging-operator -n logging kubectl rollout restart sts/logging-fluentd -n logging kubectl rollout restart ds/logging-fluentbit -n logging echo "Rollout restart completed"