- Überblick
- Anforderungen
- Vor der Installation
- Vorbereiten der Installation
- Installieren und Konfigurieren des Dienstgeflechts
- Herunterladen der Installationspakete
- Konfigurieren der OCI-konformen Registrierung
- Erteilen von Installationsberechtigungen
- Installieren und Konfigurieren des GitOps-Tools
- Anwenden verschiedener Konfigurationen
- Ausführen von uipathctl
- Installation
- Nach der Installation
- Migration und Upgrade
- Überwachung und Warnungen
- Clusterverwaltung
- Produktspezifische Konfiguration
- Konfigurieren von Orchestrator-Parametern
- Konfigurieren von AppSettings
- Konfigurieren der maximalen Anforderungsgröße
- Überschreiben der Speicherkonfiguration auf Clusterebene
- Konfigurieren von NLog
- Speichern von Roboterprotokollen in Elasticsearch
- Konfigurieren von Anmeldeinformationsspeichern
- Konfigurieren der Verwendung von einem Verschlüsselungsschlüssel pro Mandant
- Bereinigen der Orchestrator-Datenbank
- Fehlersuche und ‑behebung

Automation Suite auf EKS/AKS-Installationsanleitung
Warnungs-Runbooks
- Allgemeine Anweisungen zur Verwendung der verfügbaren Tools für Warnungen, Metriken und Visualisierungen finden Sie unter Verwenden des Überwachungs-Stacks.
- Weitere Informationen zum Beheben von Problemen und zum Erstellen eines Supportpakets für UiPath®-Supporttechniker finden Sie unter Fehlerbehebung.
- Wenn Sie sich an den UiPath®-Support wenden, geben Sie bitte alle Warnungen an, die derzeit ausgelöst werden.
Warnungsschweregrad |
Beschreibung |
---|---|
Information (Info) | Unerwartet, aber harmlos. Kann stummgeschaltet werden, kann aber bei der Diagnose nützlich sein. |
Warnung | Hinweis auf eine gezielte Beeinträchtigung der Funktionalität oder die Wahrscheinlichkeit einer Beeinträchtigung in naher Zukunft, die den gesamten Cluster betreffen kann. Schlägt sofortige Maßnahmen (in der Regel innerhalb weniger Tage) vor, um den Cluster in Ordnung zu halten. |
Kritisch | Es kommt zu schwerwiegenden Beeinträchtigungen der Funktionalität, die oft im gesamten Cluster verbreitet sind. Erfordert sofortiges Handeln (am selben Tag), um den Cluster zu reparieren. |
Prometheus ist nicht in der Lage, Metriken von dem Ziel in der Warnung zu sammeln, was bedeutet, dass die Grafana-Dashboards und weitere Warnungen, die auf Metriken von diesem Ziel basieren, nicht verfügbar sind. Überprüfen Sie andere Warnungen, die dieses Ziel betreffen.
Diese Warnung soll sicherstellen, dass die gesamte Warnungspipeline funktionsfähig ist. Diese Warnung wird immer ausgelöst. Daher sollte sie immer in AlertManager und gegen einen Receiver ausgelöst werden. Es gibt Integrationen mit verschiedenen Benachrichtigungsmechanismen, die Sie benachrichtigen, wenn diese Warnung nicht ausgelöst wird. Zum Beispiel die DeadMansSnitch-Integration in PagerDuty.
kubectl describe
und die Protokolle mit kubectl logs
, um Details zu möglichen Abstürzen zu sehen. Wenn das Problem weiterhin besteht, wenden Sie sich an den UiPath®-Support.
kubectl logs
überprüfen, um festzustellen, ob es Anzeichen für Fortschritte gibt. Wenn das Problem weiterhin besteht, wenden Sie sich an den UiPath®-Support.
Es wurde versucht, eine Bereitstellung oder ein StatefulSet zu aktualisieren, was jedoch fehlgeschlagen ist und noch nicht rückgängig gemacht werden konnte. Wenden Sie sich an den UiPath®-Support.
In Hochverfügbarkeitsclustern mit mehreren Replikaten wird diese Warnung ausgelöst, wenn die Anzahl der Replikate nicht optimal ist. Das kann auftreten, wenn im Cluster nicht genügend Ressourcen für die Planung vorhanden sind. Überprüfen Sie die Ressourcennutzung und fügen Sie bei Bedarf Kapazitäten hinzu. Wenden Sie sich andernfalls an den UiPath®-Support.
Eine Aktualisierung eines StatefulSets ist fehlgeschlagen. Wenden Sie sich an den UiPath®-Support.
Siehe auch: StatefulSets.
Daemonset-Rollout ist fehlgeschlagen. Wenden Sie sich an den UiPath®-Support.
Siehe auch: DaemonSet.
kubectl describe
des Pods. Die häufigste Ursache für wartende Container ist, dass das Abrufen des Images fehlschlägt. Für Cluster mit Air Gap kann das bedeuten, dass die lokale Registrierung nicht verfügbar ist. Wenn das Problem weiterhin besteht, wenden Sie sich an den UiPath®-Support.
Das kann auf ein Problem mit einem der Knoten hinweisen. Überprüfen Sie den Zustand jedes Knotens und beheben Sie alle bekannten Probleme. Wenden Sie sich andernfalls an den UiPath®-Support.
Die Ausführung eines Auftrags dauert mehr als 12 Stunden. Das ist nicht zu erwarten. Wenden Sie sich an den UiPath®-Support.
Ein Auftrag ist fehlgeschlagen; die meisten Aufträge werden jedoch automatisch wiederholt. Wenn das Problem weiterhin besteht, wenden Sie sich an den UiPath®-Support.
Der Autoscaler kann die Zielressource nicht wie konfiguriert skalieren. Wenn der Sollwert höher als der Istwert ist, kann ein Ressourcenmangel vorliegen. Wenn der Sollwert niedriger als der Istwert ist, können Pods beim Herunterfahren hängen bleiben. Wenn das Problem weiterhin besteht, wenden Sie sich an den UiPath®-Support.
Siehe auch: Horizontales Pod-Autoscaling.
Die Anzahl der Replikate für einen bestimmten Dienst hat das Maximum erreicht. Dies ist der Fall, wenn die Anzahl der Anforderungen an den Cluster sehr hoch ist. Wenn ein hoher Datenverkehr zu erwarten ist und nur vorübergehend auftritt, können Sie diese Warnung stummschalten. Diese Warnung ist jedoch ein Zeichen dafür, dass der Cluster an seiner Kapazitätsgrenze angelangt ist und keinen weiteren Datenverkehr mehr bewältigen kann. Wenn im Cluster mehr Ressourcenkapazität verfügbar ist, können Sie die Anzahl der maximalen Replikate für den Dienst erhöhen, indem Sie diese Anweisungen befolgen:
# Find the horizontal autoscaler that controls the replicas of the desired resource
kubectl get hpa -A
# Increase the number of max replicas of the desired resource, replacing <namespace> <resource> and <maxReplicas>
kubectl -n <namespace> patch hpa <resource> --patch '{"spec":{"maxReplicas":<maxReplicas>}}'
# Find the horizontal autoscaler that controls the replicas of the desired resource
kubectl get hpa -A
# Increase the number of max replicas of the desired resource, replacing <namespace> <resource> and <maxReplicas>
kubectl -n <namespace> patch hpa <resource> --patch '{"spec":{"maxReplicas":<maxReplicas>}}'
Siehe auch: Horizontales Pod-Autoscaling.
Diese Warnungen weisen darauf hin, dass der Cluster keinen Knotenfehler tolerieren kann. Bei Auswertungsclustern mit einem einzelnen Knoten ist dies bekannt und diese Warnungen können stummgeschaltet werden. Bei HA-fähigen Produktionseinrichtungen mit mehreren Knoten werden diese Warnungen ausgelöst, wenn zu viele Knoten nicht mehr funktionsfähig sind, um die hohe Verfügbarkeit zu unterstützen. Sie zeigen an, dass die Knoten wiederhergestellt oder ersetzt werden sollten.
KubeCPUQuotaOvercommit, KubeMemoryQuotaOvercommit, KubeQuotaAlmostFull, KubeQuotaFullyUsed, KubeQuotaExceeded
Diese Warnungen beziehen sich auf Namespace-Ressourcenkontingente, die nur im Cluster vorhanden sind, wenn sie durch Anpassung hinzugefügt wurden. Namespace-Ressourcenkontingente werden nicht im Rahmen der Automation Suite-Installation hinzugefügt.
Siehe auch: Ressourcenkontingente.
Bei Warnend: Der verfügbare Speicherplatz beträgt weniger als 30 % und wird wahrscheinlich innerhalb von vier Tagen ausgefüllt.
Bei Kritisch: Der verfügbare Speicherplatz ist weniger als 10 %.
Bei allen Diensten, bei denen der Speicherplatz knapp wird, kann es schwierig werden, die Daten wiederherzustellen. Daher sollten die Volumes verkleinert werden, bevor der verfügbare Speicherplatz 0 % erreicht.
Weitere Informationen und Anweisungen zu Prometheus-spezifischen Warnungen finden Sie unter PrometheusStorageUsage .
Der Sammler der Kube-State-Metrics kann keine Metriken aus dem Cluster ohne Fehler sammeln. Das bedeutet, dass wichtige Warnungen möglicherweise nicht ausgelöst werden. Wenden Sie sich an den UiPath®-Support.
Siehe auch: Kube-State-Metrics beim Release.
Bei Warnend: Ein Clientzertifikat, das zur Authentifizierung beim Kubernetes API-Server verwendet wird, läuft in weniger als sieben Tagen ab.
Bei Kritisch: Ein Clientzertifikat, das zur Authentifizierung beim Kubernetes API-Server verwendet wird, läuft in weniger als einem Tag ab.
Sie müssen das Zertifikat erneuern.
Zeigt Probleme mit der Kubernetes-Kontrollebene an. Überprüfen Sie den Zustand der Master-Knoten, beheben Sie alle offenen Probleme und wenden Sie sich an den UiPath®-Support, wenn die Probleme weiterhin bestehen.
Siehe auch:
Diese Warnung weist darauf hin, dass beim Kubernetes API-Server eine hohe Fehlerrate auftritt. Dieses Problem kann zu anderen Fehlern führen, daher wird empfohlen, das Problem proaktiv zu untersuchen.
api-server
, um die Ursache des Problems mit dem Befehl kubectl logs <pod-name> -n kube-system
herauszufinden.
KubeNodeNotReady, KubeNodeUnreachable, KubeNodeReadinessFlapping, KubeletPlegDurationHigh, KubeletPodStartUpLatencyHigh, KubeletDown
Diese Warnungen weisen auf ein Problem mit einem Knoten hin. In HA-fähigen Produktionsclustern mit mehreren Knoten würden Pods wahrscheinlich auf andere Knoten umgeleitet. Wenn das Problem weiterhin besteht, sollten Sie den Knoten entfernen und entleeren, um die Integrität des Clusters aufrechtzuerhalten. In Clustern ohne zusätzliche Kapazität sollte zuerst ein anderer Knoten mit dem Cluster verbunden werden.
Wenn die Probleme weiterhin bestehen, wenden Sie sich an den UiPath®-Support.
Bei Warnend: Ein Client- oder Serverzertifikat für Kubelet läuft in weniger als sieben Tagen ab.
Bei Kritisch: Ein Client- oder Serverzertifikat für Kubelet läuft in weniger als einem Tag ab.
Sie müssen das Zertifikat erneuern.
Es gibt verschiedene semantische Versionen von Kubernetes-Komponenten. Dies kann als Folge eines fehlgeschlagenen Kubernetes-Upgrades auftreten.
Der Kubernetes API Server-Client weist mehr als 1 % an Fehlern auf. Möglicherweise gibt es ein Problem mit dem Knoten, auf dem dieser Client läuft, oder mit dem Kubernetes API-Server selbst.
Diese Warnung weist darauf hin, dass die Speicherauslastung auf dem Kubernetes-Knoten sehr hoch ist.
MemoryPressure
tritt auf, wenn ein Kubernetes-Clusterknoten nicht mehr über den Arbeitsspeicher verfügt, was durch einen Speicherverlust in einer Anwendung verursacht werden kann. Dieser Vorfalltyp erfordert sofortige Aufmerksamkeit, um Ausfallzeiten zu vermeiden und das ordnungsgemäße Funktionieren des Kubernetes-Clusters sicherzustellen.
Wenn diese Warnung ausgelöst wird, versuchen Sie, den Pod auf dem Knoten zu identifizieren, der mehr Speicher verbraucht, indem Sie die folgenden Schritte ausführen:
-
Rufen Sie die CPU- und Speicherstatistiken der Knoten ab:
kubectl top node
kubectl top node -
Rufen Sie die Pods ab, die auf dem Knoten ausgeführt werden:
kubectl get pods --all-namespaces -o wide --field-selector spec.nodeName=${NODE_NAME}
kubectl get pods --all-namespaces -o wide --field-selector spec.nodeName=${NODE_NAME} -
Überprüfen Sie die Speichernutzung für Pods in einem Namespace mit:
kubectl top pod --namespace <namespace> kubectl logs -f <pod-name> -n <ns>
kubectl top pod --namespace <namespace> kubectl logs -f <pod-name> -n <ns>
Wenn Sie einen Pod mit hoher Speicherauslastung identifizieren können, überprüfen Sie die Protokolle des Pods und suchen Sie nach Speicherverlustfehlern.
Um das Problem zu beheben, erhöhen Sie nach Möglichkeit die Speicherspezifikation für die Knoten.
Wenn das Problem weiterhin besteht, generierenSie das Supportpaket und wenden Sie sich an den UiPath®-Support.
Diese Warnung weist darauf hin, dass die Datenträgernutzung auf dem Kubernetes-Knoten sehr hoch ist.
Wenn diese Warnung ausgelöst wird, versuchen Sie herauszufinden, welcher Pod mehr Datenträger verbraucht:
-
Bestätigen Sie mit dem folgenden Befehl, ob sich der Knoten unter
DiskPressure
befindet:kubectl describe node <node-name>
kubectl describe node <node-name>Identifizieren Sie für die BedingungDiskPressure
in der Ausgabe. -
Überprüfen Sie die Speicherplatznutzung auf dem betroffenen Knoten:
df -h
df -hHier wird die Datenträgernutzung auf allen bereitgestellten Dateisystemen angezeigt. Ermitteln Sie die hohe Nutzung.
-
Wenn der Datenträger voll und die Bereinigung unzureichend ist, sollten Sie eine Größenänderung des Datenträgers für den Knoten in Betracht ziehen ( insbesondere in Cloud-Umgebungen wie AWS oder GCP). Dieser Prozess kann je nach Ihrer Infrastruktur eine Erweiterung der Volumes erfordern.
Das Dateisystem auf einem bestimmten Knoten füllt sich.
Wenn diese Warnung ausgelöst wird, sollten Sie die folgenden Schritte beachten:
-
Bestätigen Sie mit dem folgenden Befehl, ob sich der Knoten unter
DiskPressure
befindet:kubectl describe node <node-name>
kubectl describe node <node-name>Identifizieren Sie für die BedingungDiskPressure
in der Ausgabe.
-
Löschen Sie die Protokolle und temporären Dateien. Suchen Sie nach großen Protokolldateien in
/var/log/
und bereinigen Sie diese, wenn möglich.
-
Überprüfen Sie die Speicherplatznutzung auf dem betroffenen Knoten:
df -h
df -hHier wird die Datenträgernutzung auf allen bereitgestellten Dateisystemen angezeigt. Ermitteln Sie die hohe Nutzung.
-
Wenn der Datenträger voll und die Bereinigung unzureichend ist, sollten Sie eine Größenänderung des Datenträgers für den Knoten in Betracht ziehen ( insbesondere in Cloud-Umgebungen wie AWS oder GCP). Dieser Prozess kann je nach Ihrer Infrastruktur eine Erweiterung der Volumes erfordern.
Das RAID-Array ist aufgrund eines oder mehrerer Festplattenausfälle in einem schlechten Zustand. Die Anzahl der Ersatzlaufwerke
reicht nicht aus, um das Problem automatisch zu beheben.
Diese Fehler weisen darauf hin, dass der Netzwerktreiber eine hohe Anzahl von Fehlern meldet. Dies kann durch physische Hardwarefehler oder Fehlkonfiguration im physischen Netzwerk verursacht werden. Dieses Problem betrifft das Betriebssystem und wird nicht durch die UiPath®-Anwendung gesteuert.
/proc/net/dev
ausgelöst, den der Linux-Kernel bereitstellt.
Wenden Sie sich an Ihren Netzwerkadministrator und das Team, das die physische Infrastruktur verwaltet.
Der Knoten reagiert aufgrund eines Problems nicht mehr, das zu einer Unterbrechung der Kommunikation zwischen Knoten im Cluster führte.
Wenn das Problem weiterhin besteht, wenden Sie sich mit dem generierten Supportpaket an den UiPath®-Support.
Diese Warnungen werden ausgelöst, wenn sich der Cluster den konfigurierten Grenzen für Arbeitsspeicher und Speicherplatz nähert. Dies ist wahrscheinlich bei Clustern der Fall, bei denen die Nutzung in letzter Zeit erheblich zugenommen hat (in der Regel von Robotern, nicht von Benutzern) oder wenn dem Cluster Knoten hinzugefügt werden, ohne dass die Prometheus-Ressourcen angepasst werden. Dies ist darauf zurückzuführen, dass die Anzahl der erfassten Metriken gestiegen ist. Dies könnte auch auf eine große Anzahl von Warnungen zurückzuführen sein, die ausgelöst werden. Es ist wichtig zu überprüfen, warum die große Anzahl von Warnungen ausgelöst wird.
Wenn dieses Problem weiterhin besteht, wenden Sie sich an den UiPath®-Support mit dem generierten Supportpaket.
Alertmanager
Instanzen innerhalb desselben Clusters unterschiedliche Konfigurationen haben. Dies könnte auf ein Problem mit der Konfigurationsrolle hinweisen, die nicht in allen Instanzen von Alertmanager
konsistent ist.
Führen Sie die folgenden Schritte aus, um das Problem zu beheben:
-
Führen Sie ein
diff
-Tool zwischen allenalertmanager.yml
aus, die bereitgestellt werden, um das Problem zu identifizieren. -
Löschen Sie das falsche Geheimnis, und stellen Sie das richtige bereit.
Wenn das Problem weiterhin besteht, wenden Sie sich an den UiPath®-Support.
AlertManager konnte die Konfiguration nicht laden oder neu laden. Bitte überprüfen Sie alle benutzerdefinierten AlertManager-Konfigurationen auf Eingabefehler. Wenden Sie sich andernfalls an den UiPath®-Support und stellen Sie das Supportpaket bereit. Weitere Informationen finden Sie unter Verwenden des Automation Suite-Supportpakets.
PrometheusOperatorListErrors, PrometheusOperatorWatchErrors, PrometheusOperatorSyncFailed, PrometheusOperatorReconcileErrors, PrometheusOperatorNodeLookupErrors, PrometheusOperatorNotReady, PrometheusOperatorRejectedResources
Interne Fehler des Prometheus-Betreibers, der die Prometheus-Ressourcen kontrolliert. Prometheus selbst kann noch funktionsfähig sein, während diese Fehler vorhanden sind; dieser Fehler zeigt jedoch an, dass die Konfigurierbarkeit der Überwachung beeinträchtigt ist. Wenden Sie sich an den UiPath®-Support.
Prometheus konnte die Konfiguration nicht laden oder neu laden. Bitte überprüfen Sie alle benutzerdefinierten Prometheus-Konfigurationen auf Eingabefehler. Wenden Sie sich andernfalls an den UiPath®-Support.
PrometheusErrorSendingAlertsToSomeAlertmanagers, PrometheusErrorSendingAlertsToAnyAlertmanager, PrometheusNotConnectedToAlertmanagers
Die Verbindung von Prometheus zu AlertManager ist nicht fehlerfrei. Metriken können immer noch abgefragt werden und Grafana-Dashboards können sie immer noch anzeigen, aber es werden keine Warnungen ausgelöst. Überprüfen Sie jede benutzerdefinierte Konfiguration von AlertManager auf Eingabefehler und wenden Sie sich andernfalls an den UiPath®-Support.
PrometheusNotificationQueueRunningFull, PrometheusTSDBReloadsFailing, PrometheusTSDBCompactionsFailing, PrometheusNotIngestingSamples, PrometheusDuplicateTimestamps, PrometheusOutOfOrderTimestamps, PrometheusRemoteStorageFailures, PrometheusRemoteWriteBehind, PrometheusRemoteWriteDesiredShards
Interne Prometheus-Fehler, die Metriken angeben, werden möglicherweise nicht wie erwartet gesammelt. Wenden Sie sich bitte an den UiPath®-Support.
Das kann passieren, wenn es fehlerhafte Warnmeldungen gibt, die auf nicht vorhandenen Metriken oder einer falschen PromQL-Syntax basieren. Wenden Sie sich an den UiPath®-Support, wenn keine benutzerdefinierten Warnungen hinzugefügt wurden.
Prometheus kann nicht evaluieren, ob Warnungen ausgelöst werden sollten. Das kann passieren, wenn zu viele Warnungen vorhanden sind. Bitte entfernen Sie teure benutzerdefinierte Warnungsevaluierungen und/oder lesen Sie die Dokumentation zur Erhöhung des CPU-Limits für Prometheus. Wenden Sie sich an den UiPath®-Support, wenn keine benutzerdefinierten Warnungen hinzugefügt wurden.
UiPathAvailabilityHighTrafficBackend, UiPathAvailabilityMediumTrafficUserFacing, UiPathAvailabilityMediumTrafficBackend, UiPathAvailabilityLowTrafficUserFacing, UiPathAvailabilityLowTrafficBackend
Die Anzahl der http 500-Antworten von UiPath®-Diensten überschreitet einen bestimmten Schwellenwert.
Verkehrsaufkommen |
Anzahl der Anfragen in 20 Minuten |
Fehlerschwellenwert (für HTTP 500) |
---|---|---|
Hoch |
>100.000 |
0,1 % |
Mittel |
Zwischen 10.000 und 100.000 |
1 % |
Niedrig |
< 10.000 |
5 % |
Fehler in benutzerorientierten Diensten würden wahrscheinlich zu einer Beeinträchtigung der Funktionalität führen, die in der Benutzeroberfläche der Automation Suite direkt sichtbar ist, während Fehler in Backend-Diensten weniger offensichtliche Folgen hätten.
Die Warnung gibt an, welcher Dienst eine hohe Fehlerquote aufweist. Um zu verstehen, welche Kaskadenprobleme von anderen Diensten aus auftreten können, von denen der Berichtdienst abhängt, können Sie das Istio Workload-Dashboard verwenden, das Fehler zwischen Diensten anzeigt.
Bitte überprüfen Sie alle kürzlich neu konfigurierten Automation Suite-Produkte. Detaillierte Protokolle sind auch mit dem Befehl kubectl logs verfügbar. Wenn der Fehler weiterhin auftritt, wenden Sie sich bitte an den UiPath®-Support.
uipath-infra/istio-configure-script-cronjob
befindet sich im Status „Angehalten“.
Um dieses Problem zu beheben, aktivieren Sie den Cronjob, indem Sie die folgenden Schritte ausführen:
export KUBECONFIG="/etc/rancher/rke2/rke2.yaml" && export PATH="$PATH:/usr/local/bin:/var/lib/rancher/rke2/bin"
kubectl -n uipath-infra patch cronjob istio-configure-script-cronjob -p '{"spec":{"suspend":false}}'
epoch=$(date +"%s")
kubectl -n uipath-infra create job istio-configure-script-cronjob-manual-$epoch --from=cronjob/istio-configure-script-cronjob
kubectl -n uipath-infra wait --for=condition=complete --timeout=300s job/istio-configure-script-cronjob-manual-$epoch
kubectl get node -o wide
#Verify if all the IP's listed by the above command are part of output of below command
kubectl -n <istio-system> get svc istio-ingressgateway -o json | jq '.spec.externalIPs'
export KUBECONFIG="/etc/rancher/rke2/rke2.yaml" && export PATH="$PATH:/usr/local/bin:/var/lib/rancher/rke2/bin"
kubectl -n uipath-infra patch cronjob istio-configure-script-cronjob -p '{"spec":{"suspend":false}}'
epoch=$(date +"%s")
kubectl -n uipath-infra create job istio-configure-script-cronjob-manual-$epoch --from=cronjob/istio-configure-script-cronjob
kubectl -n uipath-infra wait --for=condition=complete --timeout=300s job/istio-configure-script-cronjob-manual-$epoch
kubectl get node -o wide
#Verify if all the IP's listed by the above command are part of output of below command
kubectl -n <istio-system> get svc istio-ingressgateway -o json | jq '.spec.externalIPs'
Dieser Auftrag erhält das neueste Kerberos-Ticket vom AD-Server für die SQL-integrierte Authentifizierung. Fehler in diesem Auftrag würden dazu führen, dass die SQL Server-Authentifizierung fehlschlägt. Wenden Sie sich bitte an den UiPath®-Support.
Fehler in der Anforderungsroutingschicht würden zu einer eingeschränkten Funktionalität führen, die direkt in der Automation Suite-UI sichtbar ist. Die Anforderungen werden nicht an Back-End-Dienste weitergeleitet.
istio-ingressgateway
-Pods finden Sie im Namespace istio-system
. Rufen Sie den Pod-Namen ab, indem Sie die folgenden Befehle ausführen:
kubectl get pods -n istio-system
kubectl logs <istio-ingressgateway-pod-name> -n istio-system
kubectl get pods -n istio-system
kubectl logs <istio-ingressgateway-pod-name> -n istio-system
Diese Warnung gibt an, dass das TLS-Zertifikat des Servers in den folgenden 30 Tagen abläuft.
Um dieses Problem zu beheben, aktualisieren Sie das TLS-Zertifikat des Servers. Anweisungen finden Sie unter Verwalten von Serverzertifikaten.
Diese Warnung gibt an, dass das TLS-Zertifikat des Servers in den folgenden 7 Tagen abläuft.
Um dieses Problem zu beheben, aktualisieren Sie das TLS-Zertifikat. Anweisungen finden Sie unter Verwalten von Serverzertifikaten.
Diese Warnung gibt an, dass das Identitätstoken-Signaturzertifikat in den folgenden 30 Tagen abläuft.
Um dieses Problem zu beheben, aktualisieren Sie das Signaturzertifikat für das Identitäts-Token. Anweisungen finden Sie unter Verwalten von Serverzertifikaten.
Diese Warnung gibt an, dass das Identitätstoken-Signaturzertifikat in den folgenden 7 Tagen abläuft.
Um dieses Problem zu beheben, aktualisieren Sie das Signaturzertifikat für das Identitäts-Token. Anweisungen finden Sie unter Verwalten von Serverzertifikaten.
Diese Warnung weist darauf hin, dass der etcd-Cluster nicht genügend Mitglieder hat. Beachten Sie, dass der Cluster eine ungerade Anzahl von Mitgliedern haben muss. Der Schweregrad dieser Warnung ist kritisch.
Stellen Sie sicher, dass es eine ungerade Anzahl von Serverknoten im Cluster gibt und alle betriebsbereit und fehlerfrei sind.
Diese Warnung zeigt an, dass der etcd-Cluster keinen Leader hat. Der Schweregrad dieser Warnung ist kritisch.
Diese Warnung gibt an, dass sich der etcd-Anführer innerhalb von 10 Minuten mehr als zweimal ändert. Dies ist eine Warnung.
Diese Warnung gibt an, dass ein bestimmter Prozentsatz der GRPC-Anforderungsfehler in etcd erkannt wurde.
Diese Warnung gibt an, dass etcd-GRPC-Anforderungen langsam sind. Dies ist eine Warnung.
Wenn diese Warnung weiterhin auftritt, wenden Sie sich an den UiPath®-Support.
Diese Warnung gibt an, dass ein bestimmter Prozentsatz der HTTP-Fehler in etcd erkannt wurde.
Diese Warnung weist darauf hin, dass HTTP-Anforderungen langsamer werden. Dies ist eine Warnung.
Diese Warnung weist darauf hin, dass sich die Kommunikation mit etcd-Mitgliedern verlangsamt. Dies ist eine Warnung.
Diese Warnung gibt an, dass der etcd-Server in der letzten Stunde mehr als 5 fehlgeschlagene Vorschläge erhalten hat. Dies ist eine Warnung.
Diese Warnung gibt an, dass die fsync-Dauer der etcd-WAL zunimmt. Dies ist eine Warnung.
/var/lib/rancher
kleiner ist als:
- 35 % – der Schweregrad der Warnung ist Warnung
- 25 % – Der Schweregrad der Warnung ist kritisch
Wenn diese Warnung ausgelöst wird, erhöhen Sie die Größe des Datenträgers.
/var/lib/kubelet
kleiner ist als:
- 35 % – der Schweregrad der Warnung ist Warnung
-
25 % – Der Schweregrad der Warnung ist kritisch
Wenn diese Warnung ausgelöst wird, erhöhen Sie die Größe des Datenträgers.
/var
kleiner ist als:
- 35 % – der Schweregrad der Warnung ist Warnung
- 25 % – Der Schweregrad der Warnung ist kritisch
Die Speicheranforderungen für ML-Fähigkeiten können die Datenträgernutzung erheblich erhöhen.
Wenn diese Warnung ausgelöst wird, erhöhen Sie die Größe des Datenträgers.
Diese Warnung weist darauf hin, dass die NFS-Serververbindung unterbrochen wurde.
Sie müssen die NFS-Serververbindung und den Mount-Pfad überprüfen.
Diese Warnung gibt an, dass die Sicherung für einen PVC fehlgeschlagen ist.
Führen Sie die folgenden Schritte aus, um dieses Problem zu beheben:
-
Überprüfen Sie den Status des PVC, um sicherzustellen, dass es sich um
Bound
um ein persistentes Volume (PV) handelt.kubectl get pvc --namespace <namespace>
kubectl get pvc --namespace <namespace>Der Befehl listet alle PVCs und deren aktuellen Status auf. Das PVC muss den StatusBound
haben, um anzugeben, dass es erfolgreich ein PV angefordert hat.Wenn der StatusPending
ist, wartet der PVC immer noch auf ein geeignetes PV und weitere Untersuchung ist erforderlich. -
Wenn sich der PVC nicht im Zustand
Bound
befindet oder wenn Sie detailliertere Informationen benötigen, verwenden Sie den Befehldescribe
:kubectl describe pvc <pvc-name> --namespace <namespace>
kubectl describe pvc <pvc-name> --namespace <namespace>Suchen Sie nach Informationen zum Status, zu Ereignissen und zu Fehlermeldungen. Ein Problem könnte z. B. mit Fehlkonfigurationen von Speicherklassen oder Kontingentbeschränkungen zusammenhängen.
-
Überprüfen Sie den Zustand des persistenten Volumes (PV), das an den PVC gebunden ist:
kubectl get pv <pv-name>
kubectl get pv <pv-name>Der Status sollteBound
sein. Wenn sich das PV im ZustandReleased
oderFailed
befindet, kann dies auf Probleme mit dem zugrunde liegenden Speicher hinweisen. -
Wenn der PVC von einem Pod verwendet wird, überprüfen Sie, ob der Pod das Volume erfolgreich bereitgestellt hat:
kubectl get pod <pod-name> --namespace <namespace>
kubectl get pod <pod-name> --namespace <namespace>Wenn sich der Pod im StatusRunning
befindet, wird angegeben, dass der PVC erfolgreich bereitgestellt wurde. Wenn sich der Pod in einem Fehlerstatus befindet (z. B.InitBackOff
), kann dies auf Probleme beim Mounten des Volumes hinweisen. -
Wenn es Probleme beim Anbringen des PVC gibt, beschreiben Sie den Pod, um auf Installationsfehler zu überprüfen:
kubectl describe pod <pod-name> --namespace <namespace>
kubectl describe pod <pod-name> --namespace <namespace>
- Schlüssel zum Schweregrad der Warnung
- allgemeine.regeln
- TargetDown
- Watchdog
- kubernetes-apps
- KubePodCrashLooping
- KubePodNotReady
- KubeDeploymentGenerationMismatch, KubeStatefulSetGenerationMismatch
- KubeDeploymentReplicasMismatch, KubeStatefulSetReplicasMismatch
- KubeStatefulSetUpdateNotRolledOut
- KubeDaemonSetRolloutStuck
- KubeContainerWaiting
- KubeDaemonSetNotScheduled, KubeDaemonSetMisScheduled
- KubeJobCompletion
- KubeJobFailed
- KubeHpaReplicasMismatch
- KubeHpaMaxedOut
- kubernetes-resources
- KubeCPUOvercommit, KubeMemoryOvercommit
- KubeCPUQuotaOvercommit, KubeMemoryQuotaOvercommit, KubeQuotaAlmostFull, KubeQuotaFullyUsed, KubeQuotaExceeded
- CPUThrottlingHigh
- Kubernetes-storage
- KubePersistentVolumeFillingUp
- kube-state-metrics
- KubeStateMetricsListErrors, KubeStateMetricsWatchErrors
- kubernetes-system-apiserver
- KubeClientCertificateExpiration
- AggregatedAPIErrors, AggregatedAPIDown, KubeAPIDown, KubeAPITerminatedRequests
- KubernetesApiServerErrors
- kubernetes-system-kubelet
- KubeNodeNotReady, KubeNodeUnreachable, KubeNodeReadinessFlapping, KubeletPlegDurationHigh, KubeletPodStartUpLatencyHigh, KubeletDown
- KubeletTooManyPods
- KubeletClientCertificateExpiration, KubeletServerCertificateExpiration
- KubeletClientCertificateRenewalErrors, KubeletServerCertificateRenewalErrors
- kubernetes-system
- KubeVersionMismatch
- KubeClientErrors
- KubernetesMemoryPressure
- KubernetesDiskPressure
- Kube-apiserver-slos
- KubeAPIErrorBudgetBurn
- node-exporter
- NodeFilesystemSpaceFillingUp
- NodeRAIDDegraded
- NodeRAIDDiskFailure
- NodeNetworkReceiveErrs
- NodeClockSkewDetected, NodeClockNotSynchronising
- node-network
- NodeNetworkInterfaceFlapping
- InternodeCommunicationBroken
- uipath.prometheus.resource.provisioning.alerts
- PrometheusMemoryUsage, PrometheusStorageUsage
- alertmanager.rules
- AlertmanagerConfigInconsistent
- AlertmanagerFailedReload
- prometheus-operator
- PrometheusOperatorListErrors, PrometheusOperatorWatchErrors, PrometheusOperatorSyncFailed, PrometheusOperatorReconcileErrors, PrometheusOperatorNodeLookupErrors, PrometheusOperatorNotReady, PrometheusOperatorRejectedResources
- Prometheus
- PrometheusBadConfig
- PrometheusErrorSendingAlertsToSomeAlertmanagers, PrometheusErrorSendingAlertsToAnyAlertmanager, PrometheusNotConnectedToAlertmanagers
- PrometheusNotificationQueueRunningFull, PrometheusTSDBReloadsFailing, PrometheusTSDBCompactionsFailing, PrometheusNotIngestingSamples, PrometheusDuplicateTimestamps, PrometheusOutOfOrderTimestamps, PrometheusRemoteStorageFailures, PrometheusRemoteWriteBehind, PrometheusRemoteWriteDesiredShards
- PrometheusRuleFailures
- PrometheusMissingRuleEvaluations
- PrometheusTargetLimitHit
- UiPathAvailabilityHighTrafficBackend, UiPathAvailabilityMediumTrafficUserFacing, UiPathAvailabilityMediumTrafficBackend, UiPathAvailabilityLowTrafficUserFacing, UiPathAvailabilityLowTrafficBackend
- uipath.cronjob.alerts.rules
- CronJobSuspended
- UiPath CronJob „kerberos-tgt-refresh“ fehlgeschlagen
- IdentityKerberosTgtUpdateFailed
- uipath.requestrouting.alerts
- UiPathRequestRouting
- Server-TLS-Zertifikatwarnungen
- SecretCertificateExpiry30Days
- SecretCertificateExpiry7Days
- Warnungen zu Identitätstokensignaturzertifikaten
- IdentityCertificateExpiry30Days
- IdentityCertificateExpiry7Days
- Etdc-Warnungen
- EtcdInsufficientMembers
- EtcdNoLeader
- EtcdHighNumberOfLeaderChanges
- EtcdHighNumberOfFailedGrpcRequests
- EtcdGrpcRequestsSlow
- EtcdHighNumberOfFailedHttpRequests
- EtcdHttpRequestsSlow
- EtcdMemberCommunicationSlow
- EtcdHighNumberOfFailedProposals
- EtcdHighFsyncDurations
- EtcdHighCommitDurations
- Warnungen zur Datenträgergröße
- LowDiskForRancherPartition
- LowDiskForKubeletPartition
- LowDiskForVarPartition
- Sicherungswarnungen
- NFSServerDisconnected
- VolumeBackupFailed
- BackupDisabled