automation-suite
2023.10
true
Automation Suite unter Linux – Installationsanleitung
Last updated 4. Okt. 2024

Kubernetes-Ressourcenwarnungen

k8s.rules, kube-apiserver-availability.rules, kube-apiserver-slos

KubeAPIErrorBudgetBurn

Der Kubernetes API-Server verbraucht zu viel Budget für Fehler.

kube-state-metrics

KubeStateMetricsListErrors, KubeStateMetricsWatchErrors

Der Sammler der Kube-State-Metrics kann keine Metriken aus dem Cluster ohne Fehler sammeln. Das bedeutet, dass wichtige Warnungen möglicherweise nicht ausgelöst werden. Wenden Sie sich an den UiPath®-Support.

KubernetesMemoryPressure

Diese Warnung weist darauf hin, dass die Speicherauslastung auf dem Kubernetes-Knoten sehr hoch ist.

Wenn diese Warnung ausgelöst wird, versuchen Sie herauszufinden, welcher Pod mehr Speicher verbraucht.

kubernetes-apps

KubePodCrashLooping

Ein Pod, der immer wieder unerwartet neu gestartet wird. Das kann durch einen Out-of-Memory-Fehler (OOM) auftreten. In diesem Fall können die Grenzwerte angepasst werden. Überprüfen Sie die Pod-Ereignisse mit kubectl describe und die Protokolle mit kubectl logs, um Details zu möglichen Abstürzen zu sehen. Wenn das Problem weiterhin besteht, wenden Sie sich an den UiPath®-Support.

KubePodNotReady

Ein Pod wurde gestartet, reagiert aber nicht erfolgreich auf den Integritätstest. Das kann bedeuten, dass er hängen geblieben und für den Verkehr nicht verfügbar ist. Sie können die Pod-Protokolle mit kubectl logs überprüfen, um festzustellen, ob es Anzeichen für Fortschritte gibt. Wenn das Problem weiterhin besteht, wenden Sie sich an den UiPath®-Support.

KubeDeploymentGenerationMismatch, KubeStatefulSetGenerationMismatch

Es wurde versucht, eine Bereitstellung oder ein StatefulSet zu aktualisieren, was jedoch fehlgeschlagen ist und noch nicht rückgängig gemacht werden konnte. Wenden Sie sich an den UiPath®-Support.

KubeDeploymentReplicasMismatch, KubeStatefulSetReplicasMismatch

In Hochverfügbarkeitsclustern mit mehreren Replikaten wird diese Warnung ausgelöst, wenn die Anzahl der Replikate nicht optimal ist. Das kann auftreten, wenn im Cluster nicht genügend Ressourcen für die Planung vorhanden sind. Überprüfen Sie die Ressourcennutzung und fügen Sie bei Bedarf Kapazitäten hinzu. Wenden Sie sich andernfalls an den UiPath®-Support.

KubeStatefulSetUpdateNotRolledOut

Eine Aktualisierung eines StatefulSets ist fehlgeschlagen. Wenden Sie sich an den UiPath®-Support.

Siehe auch: StatefulSets.

KubeDaemonSetRolloutStuck

Daemonset-Rollout ist fehlgeschlagen. Wenden Sie sich an den UiPath®-Support.

Siehe auch: DaemonSet.

KubeContainerWaiting

Ein Container befindet sich im Wartestatus. Er wurde für einen Arbeiterknoten geplant, kann aber nicht auf dieser Maschine ausgeführt werden. Weitere Informationen finden Sie unter kubectl describe des Pods. Die häufigste Ursache für wartende Container ist, dass das Abrufen des Images fehlschlägt. Für Cluster mit Air Gap kann das bedeuten, dass die lokale Registrierung nicht verfügbar ist. Wenn das Problem weiterhin besteht, wenden Sie sich an den UiPath®-Support.

KubeDaemonSetNotScheduled, KubeDaemonSetMisScheduled

Das kann auf ein Problem mit einem der Knoten hinweisen. Überprüfen Sie den Zustand jedes Knotens und beheben Sie alle bekannten Probleme. Wenden Sie sich andernfalls an den UiPath®-Support.

KubeJobCompletion

Die Ausführung eines Auftrags dauert mehr als 12 Stunden. Das ist nicht zu erwarten. Wenden Sie sich an den UiPath®-Support.

KubeJobFailed

Ein Auftrag ist fehlgeschlagen; die meisten Aufträge werden jedoch automatisch wiederholt. Wenn das Problem weiterhin besteht, wenden Sie sich an den UiPath®-Support.

KubeHpaReplicasMismatch

Der Autoscaler kann die Zielressource nicht wie konfiguriert skalieren. Wenn der Sollwert höher als der Istwert ist, kann ein Ressourcenmangel vorliegen. Wenn der Sollwert niedriger als der Istwert ist, können Pods beim Herunterfahren hängen bleiben. Wenn das Problem weiterhin besteht, wenden Sie sich an den UiPath®-Support.

KubeHpaMaxedOut

Die Anzahl der Replikate für einen bestimmten Dienst hat das Maximum erreicht. Dies ist der Fall, wenn die Anzahl der Anforderungen an den Cluster sehr hoch ist. Wenn ein hoher Datenverkehr zu erwarten ist und nur vorübergehend auftritt, können Sie diese Warnung stummschalten. Diese Warnung ist jedoch ein Zeichen dafür, dass der Cluster an seiner Kapazitätsgrenze angelangt ist und keinen weiteren Datenverkehr mehr bewältigen kann. Wenn im Cluster mehr Ressourcenkapazität verfügbar ist, können Sie die Anzahl der maximalen Replikate für den Dienst erhöhen, indem Sie diese Anweisungen befolgen:

# Find the horizontal autoscaler that controls the replicas of the desired resource
kubectl get hpa -A
# Increase the number of max replicas of the desired resource, replacing <namespace> <resource> and <maxReplicas>
kubectl -n <namespace> patch hpa <resource> --patch '{"spec":{"maxReplicas":<maxReplicas>}}'# Find the horizontal autoscaler that controls the replicas of the desired resource
kubectl get hpa -A
# Increase the number of max replicas of the desired resource, replacing <namespace> <resource> and <maxReplicas>
kubectl -n <namespace> patch hpa <resource> --patch '{"spec":{"maxReplicas":<maxReplicas>}}'

kubernetes-resources

KubeCPUOvercommit, KubeMemoryOvercommit

Diese Warnungen weisen darauf hin, dass der Cluster keinen Knotenfehler tolerieren kann. Bei Auswertungsclustern mit einem einzelnen Knoten ist dies bekannt und diese Warnungen können stummgeschaltet werden. Bei HA-fähigen Produktionseinrichtungen mit mehreren Knoten werden diese Warnungen ausgelöst, wenn zu viele Knoten nicht mehr funktionsfähig sind, um die hohe Verfügbarkeit zu unterstützen. Sie zeigen an, dass die Knoten wiederhergestellt oder ersetzt werden sollten.

KubeCPUQuotaOvercommit, KubeMemoryQuotaOvercommit, KubeQuotaAlmostFull, KubeQuotaFullyUsed, KubeQuotaExceeded

Diese Warnungen beziehen sich auf Namespace-Ressourcenkontingente, die nur im Cluster vorhanden sind, wenn sie durch Anpassung hinzugefügt wurden. Namespace-Ressourcenkontingente werden nicht im Rahmen der Automation Suite-Installation hinzugefügt.

Siehe auch: Ressourcenkontingente.

AggregatedAPIErrors, AggregatedAPIDown, KubeAPIDown, KubeAPITerminatedRequests

Zeigt Probleme mit der Kubernetes-Kontrollebene an. Überprüfen Sie den Zustand der Master-Knoten, beheben Sie alle offenen Probleme und wenden Sie sich an den UiPath®-Support, wenn die Probleme weiterhin bestehen.

Siehe auch:

kubernetes-system-kubelet

KubeNodeNotReady, KubeNodeUnreachable, KubeNodeReadinessFlapping, KubeletPlegDurationHigh, KubeletPodStartUpLatencyHigh, KubeletDown

Diese Warnungen weisen auf ein Problem mit einem Knoten hin. In HA-fähigen Produktionsclustern mit mehreren Knoten würden Pods wahrscheinlich auf andere Knoten umgeleitet. Wenn das Problem weiterhin besteht, sollten Sie den Knoten entfernen und entleeren, um die Integrität des Clusters aufrechtzuerhalten. In Clustern ohne zusätzliche Kapazität sollte zuerst ein anderer Knoten mit dem Cluster verbunden werden.

KubeletTooManyPods

Auf dem angegebenen Knoten werden zu viele Pods ausgeführt.

kubernetes-system

KubeVersionMismatch

Es gibt verschiedene semantische Versionen von Kubernetes-Komponenten. Dies kann als Folge eines fehlgeschlagenen Kubernetes-Upgrades auftreten.

KubeClientErrors

Der Kubernetes API Server-Client weist mehr als 1 % an Fehlern auf. Möglicherweise gibt es ein Problem mit dem Knoten, auf dem dieser Client läuft, oder mit dem Kubernetes API-Server selbst.

Etdc-Warnungen

EtcdInsufficientMembers

Diese Warnung weist darauf hin, dass der etcd-Cluster nicht genügend Mitglieder hat. Beachten Sie, dass der Cluster eine ungerade Anzahl von Mitgliedern haben muss. Der Schweregrad dieser Warnung ist kritisch.

Stellen Sie sicher, dass es eine ungerade Anzahl von Serverknoten im Cluster gibt und alle betriebsbereit und fehlerfrei sind.

EtcdNoLeader

Diese Warnung zeigt an, dass der etcd-Cluster keinen Leader hat. Der Schweregrad dieser Warnung ist kritisch.

EtcdHighNumberOfLeaderChanges

Diese Warnung gibt an, dass sich der etcd-Anführer innerhalb von 10 Minuten mehr als zweimal ändert. Dies ist eine Warnung.

EtcdHighNumberOfFailedGrpcRequests

Diese Warnung gibt an, dass ein bestimmter Prozentsatz der GRPC-Anforderungsfehler in etcd erkannt wurde.

EtcdGrpcRequestsSlow

Diese Warnung gibt an, dass etcd-GRPC-Anforderungen langsam sind. Dies ist eine Warnung.

EtcdHighNumberOfFailedHttpRequests

Diese Warnung gibt an, dass ein bestimmter Prozentsatz der HTTP-Fehler in etcd erkannt wurde.

EtcdHttpRequestsSlow

Diese Warnung weist darauf hin, dass HTTP-Anforderungen langsamer werden. Dies ist eine Warnung.

EtcdMemberCommunicationSlow

Diese Warnung weist darauf hin, dass sich die Kommunikation mit etcd-Mitgliedern verlangsamt. Dies ist eine Warnung.

EtcdHighNumberOfFailedProposals

Diese Warnung gibt an, dass der etcd-Server in der letzten Stunde mehr als 5 fehlgeschlagene Vorschläge erhalten hat. Dies ist eine Warnung.

EtcdHighFsyncDurations

Diese Warnung gibt an, dass die fsync-Dauer der etcd-WAL zunimmt. Dies ist eine Warnung.

EtcdHighCommitDurations

Diese Warnung gibt an, dass die Commit-Dauer von etcd zunimmt. Dies ist eine Warnung.

kube-api

KubernetesApiServerErrors

Diese Warnung weist darauf hin, dass beim Kubernetes API-Server eine hohe Fehlerrate auftritt. Dieses Problem kann zu anderen Fehlern führen, daher wird empfohlen, das Problem proaktiv zu untersuchen.

Überprüfen Sie die Protokolle für den Pod api-server , um die Ursache des Problems mit dem Befehl kubectl logs <pod-name> -n kube-system herauszufinden.

War diese Seite hilfreich?

Hilfe erhalten
RPA lernen – Automatisierungskurse
UiPath Community-Forum
Uipath Logo White
Vertrauen und Sicherheit
© 2005–2024 UiPath. Alle Rechte vorbehalten