UiPath Documentation
automation-suite
2024.10
false
Important :
Veuillez noter que ce contenu a été localisé en partie à l’aide de la traduction automatique. La localisation du contenu nouvellement publié peut prendre 1 à 2 semaines avant d’être disponible.
UiPath logo, featuring letters U and I in white

Guide d'installation d'Automation Suite sur Linux

Dernière mise à jour 15 avr. 2026

Alertes relatives aux ressources Kubernetes

k8s.rules, kube-apiserver-availability.rules, kube-apiserver-slos

KubeAPIErrorBudgetBurn

Le serveur d'API Kubernetes consomme trop de budget d'erreur.

kube-state-metrics

KubeStateMetricsListErrors, KubeStateMetricsWatchErrors

Le collecteur Kube State Metrics n’est pas en mesure de collecter les métriques du cluster sans erreur. Cela signifie que les alertes importantes peuvent ne pas se déclencher. Contactez l’assistance UiPath®.

KubernetesMemoryPressure

Cette alerte indique que l'utilisation de la mémoire est très élevée sur le nœud Kubernetes.

Les nœuds Kubernetes avec le type d'incident MemoryPressure se produisent lorsqu'un nœud de cluster Kubernetes dispose d'une mémoire insuffisante, ce qui peut être dû à une fuite de mémoire dans une application. Ce type d'incident nécessite une attention immédiate pour éviter tout temps d'arrêt et assurer le bon fonctionnement du cluster Kubernetes.

Si cette alerte se déclenche, essayez d'identifier le pod sur le nœud qui consomme plus de mémoire, en procédant comme suit :

  1. Récupérez les statistiques du processeur et de la mémoire des nœuds :

    kubectl top node
    kubectl top node
    
  2. Récupérez les pods exécutés sur le nœud :

    kubectl get pods --all-namespaces -o wide --field-selector spec.nodeName=${NODE_NAME}
    kubectl get pods --all-namespaces -o wide --field-selector spec.nodeName=${NODE_NAME}
    
  3. Vérifiez l'utilisation de la mémoire pour les pods dans un espace de noms en utilisant :

    kubectl top pod --namespace <namespace>
    kubectl logs -f <pod-name> -n <ns>
    kubectl top pod --namespace <namespace>
    kubectl logs -f <pod-name> -n <ns>
    

Si vous êtes en mesure d'identifier n'importe quel pod avec une utilisation élevée de la mémoire, consultez les journaux du pod et recherchez les erreurs de fuite de mémoire.

Pour résoudre ce problème, augmentez si possible les spécifications de mémoire des nœuds.

Si le problème persiste, générez le pack d’assistance et contactez le support UiPath®.

kubernetes-apps

KubePodCrashLooping

Un pod qui redémarre sans cesse de manière inattendue. Cela peut se produire en raison d’une erreur de mémoire insuffisante (OOM), auquel cas les limites peuvent être ajustées. Vérifiez les événements du pod avec kubectl describe et les journaux avec kubectl logs pour voir les détails sur les pannes possibles. Si le problème persiste, contactez le support UiPath®.

KubePodNotReady

Un pod a démarré, mais il ne répond pas avec succès à la sonde de santé. Cela peut signifier qu’il est bloqué et qu’il n’est pas en mesure de desservir le trafic. Vous pouvez vérifier les journaux de pod avec kubectl logs pour voir s’il y a une indication de progression. Si le problème persiste, contactez le support UiPath®.

KubeDeploymentGenerationMismatch, KubeStatefulSetGenerationMismatch

Une tentative de mise à jour d’un déploiement ou d’un ensemble d’états a eu lieu, mais elle a échoué et aucune restauration n’a encore eu lieu. Contactez l’assistance UiPath®.

KubeDeploymentReplicasMismatch, KubeStatefulSetReplicasMismatch

Dans les clusters à haute disponibilité avec plusieurs répliques, cette alerte se déclenche lorsque le nombre de répliques n’est pas optimal. Cela peut se produire lorsqu’il n’y a pas suffisamment de ressources dans le cluster à planifier. Vérifiez l’utilisation des ressources et ajoutez de la capacité si nécessaire. Sinon, contactez le support UiPath®.

KubeStatefulSetUpdateNotRolledOut

La mise à jour d’un ensemble d’états a échoué. Contactez l’assistance UiPath®.

Voir aussi : Ensembles d'états.

KubeDaemonSetRolloutStuck

Le déploiement de Daemonset a échoué. Contactez l’assistance UiPath®.

Voir aussi : DaemonSet.

KubeContainerWaiting

Un conteneur est bloqué dans l’état d’attente. Il a été planifié sur un nœud de travail, mais il ne peut pas s’exécuter sur cette machine. Vérifiez le kubectl describe du pod pour plus d’informations. La cause la plus fréquente des conteneurs en attente est l’échec de l’extraction de l’image. Pour les clusters isolés, cela peut signifier que le registre local n’est pas disponible. Si le problème persiste, contactez le support UiPath®.

KubeDaemonSetNotScheduled, KubeDaemonSetMisScheduled

Cela peut indiquer un problème avec l’un des nœuds. Vérifiez l’intégrité de chaque nœud et corrigez tout problème connu. Sinon, contactez le support UiPath®.

KubeJobCompletion

Une tâche prend plus de 12 heures à s’exécuter. Ceci n’est pas normal. Contactez l’assistance UiPath®.

KubeJobFailed

Une tâche a échoué ; cependant, la plupart des tâches font automatiquement l’objet de nouvelles tentatives. Si le problème persiste, contactez le support UiPath®.

KubeHpaReplicasMismatch

L’autoscaler ne peut pas mettre à l’échelle la ressource ciblée telle qu’elle est configurée. Si la valeur souhaitée est supérieure à la valeur réelle, il y a peut-être un manque de ressources. Si la valeur souhaitée est inférieure à la valeur réelle, les pods peuvent être bloqués lors de l’arrêt. Si le problème persiste, contactez le support UiPath®.

KubeHpaMaxedOut

Le nombre de répliques d'un service donné a atteint son maximum. Cela se produit lorsque le nombre de requêtes adressées au cluster est très élevé. Si un trafic élevé est prévu et temporaire, vous pouvez désactiver cette alerte. Cependant, cette alerte est un signe que le cluster est à pleine capacité et ne peut pas gérer beaucoup plus de trafic. Si une plus grande capacité de ressources est disponible sur le cluster, vous pouvez augmenter le nombre maximal de répliques du service en suivant ces instructions :

# Find the horizontal autoscaler that controls the replicas of the desired resource
kubectl get hpa -A
# Increase the number of max replicas of the desired resource, replacing <namespace> <resource> and <maxReplicas>
kubectl -n <namespace> patch hpa <resource> --patch '{"spec":{"maxReplicas":<maxReplicas>}}'
# Find the horizontal autoscaler that controls the replicas of the desired resource
kubectl get hpa -A
# Increase the number of max replicas of the desired resource, replacing <namespace> <resource> and <maxReplicas>
kubectl -n <namespace> patch hpa <resource> --patch '{"spec":{"maxReplicas":<maxReplicas>}}'

kubernetes-resources

KubeCPUOvercommit, KubeMemoryOvercommit

Ces avertissements indiquent que le cluster ne peut pas tolérer une panne de nœud. Pour les clusters en mode d'évaluation à nœud unique, cela est courant et ces alertes peuvent être désactivées. Pour les configurations en mode de production multi-nœuds compatible haute disponibilité, ces alertes se déclenchent lorsqu'un trop grand nombre de nœuds deviennent défectueux pour prendre en charge la haute disponibilité, et elles indiquent que les nœuds doivent être rétablis ou remplacés.

KubeCPUQuotaOvercommit, KubeMemoryQuotaOvercommit, KubeQuotaAlmostFull, KubeQuotaFullyUsed, KubeQuotaExceeded

Ces alertes concernent les quotas de ressources d'espace de noms qui n'existent dans le cluster que s'ils sont ajoutés via la personnalisation. Les quotas de ressources d'espace de noms ne sont pas ajoutés dans le cadre de l'installation d'Automation Suite.

Voir aussi : Quotas de ressources.

AggregatedAPIErrors, AggregatedAPIDown, KubeAPIDown, KubeAPITerminatedRequests

Indique des problèmes avec le plan de contrôle Kubernetes. Vérifiez l’état des nœuds maîtres, résolvez les problèmes en cours et contactez le support UiPath® si les problèmes persistent.

Voir également :

kubernetes-system-kubelet

KubeNodeNotReady, KubeNodeUnreachable, KubeNodeReadinessFlapping, KubeletPlegDurationHigh, KubeletPodStartUpLatencyHigh, KubeletDown

Ces alertes indiquent un problème avec un nœud. Dans les clusters en mode de production multi-nœuds compatible haute disponibilité, les pods seraient probablement replanifiés sur d'autres nœuds. Si le problème persiste, vous devez supprimer et vider le nœud pour maintenir l'intégrité du cluster. Dans les clusters sans capacité supplémentaire, un autre nœud doit d'abord être joint au cluster.

Si les problèmes persistent, contactez le support UiPath®.

KubeletTooManyPods

Il y a trop de pods en cours d'exécution sur le nœud spécifié.

kubernetes-system

KubeVersionMismatch

Il existe différentes versions sémantiques des composants Kubernetes en cours d'exécution. Cela peut se produire à la suite d'une mise à niveau infructueuse de Kubernetes.

KubeClientErrors

Le client du serveur d'API Kubernetes rencontre plus de 1 % d'erreurs. Il peut y avoir un problème avec le nœud sur lequel ce client s'exécute ou avec le serveur d'API Kubernetes lui-même.

Alertes etdc

EtcdInsufficientMembers

Cette alerte indique que le cluster etcd a un nombre insuffisant de membres. Notez que le cluster doit avoir un nombre impair de membres. La gravité de cette alerte est critique.

Assurez-vous qu'il y a un nombre impair de nœuds de serveur dans le cluster, et qu'ils sont tous actifs et sains.

EtcdNoLeader

Cette alerte indique que le cluster etcd n'a pas de leader. La gravité de cette alerte est critique.

EtcdHighNumberOfLeaderChanges

Cette alerte indique que le leader etcd change plus de deux fois en 10 minutes. Ceci est un avertissement.

EtcdHighNumberOfFailedGrpcRequests

Cette alerte indique qu'un certain pourcentage d'échecs de requêtes GRPC a été détecté dans etcd.

EtcdGrpcRequestsSlow

Cette alerte indique que les requêtes etcd GRPC sont lentes. Ceci est un avertissement.

Si cette alerte persiste, contactez le support UiPath®.

EtcdHighNumberOfFailedHttpRequests

Cette alerte indique qu'un certain pourcentage d'échecs HTTP a été détecté dans etcd.

EtcdHttpRequestsSlow

Cette alerte indique que les requêtes HTTP ralentissent. Ceci est un avertissement.

EtcdMemberCommunicationSlow

Cette alerte indique que la communication avec les membres etcd ralentit. Ceci est un avertissement.

EtcdHighNumberOfFailedProposals

Cette alerte indique que le serveur etcd a reçu plus de 5 propositions ayant échoué au cours de la dernière heure. Ceci est un avertissement.

EtcdHighFsyncDurations

Cette alerte indique que la durée fsync des WAL etcd augmente. Ceci est un avertissement.

EtcdHighCommitDurations

Cette alerte indique que la durée de validation etcd augmente. Ceci est un avertissement.

kube-api

KubernetesApiServerErrors

Cette alerte indique que le serveur d'API Kubernetes rencontre un taux d'erreur élevé. Ce problème peut entraîner d'autres échecs. Il est donc recommandé d'étudier le problème de manière proactive.

Consultez les journaux du pod api-server pour trouver la cause première du problème à l'aide de la commande kubectl logs <pod-name> -n kube-system .

Cette page vous a-t-elle été utile ?

Connecter

Besoin d'aide ? Assistance

Vous souhaitez apprendre ? UiPath Academy

Vous avez des questions ? UiPath Forum

Rester à jour