automation-suite
2024.10
true
Wichtig :
Bitte beachten Sie, dass dieser Inhalt teilweise mithilfe von maschineller Übersetzung lokalisiert wurde. Es kann 1–2 Wochen dauern, bis die Lokalisierung neu veröffentlichter Inhalte verfügbar ist.
UiPath logo, featuring letters U and I in white

Automation Suite unter Linux – Installationsanleitung

Letzte Aktualisierung 10. Juni 2025

Verwaltungswarnungen

alertmanager.rules

AlertmanagerConfigInconsistent

Diese Warnung wird ausgelöst, wenn Alertmanager Instanzen innerhalb desselben Clusters unterschiedliche Konfigurationen haben. Dies könnte auf ein Problem mit der Konfigurationsrolle hinweisen, die nicht in allen Instanzen von Alertmanager konsistent ist.

Führen Sie die folgenden Schritte aus, um das Problem zu beheben:

  1. Führen Sie ein diff -Tool zwischen allen alertmanager.yml aus, die bereitgestellt werden, um das Problem zu identifizieren.
  2. Löschen Sie das falsche Geheimnis, und stellen Sie das richtige bereit.

Wenn das Problem weiterhin besteht, wenden Sie sich an den UiPath®-Support.

AlertmanagerFailedReload

AlertManager konnte die Konfiguration nicht laden oder neu laden. Bitte überprüfen Sie alle benutzerdefinierten AlertManager-Konfigurationen auf Eingabefehler. Wenden Sie sich andernfalls an den UiPath®-Support und stellen Sie das Supportpaket bereit. Weitere Informationen finden Sie unter Verwenden des Automation Suite-Supportpakets.

AlertmanagerMembersInconsistent

Dies sind interne Alertmanager-Fehler für HA-Cluster mit mehreren Alertmanager-Replikaten. Warnungen können in unregelmäßigen Abständen erscheinen und wieder verschwinden. Eine vorübergehende Verkleinerung und dann eine Vergrößerung der Alertmanager-Replikate kann das Problem beheben.

Führen Sie die folgenden Schritte aus, um das Problem zu beheben:

  1. Skalieren Sie auf Null. Beachten Sie, dass es einen Moment dauert, bis die Pods heruntergefahren werden:

    statefulset.apps/alertmanager-monitoring-kube-prometheus-alertmanager scaledstatefulset.apps/alertmanager-monitoring-kube-prometheus-alertmanager scaled
  2. Skalieren Sie zurück auf zwei:

    kubectl scale statefulset -n monitoring alertmanager-monitoring-kube-prometheus-alertmanager --replicas=2kubectl scale statefulset -n monitoring alertmanager-monitoring-kube-prometheus-alertmanager --replicas=2
  3. Überprüfen Sie, ob die Alertmanager-Pods gestartet wurden und ob sie ausgeführt werden:

    kubectl get po -n monitoringkubectl get po -n monitoring

Wenn das Problem weiterhin besteht, wenden Sie sich an den UiPath®-Support.

allgemeine.regeln

TargetDown

Prometheus ist nicht in der Lage, Metriken von dem Ziel in der Warnung zu sammeln, was bedeutet, dass die Grafana-Dashboards und weitere Warnungen, die auf Metriken von diesem Ziel basieren, nicht verfügbar sind. Überprüfen Sie andere Warnungen, die dieses Ziel betreffen.

Watchdog

Diese Warnung soll sicherstellen, dass die gesamte Warnungspipeline funktionsfähig ist. Diese Warnung wird immer ausgelöst. Daher sollte sie immer in AlertManager und gegen einen Receiver ausgelöst werden. Es gibt Integrationen mit verschiedenen Benachrichtigungsmechanismen, die Sie benachrichtigen, wenn diese Warnung nicht ausgelöst wird. Zum Beispiel die DeadMansSnitch-Integration in PagerDuty.

prometheus-operator

PrometheusOperatorListErrors, PrometheusOperatorWatchErrors, PrometheusOperatorSyncFailed, PrometheusOperatorReconcileErrors, PrometheusOperatorNodeLookupErrors, PrometheusOperatorNotReady, PrometheusOperatorRejectedResources

Interne Fehler des Prometheus-Betreibers, der die Prometheus-Ressourcen kontrolliert. Prometheus selbst kann noch funktionsfähig sein, während diese Fehler vorhanden sind; dieser Fehler zeigt jedoch an, dass die Konfigurierbarkeit der Überwachung beeinträchtigt ist. Wenden Sie sich an den UiPath®-Support.

Prometheus

PrometheusBadConfig

Prometheus konnte die Konfiguration nicht laden oder neu laden. Bitte überprüfen Sie alle benutzerdefinierten Prometheus-Konfigurationen auf Eingabefehler. Wenden Sie sich andernfalls an den UiPath®-Support.

PrometheusErrorSendingAlertsToSomeAlertmanagers, PrometheusErrorSendingAlertsToAnyAlertmanager, PrometheusNotConnectedToAlertmanagers

Die Verbindung von Prometheus zu AlertManager ist nicht fehlerfrei. Metriken können immer noch abgefragt werden und Grafana-Dashboards können sie immer noch anzeigen, aber es werden keine Warnungen ausgelöst. Überprüfen Sie jede benutzerdefinierte Konfiguration von AlertManager auf Eingabefehler und wenden Sie sich andernfalls an den UiPath®-Support.

PrometheusNotificationQueueRunningFull, PrometheusTSDBReloadsFailing, PrometheusTSDBCompactionsFailing, PrometheusNotIngestingSamples, PrometheusDuplicateTimestamps, PrometheusOutOfOrderTimestamps, PrometheusRemoteStorageFailures, PrometheusRemoteWriteBehind, PrometheusRemoteWriteDesiredShards

Interne Prometheus-Fehler, die Metriken angeben, werden möglicherweise nicht wie erwartet gesammelt. Wenden Sie sich bitte an den UiPath®-Support.

PrometheusRuleFailures

Das kann passieren, wenn es fehlerhafte Warnmeldungen gibt, die auf nicht vorhandenen Metriken oder einer falschen PromQL-Syntax basieren. Wenden Sie sich an den UiPath®-Support, wenn keine benutzerdefinierten Warnungen hinzugefügt wurden.

PrometheusMissingRuleEvaluations

Prometheus kann nicht evaluieren, ob Warnungen ausgelöst werden sollten. Das kann passieren, wenn zu viele Warnungen vorhanden sind. Bitte entfernen Sie teure benutzerdefinierte Warnungsevaluierungen und/oder lesen Sie die Dokumentation zur Erhöhung des CPU-Limits für Prometheus. Wenden Sie sich an den UiPath®-Support, wenn keine benutzerdefinierten Warnungen hinzugefügt wurden.

PrometheusTargetLimitHit

Es gibt zu viele Ziele, von denen Prometheus sammeln kann. Wenn zusätzlich ServiceMonitors hinzugefügt wurden (siehe Überwachungskonsole), können Sie diese entfernen.

uipath.prometheus.resource.provisioning.alerts

PrometheusMemoryUsage, PrometheusStorageUsage

Diese Warnungen werden ausgelöst, wenn sich der Cluster den konfigurierten Grenzen für Arbeitsspeicher und Speicherplatz nähert. Dies ist wahrscheinlich bei Clustern der Fall, bei denen die Nutzung in letzter Zeit erheblich zugenommen hat (in der Regel von Robotern, nicht von Benutzern) oder wenn dem Cluster Knoten hinzugefügt werden, ohne dass die Prometheus-Ressourcen angepasst werden. Dies ist darauf zurückzuführen, dass die Anzahl der erfassten Metriken gestiegen ist. Dies könnte auch auf eine große Anzahl von Warnungen zurückzuführen sein, die ausgelöst werden. Es ist wichtig zu überprüfen, warum die große Anzahl von Warnungen ausgelöst wird.

Wenn dieses Problem weiterhin besteht, wenden Sie sich an den UiPath®-Support mit dem generierten Supportpaket.

uipath.availability.alerts

UiPathAvailabilityHighTrafficUserFacing

Die Anzahl der http 500-Antworten von UiPath®-Diensten überschreitet einen bestimmten Schwellenwert.

Verkehrsaufkommen

Anzahl der Anfragen in 20 Minuten

Fehlerschwellenwert (für HTTP 500)

Hoch

>100.000

0,1 %

Mittel

Zwischen 10.000 und 100.000

1 %

Niedrig

< 10.000

5 %

Fehler in benutzerorientierten Diensten würden wahrscheinlich zu einer Beeinträchtigung der Funktionalität führen, die in der Benutzeroberfläche der Automation Suite direkt sichtbar ist, während Fehler in Backend-Diensten weniger offensichtliche Folgen hätten.

Die Warnung gibt an, welcher Dienst eine hohe Fehlerquote aufweist. Um zu verstehen, welche Kaskadenprobleme von anderen Diensten aus auftreten können, von denen der Berichtdienst abhängt, können Sie das Istio Workload-Dashboard verwenden, das Fehler zwischen Diensten anzeigt.

Bitte überprüfen Sie alle kürzlich neu konfigurierten Automation Suite-Produkte. Detaillierte Protokolle sind auch mit dem Befehl kubectl logs verfügbar. Wenn der Fehler weiterhin auftritt, wenden Sie sich bitte an den UiPath®-Support.

Sicherung

NFSServerDisconnected

Diese Warnung weist darauf hin, dass die NFS-Serververbindung unterbrochen wurde.

Sie müssen die NFS-Serververbindung und den Mount-Pfad überprüfen.

VolumeBackupFailed

Diese Warnung gibt an, dass die Sicherung für einen PVC fehlgeschlagen ist.

Führen Sie die folgenden Schritte aus, um dieses Problem zu beheben:

  1. Überprüfen Sie den Status des PVC, um sicherzustellen, dass es sich um Bound um ein persistentes Volume (PV) handelt.
    kubectl get pvc --namespace <namespace>kubectl get pvc --namespace <namespace>
    Der Befehl listet alle PVCs und deren aktuellen Status auf. Das PVC muss den Status Bound haben, um anzugeben, dass es erfolgreich ein PV angefordert hat.
    Wenn der Status Pending ist, wartet der PVC immer noch auf ein geeignetes PV und weitere Untersuchung ist erforderlich.
  2. Wenn sich der PVC nicht im Zustand Bound befindet oder wenn Sie detailliertere Informationen benötigen, verwenden Sie den Befehl describe:
    kubectl describe pvc <pvc-name> --namespace <namespace>kubectl describe pvc <pvc-name> --namespace <namespace>

    Suchen Sie nach Informationen zum Status, zu Ereignissen und zu Fehlermeldungen. Ein Problem könnte z. B. mit Fehlkonfigurationen von Speicherklassen oder Kontingentbeschränkungen zusammenhängen.

  3. Überprüfen Sie den Zustand des persistenten Volumes (PV), das an den PVC gebunden ist:

    kubectl get pv <pv-name>kubectl get pv <pv-name>
    Der Status sollte Bound sein. Wenn sich das PV im Zustand Released oder Failed befindet, kann dies auf Probleme mit dem zugrunde liegenden Speicher hinweisen.
  4. Wenn der PVC von einem Pod verwendet wird, überprüfen Sie, ob der Pod das Volume erfolgreich bereitgestellt hat:

    kubectl get pod <pod-name> --namespace <namespace>kubectl get pod <pod-name> --namespace <namespace>
    Wenn sich der Pod im Status Running befindet, wird angegeben, dass der PVC erfolgreich bereitgestellt wurde. Wenn sich der Pod in einem Fehlerstatus befindet (z. B. InitBackOff), kann dies auf Probleme beim Mounten des Volumes hinweisen.
  5. Wenn es Probleme beim Anbringen des PVC gibt, beschreiben Sie den Pod, um auf Installationsfehler zu überprüfen:

    kubectl describe pod <pod-name> --namespace <namespace>kubectl describe pod <pod-name> --namespace <namespace>

BackupDisabled

Diese Warnung gibt an, dass die Sicherung deaktiviert ist.

Sie müssen die Sicherung aktivieren.

SicherungTeilweiseFehlgeschlagen

Diese Warnung zeigt an, dass die Velero-Sicherung fehlgeschlagen ist.

Sie müssen sich an den UiPath®-Support wenden.

cronjob-alerts

CronJobSuspended

Der Cronjob uipath-infra/istio-configure-script-cronjob befindet sich im Status „Angehalten“.

Um dieses Problem zu beheben, aktivieren Sie den Cronjob, indem Sie die folgenden Schritte ausführen:

export KUBECONFIG="/etc/rancher/rke2/rke2.yaml" && export PATH="$PATH:/usr/local/bin:/var/lib/rancher/rke2/bin"
kubectl -n uipath-infra patch cronjob istio-configure-script-cronjob -p '{"spec":{"suspend":false}}'
epoch=$(date +"%s")
kubectl -n uipath-infra create job istio-configure-script-cronjob-manual-$epoch --from=cronjob/istio-configure-script-cronjob
kubectl -n uipath-infra wait --for=condition=complete --timeout=300s job/istio-configure-script-cronjob-manual-$epoch
kubectl get node -o wide
#Verify if all the IP's listed by the previous command are part of output of the following command
kubectl -n istio-system get svc istio-ingressgateway -o json | jq '.spec.externalIPs'export KUBECONFIG="/etc/rancher/rke2/rke2.yaml" && export PATH="$PATH:/usr/local/bin:/var/lib/rancher/rke2/bin"
kubectl -n uipath-infra patch cronjob istio-configure-script-cronjob -p '{"spec":{"suspend":false}}'
epoch=$(date +"%s")
kubectl -n uipath-infra create job istio-configure-script-cronjob-manual-$epoch --from=cronjob/istio-configure-script-cronjob
kubectl -n uipath-infra wait --for=condition=complete --timeout=300s job/istio-configure-script-cronjob-manual-$epoch
kubectl get node -o wide
#Verify if all the IP's listed by the previous command are part of output of the following command
kubectl -n istio-system get svc istio-ingressgateway -o json | jq '.spec.externalIPs'

IdentityKerberosTgtUpdateFailed

Dieser Auftrag aktualisiert das neueste Kerberos-Ticket für alle UiPath®-Dienste. Fehler in diesem Auftrag würden dazu führen, dass die SQL Server-Authentifizierung fehlschlägt. Wenden Sie sich bitte an den UiPath®-Support.

War diese Seite hilfreich?

Hilfe erhalten
RPA lernen – Automatisierungskurse
UiPath Community-Forum
Uipath Logo White
Vertrauen und Sicherheit
© 2005–2025 UiPath. Alle Rechte vorbehalten