automation-suite
2.2510
false
UiPath logo, featuring letters U and I in white

Linux の Automation Suite のインストール ガイド

最終更新日時 2025年11月13日

管理アラート

alertmanager.rules

AlertmanagerConfigInconsistent

このアラートは、同じクラスター内の Alertmanager インスタンスの構成が異なる場合に発生します。 これは、設定のロールアウトに問題があり、 Alertmanagerのすべてのインスタンスで一貫性がないことを示している可能性があります。

この問題を修正するには、次の手順に従います。

  1. デプロイされているすべてのalertmanager.ymlの間でdiffツールを実行して問題を特定します。
  2. 間違ったシークレットを削除し、正しいシークレットをデプロイします。

問題が解決しない場合は UiPath® サポートにお問い合わせください。

AlertmanagerFailedReload

AlertManager による構成の読み込みまたは再読み込みが失敗しました。AlertManager のカスタム構成に入力エラーがないかチェックし、入力エラーでない場合は、UiPath® サポートに連絡してサポート バンドルを提供してください。詳しくは、「 Automation Suite サポート バンドルを使用する」をご覧ください。

AlertmanagerMembersInconsistent

これらは、複数の AlertManager レプリカを持つ HA クラスターを対象とする、内部の AlertManager エラーです。アラートが断続的に表示されたり消えたりする場合があります。一時的に AlertManager レプリカを縮小して拡大すると、問題が解決する可能性があります。

この問題を修正するには、次の手順に従います。

  1. ゼロで表示。ポッドがシャットダウンするまで少し時間がかかることに注意してください。

    statefulset.apps/alertmanager-monitoring-kube-prometheus-alertmanager scaledstatefulset.apps/alertmanager-monitoring-kube-prometheus-alertmanager scaled
  2. 2 に縮小:

    kubectl scale statefulset -n monitoring alertmanager-monitoring-kube-prometheus-alertmanager --replicas=2kubectl scale statefulset -n monitoring alertmanager-monitoring-kube-prometheus-alertmanager --replicas=2
  3. Alertmanager ポッドが起動し、実行ステートになっているかどうかを確認します。

    kubectl get po -n monitoringkubectl get po -n monitoring

問題が解決しない場合は UiPath® サポートにお問い合わせください。

general.rules

TargetDown

このアラート時には、Prometheus がターゲットからメトリックを収集できません。つまり、Grafana ダッシュボード、およびターゲットからのメトリックに基づくその他のアラートが利用できません。ターゲットに関係のあるその他のアラートを確認してください。

Watchdog

警告しているパイプライン全体が機能していることを確認するためのアラートです。このアラートは常に発生しています。したがって、このアラートは常に AlertManager で受信者に対して通知されます。このアラートが発生していないときに通知する各種通知メカニズムと連携しています(例: PagerDuty の DeadMansSnitch との連携)。

prometheus-operator

PrometheusOperatorListErrors, PrometheusOperatorWatchErrors, PrometheusOperatorSyncFailed, PrometheusOperatorReconcileErrors, PrometheusOperatorNodeLookupErrors, PrometheusOperatorNotReady, PrometheusOperatorRejectedResources

Prometheus リソースを制御する Prometheus 演算子の内部エラーです。このエラーが発生している間はまだ Prometheus 自体は正常ですが、このエラーは、監視の構成可能性が低下していることを示しています。UiPath® サポートにお問い合わせください。

Prometheus

PrometheusBadConfig

Prometheus による構成の読み込みまたは再読み込みが失敗しました。Prometheus のカスタム構成に入力エラーがないかチェックし、それ以外の場合は、UiPath® サポートにお問い合わせください。

PrometheusErrorSendingAlertsToSomeAlertmanagers, PrometheusErrorSendingAlertsToAnyAlertmanager, PrometheusNotConnectedToAlertmanagers

Prometheus から AlertManager への接続が正常ではありません。メトリックは依然としてクエリ可能で、Grafana ダッシュボードに引き続き表示される可能性がありますが、アラートは発生しません。AlertManager のカスタム構成に入力エラーがないかチェックし、入力エラーでない場合は、UiPath® サポートにお問い合わせください。

PrometheusNotificationQueueRunningFull, PrometheusTSDBReloadsFailing, PrometheusTSDBCompactionsFailing, PrometheusNotIngestingSamples, PrometheusDuplicateTimestamps, PrometheusOutOfOrderTimestamps, PrometheusRemoteStorageFailures, PrometheusRemoteWriteBehind, PrometheusRemoteWriteDesiredShards

メトリックが期待どおりに収集されない可能性があることを示す、内部 Prometheus エラーです。UiPath® サポートにお問い合わせください。

PrometheusRuleFailures

これは、存在しないメトリックまたは誤った PromQL 構文に基づく、正しくないアラートがある場合に発生する可能性があります。カスタム アラートが追加されていない場合は、UiPath® サポートにお問い合わせください。

PrometheusMissingRuleEvaluations

Prometheus がアラートを発生させるべきかどうかを評価できません。これは、アラートが多すぎる場合に発生することがあります。コストのかかるカスタム アラートの評価を削除したり、Prometheus の CPU 制限値の引き上げに関するドキュメントを参照してください。カスタム アラートが追加されていない場合は、UiPath® サポートにお問い合わせください。

PrometheusTargetLimitHit

Prometheus が収集先とするターゲットが多すぎます。ServiceMonitor が追加されている (監視コンソールを確認) 場合は、これらを削除できます。

uipath.prometheus.resource.provisioning.alerts

PrometheusMemoryUsage, PrometheusStorageUsage

これらのアラートは、クラスターがメモリとストレージに対して構成された制限に近づくと警告を発します。 これは、最近使用量が大幅に増加したクラスター (通常はユーザーではなくロボットによる使用) や、Prometheus リソースを調整せずにノードをクラスターに追加した場合に発生する可能性があります。 これは、収集されるメトリックの量が増えたことによるものです。 また、多数のアラートが発生していることが原因である可能性もあります。大量のアラートが発せられている理由を確認することが重要です。

この問題が解決しない場合は、生成された サポート バンドルを添えて UiPath® サポートにお問い合わせください。

uipath.availability.alerts

UiPathAvailabilityHighTrafficUserFacing

UiPath® サービスからの http 500 応答の数が、指定されたしきい値を超えています。

トラフィック レベル

20 分以内のリクエスト数

エラーしきい値 (http 500番台のエラー)

高 (High)

>100,000

0.1%

10,000 ~ 100,000

1%

低 (Low)

< 10,000

5%

ユーザー向けのサービスでエラーが発生すると、Automation Suite UI で直接確認可能な機能低下が生じる可能性があります。これに対し、バックエンド サービスのエラーによる影響はあまり明白ではない可能性があります。

このアラートによって、どのサービスのエラー率が高いのかがわかります。レポートしているサービスが依存している他のサービスからどのような連鎖的な問題が生じ得るのかを理解するには、サービス間のエラーを表示する Istio Workload ダッシュボードを使用できます。

最近になって再構成された Automation Suite 製品すべてを再確認してください。kubectl logs コマンドで詳細なログを使用することもできます。エラーが解決しない場合は UiPath® サポートにご連絡ください。

バックアップ

NFSServerDisconnected

このアラートは、NFS サーバーの接続が失われたことを示します。

NFS サーバーの接続とマウント パスを確認する必要があります。

VolumeBackupFailed

このアラートは、PVC のバックアップが失敗したことを示します。

この問題に対処するには、次の手順を実行します。

  1. PVC のステータスをチェックして、永続ボリューム (PV) に Bound ていることを確認します。
    kubectl get pvc --namespace <namespace>kubectl get pvc --namespace <namespace>
    このコマンドは、すべての PVC とその現在のステータスを一覧表示します。 PVC のステータスは、PV の要求に成功したことを示す Bound である必要があります。
    ステータスが Pendingの場合は、PVC がまだ適切な PV を待機しており、さらに調査が必要であることを意味します。
  2. PVC が Bound ステートでない場合、またはより詳細な情報が必要な場合は、 describe コマンドを使用します。
    kubectl describe pvc <pvc-name> --namespace <namespace>kubectl describe pvc <pvc-name> --namespace <namespace>

    ステータス、イベント、およびエラーメッセージに関する情報を探します。 たとえば、ストレージ クラスの設定ミスやクォータの制限などが問題である可能性があります。

  3. PVC にバインドされている永続ボリューム (PV) の正常性を確認します。

    kubectl get pv <pv-name>kubectl get pv <pv-name>
    ステータスは「」 Boundはずです。 PV が Released 状態または Failed 状態の場合は、基になるストレージに問題があることを示している可能性があります。
  4. PVC がポッドによって使用されている場合は、ポッドがボリュームを正常にマウントしたかどうかを確認します。

    kubectl get pod <pod-name> --namespace <namespace>kubectl get pod <pod-name> --namespace <namespace>
    ポッドが Running ステートの場合は、PVC が正常にマウントされたことを示します。 ポッドがエラー ステート ( InitBackOffなど) の場合は、ボリュームのマウントに問題があることを示している可能性があります。
  5. PVC のマウントに問題がある場合は、ポッドに記述してマウント エラーがないか確認します。

    kubectl describe pod <pod-name> --namespace <namespace>kubectl describe pod <pod-name> --namespace <namespace>

BackupDisabled

このアラートは、バックアップが無効化されていることを示します。

バックアップを有効にする必要があります。

BackupPartiallyFailed (バックアップの一部が失敗しました)

このアラートは、Velero のバックアップが失敗したことを示します。

UiPath® サポートにお問い合わせください。

cronjob-alerts

CronJobSuspended

uipath-infra/istio-configure-script-cronjob cronjob が中断ステートにあります。

この問題を修正するには、次の手順に従って cronjob を有効化します。

export KUBECONFIG="/etc/rancher/rke2/rke2.yaml" && export PATH="$PATH:/usr/local/bin:/var/lib/rancher/rke2/bin"
kubectl -n uipath-infra patch cronjob istio-configure-script-cronjob -p '{"spec":{"suspend":false}}'
epoch=$(date +"%s")
kubectl -n uipath-infra create job istio-configure-script-cronjob-manual-$epoch --from=cronjob/istio-configure-script-cronjob
kubectl -n uipath-infra wait --for=condition=complete --timeout=300s job/istio-configure-script-cronjob-manual-$epoch
kubectl get node -o wide
#Verify if all the IP's listed by the previous command are part of output of the following command
kubectl -n istio-system get svc istio-ingressgateway -o json | jq '.spec.externalIPs'export KUBECONFIG="/etc/rancher/rke2/rke2.yaml" && export PATH="$PATH:/usr/local/bin:/var/lib/rancher/rke2/bin"
kubectl -n uipath-infra patch cronjob istio-configure-script-cronjob -p '{"spec":{"suspend":false}}'
epoch=$(date +"%s")
kubectl -n uipath-infra create job istio-configure-script-cronjob-manual-$epoch --from=cronjob/istio-configure-script-cronjob
kubectl -n uipath-infra wait --for=condition=complete --timeout=300s job/istio-configure-script-cronjob-manual-$epoch
kubectl get node -o wide
#Verify if all the IP's listed by the previous command are part of output of the following command
kubectl -n istio-system get svc istio-ingressgateway -o json | jq '.spec.externalIPs'

IdentityKerberosTgtUpdateFailed

このジョブは、すべての UiPath® サービスに対して最新の Kerberos チケットを更新します。このジョブが失敗すると、SQL Server の認証が失敗します。UiPath® サポートにお問い合わせください。

このページは役に立ちましたか?

サポートを受ける
RPA について学ぶ - オートメーション コース
UiPath コミュニティ フォーラム
Uipath Logo
信頼とセキュリティ
© 2005-2025 UiPath. All rights reserved.