automation-suite
2023.10
false
重要 :
このコンテンツの一部は機械翻訳によって処理されており、完全な翻訳を保証するものではありません。 新しいコンテンツの翻訳は、およそ 1 ~ 2 週間で公開されます。
UiPath logo, featuring letters U and I in white

Linux の Automation Suite のインストール ガイド

最終更新日時 2024年12月19日

Ceph クラスターがサイドバイサイド アップグレード後に機能低下ステートで検出される

説明

場合によっては、サイドバイサイド アップグレード後に Rook-Ceph アプリケーションが ArgoCD ポータルで「同期失敗」ステートになります。これは、アップストリームの Ceph の問題が原因です。

機能低下ステートの理由を特定するには、次のコマンドを実行します。

kubectl -n rook-ceph exec deploy/rook-ceph-tools -- ceph -skubectl -n rook-ceph exec deploy/rook-ceph-tools -- ceph -s 

次の例のような出力が表示される場合、問題は Rook-Ceph の健全性に関連しています。

cluster:
    id:     936b2e58-1014-4237-b2a5-6e95449a9ce8
    health: HEALTH_ERR
            Module 'devicehealth' has failed: disk I/O error

  services:
    mon: 3 daemons, quorum a,b,c (age 11h)
    mgr: b(active, since 37h), standbys: a
    osd: 3 osds: 3 up (since 37h), 3 in (since 37h)
    rgw: 2 daemons active (2 hosts, 1 zones)

  data:
    pools:   8 pools, 225 pgs
    objects: 53.57k objects, 26 GiB
    usage:   80 GiB used, 688 GiB / 768 GiB avail
    pgs:     225 active+clean

  io:
    client:   561 KiB/s rd, 61 KiB/s wr, 316 op/s rd, 123 op/s wr  cluster:
    id:     936b2e58-1014-4237-b2a5-6e95449a9ce8
    health: HEALTH_ERR
            Module 'devicehealth' has failed: disk I/O error

  services:
    mon: 3 daemons, quorum a,b,c (age 11h)
    mgr: b(active, since 37h), standbys: a
    osd: 3 osds: 3 up (since 37h), 3 in (since 37h)
    rgw: 2 daemons active (2 hosts, 1 zones)

  data:
    pools:   8 pools, 225 pgs
    objects: 53.57k objects, 26 GiB
    usage:   80 GiB used, 688 GiB / 768 GiB avail
    pgs:     225 active+clean

  io:
    client:   561 KiB/s rd, 61 KiB/s wr, 316 op/s rd, 123 op/s wr

解決策

この問題を修正するには、次の手順に従います。

  1. 出力スニペットで、アクティブ ステートのマネージャー mgr サービスを特定します。 提供されている例では、mgr: b はアクティブとしてマークされています。
  2. 正確なポッド名を特定するには、次のコマンドを実行します。

    kubectl -n rook-ceph get pods | grep "rook-ceph-mgr-<active-manager-name>"kubectl -n rook-ceph get pods | grep "rook-ceph-mgr-<active-manager-name>"
    このコマンドは、次の例のような出力を返します。ここでは、rook-ceph-mgr-b-6d7bdb4b54-zz47v はマネージャー ポッド名です。
    rook-ceph-mgr-b-6d7bdb4b54-zz47v 0/1 Init:0/1 0 3h55mrook-ceph-mgr-b-6d7bdb4b54-zz47v 0/1 Init:0/1 0 3h55m
  3. アクティブなマネージャーを削除するには、以下のコマンドを実行します。

    kubectl -n rook-ceph delete pod <active-manager-pod-name>
    
    // for example: kubectl -n rook-ceph delete pod rook-ceph-mgr-b-6d7bdb4b54-zz47vkubectl -n rook-ceph delete pod <active-manager-pod-name>
    
    // for example: kubectl -n rook-ceph delete pod rook-ceph-mgr-b-6d7bdb4b54-zz47v

アクティブなマネージャーを削除すると、強制的に再実行され、Ceph クラスターのステートが正常になります。

  • 説明
  • 解決策

このページは役に立ちましたか?

サポートを受ける
RPA について学ぶ - オートメーション コース
UiPath コミュニティ フォーラム
Uipath Logo White
信頼とセキュリティ
© 2005-2024 UiPath. All rights reserved.