automation-suite
2023.4
false
- 概要
- 要件
- インストール
- インストール後
- クラスターの管理
- 監視とアラート機能
- 移行とアップグレード
- 製品固有の設定
- ベスト プラクティスとメンテナンス
- トラブルシューティング
- インストール時にサービスをトラブルシューティングする方法
- クラスターをアンインストールする方法
- オフライン成果物をクリーンアップしてディスク領域を改善する方法
- Redis データをクリアする方法
- Istio ログを有効化する方法
- ログを手動でクリーンアップする方法
- sf-logs バケットに保存されている古いログをクリーンアップする方法
- AI Center のストリーミング ログを無効化する方法
- 失敗した Automation Suite インストールをデバッグする方法
- アップグレード後に古いインストーラーからイメージを削除する方法
- Longhorn のスナップショットを自動的にクリーンアップする方法
- TX チェックサム オフロードを無効化する方法
- ArgoCD のログ レベルを手動で Info に設定する方法
- 外部レジストリーのエンコードされたpull_secret_valueを生成する方法
- TLS 1.2 で弱い暗号に対処する方法
- 証明書の操作方法
- RHEL 8.4 OS でオフライン インストールを実行できない
- バンドルのダウンロード中のエラー
- バイナリがないため、オフライン インストールが失敗する
- オフライン インストールでの証明書の問題
- Longhorn のセットアップ中に最初のインストールが失敗する
- SQL 接続文字列の検証エラー
- selinux iscsid モジュールの前提条件の確認が失敗する
- Azure ディスクが SSD としてマークされない
- 証明書の更新後のエラー
- ウイルス対策が原因でインストールの問題が発生する
- OS のアップグレード後に Automation Suite が動作しない
- Automation Suite で backlog_wait_time を 0 に設定する必要がある
- リソースが利用できないことの影響を受ける GPU ノード
- ワークロードの準備ができていないためボリュームをマウントできない
- サポート バンドルのログ収集の失敗
- 管理ポータルのタイムアウト期間を設定する
- 基になるディレクトリ接続を更新する
- 移行後に認証が機能しない
- Kinit: Cannot find KDC for realm <AD Domain> while getting initial credentials
- kinit: Keytab contains no suitable keys for *** while getting initial credentials
- 無効なステータス コードが原因で GSSAPI 操作が失敗した
- Alarm received for failed kerberos-tgt-update job
- SSPI Provider: Server not found in Kerberos database
- アカウントが無効なため AD ユーザーのログインに失敗した
- ArgoCD へのログインに失敗した
- 停止されたノードに対してノードのドレインが行われない
- rke2-coredns-rke2-coredns-autoscaler ポッドが CrashLoopBackOff になる
- cron ジョブによって数百のジョブがトリガーされ、ノードに高い負荷がかかる
- サンドボックス イメージを取得できない
- ポッドが ArgoCD UI に表示されない
- Redis プローブの障害
- RKE2 サーバーの起動に失敗する
- UiPath 名前空間でシークレットが見つからない
- 初回インストール後に ArgoCD が進行中ステートになる
- ArgoCD の読み取り専用アカウントにアクセスする際の問題
- MongoDB ポッドが CrashLoopBackOff になるか、削除後に PVC プロビジョニングの保留中になる
- クラスターの復元またはロールバック後にサービスが異常になる
- Init:0/X でポッドがスタックする
- Prometheus が CrashloopBackoff ステートにあり、メモリ不足 (OOM) エラーを伴う
- Ceph-rook のメトリックが監視ダッシュボードに表示されない
- プロキシ環境でポッドが FQDN と通信できない
- アップグレード後にメール アラートを設定できない
- Automation Suite 診断ツールを使用する
- Automation Suite サポート バンドルを使用する
- ログを確認する
cron ジョブによって数百のジョブがトリガーされ、ノードに高い負荷がかかる
重要 :
このコンテンツの一部は機械翻訳によって処理されており、完全な翻訳を保証するものではありません。
新しいコンテンツの翻訳は、およそ 1 ~ 2 週間で公開されます。

Linux の Automation Suite のインストール ガイド
最終更新日時 2025年4月29日
cron ジョブによって数百のジョブがトリガーされ、ノードに高い負荷がかかる
2023.10.6、2023.4.9、2022.10.14 より前のバージョンでは、Automation Suite の一部の cron ジョブで [同時実行ポリシー] が [禁止] に設定されていませんでした。 ノード メンテナンス イベント中に、この問題によって数百の cron ジョブが同時にトリガーされ、ノードの負荷が高くなる可能性があります。 この問題の解決方法については、解決策 1 をご覧ください。
また、この問題により、Cilium エラー
Key allocation attempt failed attempt=0 error="no more available IDs in configured space"
が原因でポッドのスケジュール設定が失敗する可能性もあります。 この問題を解決する方法については、解決策 2 をご覧ください。
多数のインスタンスをトリガーしている cron ジョブを特定し、それらの cron ジョブを削除します。
CRONJOB_NAME="<cronjob-name>"
NAMESPACE="<namespace>"
# Delete all jobs associated with the CronJob
kubectl get jobs -n "$NAMESPACE" | grep "$CRONJOB_NAME" | awk '{print $1}' | xargs -I{} kubectl delete job -n "$NAMESPACE" {}
CRONJOB_NAME="<cronjob-name>"
NAMESPACE="<namespace>"
# Delete all jobs associated with the CronJob
kubectl get jobs -n "$NAMESPACE" | grep "$CRONJOB_NAME" | awk '{print $1}' | xargs -I{} kubectl delete job -n "$NAMESPACE" {}
ポッドのスケジュール設定の失敗を確認するには、 コマンド
kubectl get ciliumid | wc -l
を実行します。
コマンドで返される ID が 10,000 を超える場合は、未使用の Cilium ID をクリーンアップして Cilium のデプロイを再実行する必要があります。
# Step 1: Get all CiliumIDs
ALL_CILIUMIDS=$(kubectl get ciliumid --no-headers -o custom-columns=":metadata.name")
# Step 2: Get active pod UIDs
ACTIVE_POD_UIDS=$(kubectl get pods -A -o jsonpath='{.items[*].metadata.uid}')
# Step 3: Compare and delete stale CiliumIDs
for CID in $ALL_CILIUMIDS; do
if [[ ! "$ACTIVE_POD_UIDS" =~ "$CID" ]]; then
echo "Deleting stale CiliumID: $CID"
kubectl delete ciliumid "$CID"
fi
done
# Step 4: Restart cilium operator and daemonset
kubectl rollout restart deployment/cilium-operator -n kube-system
kubectl rollout restart daemonset/cilium -n kube-system
# Step 1: Get all CiliumIDs
ALL_CILIUMIDS=$(kubectl get ciliumid --no-headers -o custom-columns=":metadata.name")
# Step 2: Get active pod UIDs
ACTIVE_POD_UIDS=$(kubectl get pods -A -o jsonpath='{.items[*].metadata.uid}')
# Step 3: Compare and delete stale CiliumIDs
for CID in $ALL_CILIUMIDS; do
if [[ ! "$ACTIVE_POD_UIDS" =~ "$CID" ]]; then
echo "Deleting stale CiliumID: $CID"
kubectl delete ciliumid "$CID"
fi
done
# Step 4: Restart cilium operator and daemonset
kubectl rollout restart deployment/cilium-operator -n kube-system
kubectl rollout restart daemonset/cilium -n kube-system