automation-suite
2023.10
false
- 概要
- 要件
- 推奨: デプロイ テンプレート
- 手動: インストールを準備する
- 手動: インストールを準備する
- 手順 1: オフライン インストール用に OCI 準拠レジストリを設定する
- 手順 2: 外部 ObjectStore を構成する
- 手順 3: High Availability Add-on を構成する
- 手順 4: Microsoft SQL Server を構成する
- 手順 5: ロード バランサーを構成する
- 手順 6: DNS を構成する
- 手順 7: ディスクを構成する
- 手順 8: カーネルと OS レベルの設定を構成する
- 手順 9: ノード ポートを構成する
- 手順 10: その他の設定を適用する
- 手順 12: 必要な RPM パッケージを検証してインストールする
- 手順 13: cluster_config.json を生成する
- 証明書の設定
- データベースの構成
- 外部 ObjectStore の構成
- 署名済み URL の構成
- 外部の OCI 準拠レジストリの設定
- Disaster Recovery - アクティブ/パッシブおよびアクティブ/アクティブの構成
- High Availability Add-on の構成
- Orchestrator 固有の設定
- Insights 固有の構成
- Process Mining 固有の構成
- Document Understanding 固有の構成
- Automation Suite ロボット固有の構成
- 監視の構成
- 任意: プロキシ サーバーを構成する
- 任意: マルチノードの HA 対応の運用クラスターにおけるゾーン障害に対する復元設定を有効化する
- 任意: カスタムの Resolv.con を渡す
- 任意: フォールト トレランスを向上させる
- install-uipath.sh パラメーター
- GPU がサポートされた専用のエージェント ノードを追加する
- Task Mining 専用のエージェント ノードを追加する
- Task Mining アプリケーションを接続する
- Automation Suite ロボット専用のエージェント ノードを追加する
- 手順 15: オフライン インストール用に一時的な Docker レジストリを設定する
- 手順 16: インストールの前提条件を検証する
- 手動: インストールを実行する
- インストール後
- クラスターの管理
- 監視とアラート機能
- 移行とアップグレード
- 製品固有の設定
- ベスト プラクティスとメンテナンス
- トラブルシューティング
- インストール時にサービスをトラブルシューティングする方法
- クラスターをアンインストールする方法
- オフライン成果物をクリーンアップしてディスク領域を改善する方法
- Redis データをクリアする方法
- Istio ログを有効化する方法
- ログを手動でクリーンアップする方法
- sf-logs バケットに保存されている古いログをクリーンアップする方法
- AI Center のストリーミング ログを無効化する方法
- 失敗した Automation Suite インストールをデバッグする方法
- アップグレード後に古いインストーラーからイメージを削除する方法
- TX チェックサム オフロードを無効化する方法
- Automation Suite 2022.10.10 および 2022.4.11 から 2023.10.2 にアップグレードする方法
- ArgoCD のログ レベルを手動で Info に設定する方法
- AI Center のストレージを拡張する方法
- 外部レジストリーのエンコードされたpull_secret_valueを生成する方法
- TLS 1.2 で弱い暗号に対処する方法
- RHEL 8.4 OS でオフライン インストールを実行できない
- バンドルのダウンロード中のエラー
- バイナリがないため、オフライン インストールが失敗する
- オフライン インストールでの証明書の問題
- Longhorn のセットアップ中に最初のインストールが失敗する
- SQL 接続文字列の検証エラー
- selinux iscsid モジュールの前提条件の確認が失敗する
- Azure ディスクが SSD としてマークされない
- 証明書の更新後のエラー
- ウイルス対策が原因でインストールの問題が発生する
- OS のアップグレード後に Automation Suite が動作しない
- Automation Suite で backlog_wait_time を 0 に設定する必要がある
- ワークロードの準備ができていないためボリュームをマウントできない
- サポート バンドルのログ収集の失敗
- Test Automation SQL の接続文字列は無視されます
- シングルノードのアップグレードがファブリック ステージで失敗する
- 2021.10 からの自動アップグレード後にクラスターが異常になる
- Ceph の異常によりアップグレードが失敗する
- 領域の問題のために rke2 が開始しない
- ボリュームがマウントできず、アタッチ/デタッチ ループ状態のまま
- Orchestrator データベース内のクラシック オブジェクトが原因でアップグレードが失敗する
- Ceph クラスターがサイドバイサイド アップグレード後に機能低下ステートで検出される
- 異常な Insights コンポーネントが原因で移行が失敗する
- Apps のサービス アップグレードの失敗
- インプレース アップグレードのタイムアウト
- Docker レジストリの移行が PVC の削除段階でスタックする
- v2023.10 以降へのアップグレード後に AI Center のプロビジョニングが失敗する
- オフライン環境でアップグレードが失敗する
- アップグレード中に SQL の検証が失敗する
- アップグレード後に snapshot-controller-crds ポッドが CrashLoopBackOff ステートになる
- Longhorn REST API エンドポイントのアップグレード/再インストール エラー
- 管理ポータルのタイムアウト期間を設定する
- 移行後に認証が機能しない
- Kinit: Cannot find KDC for realm <AD Domain> while getting initial credentials
- kinit: Keytab contains no suitable keys for *** while getting initial credentials
- 無効なステータス コードが原因で GSSAPI 操作が失敗した
- Alarm received for failed kerberos-tgt-update job
- SSPI Provider: Server not found in Kerberos database
- アカウントが無効なため AD ユーザーのログインに失敗した
- ArgoCD へのログインに失敗した
- 基になるディレクトリ接続を更新する
- Process Mining で高可用性を実行する
- Kerberos を使用してログインすると、Process Mining を取り込むことができなかった
- 障害復旧後 Dapr が Process Mining と Task Mining で正しく機能しない
- pyodbc 形式の接続文字列を使用して AutomationSuite_ProcessMining_Warehouse データベースに接続できない
- Airflow のインストールが「sqlalchemy.exc.ArgumentError: Could not parse rfc1738 URL from string ''」で失敗する
- SQL Server ポート 1433 を使用する IP テーブル ルールを追加する方法
- 診断ツールを実行する
- Automation Suite サポート バンドルを使用する
- ログを確認する
Ceph クラスターがサイドバイサイド アップグレード後に機能低下ステートで検出される
重要 :
このコンテンツの一部は機械翻訳によって処理されており、完全な翻訳を保証するものではありません。
Linux の Automation Suite のインストール ガイド
Last updated 2024年11月21日
Ceph クラスターがサイドバイサイド アップグレード後に機能低下ステートで検出される
場合によっては、サイドバイサイド アップグレード後に Rook-Ceph アプリケーションが ArgoCD ポータルで「同期失敗」ステートになります。これは、アップストリームの Ceph の問題が原因です。
機能低下ステートの理由を特定するには、次のコマンドを実行します。
kubectl -n rook-ceph exec deploy/rook-ceph-tools -- ceph -s
kubectl -n rook-ceph exec deploy/rook-ceph-tools -- ceph -s
次の例のような出力が表示される場合、問題は Rook-Ceph の健全性に関連しています。
cluster:
id: 936b2e58-1014-4237-b2a5-6e95449a9ce8
health: HEALTH_ERR
Module 'devicehealth' has failed: disk I/O error
services:
mon: 3 daemons, quorum a,b,c (age 11h)
mgr: b(active, since 37h), standbys: a
osd: 3 osds: 3 up (since 37h), 3 in (since 37h)
rgw: 2 daemons active (2 hosts, 1 zones)
data:
pools: 8 pools, 225 pgs
objects: 53.57k objects, 26 GiB
usage: 80 GiB used, 688 GiB / 768 GiB avail
pgs: 225 active+clean
io:
client: 561 KiB/s rd, 61 KiB/s wr, 316 op/s rd, 123 op/s wr
cluster:
id: 936b2e58-1014-4237-b2a5-6e95449a9ce8
health: HEALTH_ERR
Module 'devicehealth' has failed: disk I/O error
services:
mon: 3 daemons, quorum a,b,c (age 11h)
mgr: b(active, since 37h), standbys: a
osd: 3 osds: 3 up (since 37h), 3 in (since 37h)
rgw: 2 daemons active (2 hosts, 1 zones)
data:
pools: 8 pools, 225 pgs
objects: 53.57k objects, 26 GiB
usage: 80 GiB used, 688 GiB / 768 GiB avail
pgs: 225 active+clean
io:
client: 561 KiB/s rd, 61 KiB/s wr, 316 op/s rd, 123 op/s wr
この問題を修正するには、次の手順に従います。
-
出力スニペットで、アクティブ ステートのマネージャー
mgr
サービスを特定します。 提供されている例では、mgr: b
はアクティブとしてマークされています。 -
正確なポッド名を特定するには、次のコマンドを実行します。
kubectl -n rook-ceph get pods | grep "rook-ceph-mgr-<active-manager-name>"
kubectl -n rook-ceph get pods | grep "rook-ceph-mgr-<active-manager-name>"このコマンドは、次の例のような出力を返します。ここでは、rook-ceph-mgr-b-6d7bdb4b54-zz47v
はマネージャー ポッド名です。rook-ceph-mgr-b-6d7bdb4b54-zz47v 0/1 Init:0/1 0 3h55m
rook-ceph-mgr-b-6d7bdb4b54-zz47v 0/1 Init:0/1 0 3h55m -
アクティブなマネージャーを削除するには、以下のコマンドを実行します。
kubectl -n rook-ceph delete pod <active-manager-pod-name> // for example: kubectl -n rook-ceph delete pod rook-ceph-mgr-b-6d7bdb4b54-zz47v
kubectl -n rook-ceph delete pod <active-manager-pod-name> // for example: kubectl -n rook-ceph delete pod rook-ceph-mgr-b-6d7bdb4b54-zz47v
アクティブなマネージャーを削除すると、強制的に再実行され、Ceph クラスターのステートが正常になります。