- 概要
- 要件
- 推奨: デプロイ テンプレート
- 手動: インストールを準備する
- 手動: インストールを準備する
- 手順 1: オフライン インストール用に OCI 準拠レジストリを設定する
- 手順 2: 外部 ObjectStore を構成する
- 手順 3: High Availability Add-on を構成する
- 手順 4: Microsoft SQL Server を構成する
- 手順 5: ロード バランサーを構成する
- 手順 6: DNS を構成する
- 手順 7: ディスクを構成する
- 手順 8: カーネルと OS レベルの設定を構成する
- 手順 9: ノード ポートを構成する
- 手順 10: その他の設定を適用する
- 手順 12: 必要な RPM パッケージを検証してインストールする
- 手順 13: cluster_config.json を生成する
- 証明書の設定
- データベースの構成
- 外部 ObjectStore の構成
- 署名済み URL の構成
- 外部の OCI 準拠レジストリの設定
- Disaster Recovery - アクティブ/パッシブおよびアクティブ/アクティブの構成
- High Availability Add-on の構成
- Orchestrator 固有の設定
- Insights 固有の構成
- Process Mining 固有の構成
- Document Understanding 固有の構成
- Automation Suite ロボット固有の構成
- 監視の構成
- 任意: プロキシ サーバーを構成する
- 任意: マルチノードの HA 対応の運用クラスターにおけるゾーン障害に対する復元設定を有効化する
- 任意: カスタムの Resolv.con を渡す
- 任意: フォールト トレランスを向上させる
- install-uipath.sh パラメーター
- GPU がサポートされた専用のエージェント ノードを追加する
- Task Mining 専用のエージェント ノードを追加する
- Task Mining アプリケーションを接続する
- Automation Suite ロボット専用のエージェント ノードを追加する
- 手順 15: オフライン インストール用に一時的な Docker レジストリを設定する
- 手順 16: インストールの前提条件を検証する
- 手動: インストールを実行する
- インストール後
- クラスターの管理
- 監視とアラート機能
- 移行とアップグレード
- 製品固有の設定
- ベスト プラクティスとメンテナンス
- トラブルシューティング
- インストール時にサービスをトラブルシューティングする方法
- クラスターをアンインストールする方法
- オフライン成果物をクリーンアップしてディスク領域を改善する方法
- Redis データをクリアする方法
- Istio ログを有効化する方法
- ログを手動でクリーンアップする方法
- sf-logs バケットに保存されている古いログをクリーンアップする方法
- AI Center のストリーミング ログを無効化する方法
- 失敗した Automation Suite インストールをデバッグする方法
- アップグレード後に古いインストーラーからイメージを削除する方法
- TX チェックサム オフロードを無効化する方法
- Automation Suite 2022.10.10 および 2022.4.11 から 2023.10.2 にアップグレードする方法
- ArgoCD のログ レベルを手動で Info に設定する方法
- AI Center のストレージを拡張する方法
- 外部レジストリーのエンコードされたpull_secret_valueを生成する方法
- TLS 1.2 で弱い暗号に対処する方法
- RHEL 8.4 OS でオフライン インストールを実行できない
- バンドルのダウンロード中のエラー
- バイナリがないため、オフライン インストールが失敗する
- オフライン インストールでの証明書の問題
- Longhorn のセットアップ中に最初のインストールが失敗する
- SQL 接続文字列の検証エラー
- selinux iscsid モジュールの前提条件の確認が失敗する
- Azure ディスクが SSD としてマークされない
- 証明書の更新後のエラー
- ウイルス対策が原因でインストールの問題が発生する
- OS のアップグレード後に Automation Suite が動作しない
- Automation Suite で backlog_wait_time を 0 に設定する必要がある
- ワークロードの準備ができていないためボリュームをマウントできない
- サポート バンドルのログ収集の失敗
- Test Automation SQL の接続文字列は無視されます
- シングルノードのアップグレードがファブリック ステージで失敗する
- 2021.10 からの自動アップグレード後にクラスターが異常になる
- Ceph の異常によりアップグレードが失敗する
- 領域の問題のために rke2 が開始しない
- ボリュームがマウントできず、アタッチ/デタッチ ループ状態のまま
- Orchestrator データベース内のクラシック オブジェクトが原因でアップグレードが失敗する
- Ceph クラスターがサイドバイサイド アップグレード後に機能低下ステートで検出される
- 異常な Insights コンポーネントが原因で移行が失敗する
- Apps のサービス アップグレードの失敗
- インプレース アップグレードのタイムアウト
- Docker レジストリの移行が PVC の削除段階でスタックする
- v2023.10 以降へのアップグレード後に AI Center のプロビジョニングが失敗する
- オフライン環境でアップグレードが失敗する
- アップグレード中に SQL の検証が失敗する
- アップグレード後に snapshot-controller-crds ポッドが CrashLoopBackOff ステートになる
- Longhorn REST API エンドポイントのアップグレード/再インストール エラー
- 管理ポータルのタイムアウト期間を設定する
- 移行後に認証が機能しない
- Kinit: Cannot find KDC for realm <AD Domain> while getting initial credentials
- kinit: Keytab contains no suitable keys for *** while getting initial credentials
- 無効なステータス コードが原因で GSSAPI 操作が失敗した
- Alarm received for failed kerberos-tgt-update job
- SSPI Provider: Server not found in Kerberos database
- アカウントが無効なため AD ユーザーのログインに失敗した
- ArgoCD へのログインに失敗した
- 基になるディレクトリ接続を更新する
- Process Mining で高可用性を実行する
- Kerberos を使用してログインすると、Process Mining を取り込むことができなかった
- 障害復旧後 Dapr が Process Mining と Task Mining で正しく機能しない
- pyodbc 形式の接続文字列を使用して AutomationSuite_ProcessMining_Warehouse データベースに接続できない
- Airflow のインストールが「sqlalchemy.exc.ArgumentError: Could not parse rfc1738 URL from string ''」で失敗する
- SQL Server ポート 1433 を使用する IP テーブル ルールを追加する方法
- 診断ツールを実行する
- Automation Suite サポート バンドルを使用する
- ログを確認する
ダッシュボードとメトリック
Grafana でアクセスできる、既成のコンポーネント固有のダッシュボードがあります。監視できるコンポーネントについて詳しくは、「Automation Suite のアーキテクチャ」をご覧ください。
次の図は、Grafana の一部のダッシュボードを示しています。
Grafana ダッシュボードにアクセスするには、資格情報を取得し、その資格情報を使用してログインする必要があります。
-
ユーザー名:
kubectl -n cattle-monitoring-system get secrets/rancher-monitoring-grafana -o "jsonpath={.data.admin-user}" | base64 -d; echo
kubectl -n cattle-monitoring-system get secrets/rancher-monitoring-grafana -o "jsonpath={.data.admin-user}" | base64 -d; echo -
パスワード:
kubectl -n cattle-monitoring-system get secrets/rancher-monitoring-grafana -o "jsonpath={.data.admin-password}" | base64 -d; echo
kubectl -n cattle-monitoring-system get secrets/rancher-monitoring-grafana -o "jsonpath={.data.admin-password}" | base64 -d; echo
[Istio Mesh] と [Istio] の Grafana ダッシュボードから、Automation Suite のネットワークを監視できます。
Istio Mesh ダッシュボード
このダッシュボードには、選択した期間での全体的な要求量と、サービス メッシュ全体の 400 と 500 のエラー率が表示されます。このデータはウィンドウの右上に表示されます。この情報については、上部の 4 つのグラフをご覧ください。
ここには、個々のサービスの過去 1 分間における即時成功率も表示されます。NaN という成功率は、そのサービスで現在トラフィックがないことを示しています。
Istio Workload ダッシュボード
このダッシュボードでは、ウィンドウの右上で選択した時間範囲におけるトラフィック メトリックが表示されます。
ダッシュボードの上部にあるセレクターを使用して、特定のワークロードにドリルダウンします。特に注目するのは、uipath 名前空間です。
上部セクションには全体的なメトリックが示されます。[Inbound Workloads] セクションは送信元に基づいてトラフィックを分離し、[Outbound Services] セクションは宛先に基づいてトラフィックを分離しています。
永続ボリュームを監視する
[Kubernetes / Persistent Volumes] ダッシュボードでは、永続ボリュームを監視できます。各ボリュームについて、空き領域と使用されている領域を追跡できます。
Cluster Explorer の [Storage] メニュー内の [PersistentVolumes] 項目をクリックして、各ボリュームのステータスを確認することもできます。
Ceph クラスター ダッシュボード
Ceph は、Longhorn で作成した永続ボリュームに加えて、Amazon S3 準拠のオブジェクト/BLOB ストレージを公開する、オープンソースのストレージ プロバイダーです。
ノードごとのハードウェア使用状況を確認するには、[Nodes] ダッシュボードを使用できます。CPU 上のデータ、メモリ、ディスク、およびネットワークについて表示できます。
[Kubernetes / Compute Resources / Namespace (Workloads)] ダッシュボードを使用して、特定のワークロードのハードウェア使用状況を監視できます。uipath 名前空間を選択して必要なデータを取得します。
- グラフ タイトルの横にある下矢印をクリックし、[Share] を選択します。
- [Snapshot] タブをクリックし、[Snapshot name]、[Expire]、および [Timeout] を設定します。
- [Publish] をクリックし、snapshot.raintank.io. にパブリッシュします。
詳細については、ダッシュボードの共有に関する Grafana のドキュメントをご覧ください。
カスタムの永続 Grafana ダッシュボードを作成する方法について詳しくは、Rancher のドキュメントをご覧ください。
ダッシュボードは、既定で匿名ユーザーでも読み取りアクセスが可能であるため、Grafana への管理アクセスは、通常 Automation Suite クラスターでは必要ありません。カスタムの永続ダッシュボードの作成は、このドキュメントでリンクを示した Kubernetes ネイティブの手順を使用して作成する必要があります。
Grafana への管理アクセスは、次の手順で実行できます。
Grafana 管理アクセスの既定のユーザー名とパスワードは、次のようにして取得できます。
kubectl get secret -n cattle-monitoring-system rancher-monitoring-grafana -o jsonpath='{.data.admin-user}' | base64 -d && echo
kubectl get secret -n cattle-monitoring-system rancher-monitoring-grafana -o jsonpath='{.data.admin-password}' | base64 -d && echo
kubectl get secret -n cattle-monitoring-system rancher-monitoring-grafana -o jsonpath='{.data.admin-user}' | base64 -d && echo
kubectl get secret -n cattle-monitoring-system rancher-monitoring-grafana -o jsonpath='{.data.admin-password}' | base64 -d && echo
高可用性 Automation Suite クラスターでは、ノードの障害時の中断のない読み取りアクセスや、より大量の読み取りクエリを可能にするため、複数の Grafana ポッドが存在することに注意してください。ポッドはセッション ステートを共有せず、ログインにはこのステートが必要なため、この状況は管理アクセスには適合しません。これを回避するには、管理アクセスが必要な場合に、Grafana レプリカの数を一時的に 1 にする必要があります。Grafana レプリカの数をスケーリングする方法については以下をご覧ください。
# scale down
kubectl scale -n cattle-monitoring-system deployment/rancher-monitoring-grafana --replicas=1
# scale up
kubectl scale -n cattle-monitoring-system deployment/rancher-monitoring-grafana --replicas=2
# scale down
kubectl scale -n cattle-monitoring-system deployment/rancher-monitoring-grafana --replicas=1
# scale up
kubectl scale -n cattle-monitoring-system deployment/rancher-monitoring-grafana --replicas=2
利用可能なメトリックは、Prometheus の UI で検索できます。
使用可能なメトリックについてのドキュメントを以下に示します。