- 概要
- 要件
- デプロイ テンプレート
- 手動: インストールを準備する
- 手動: インストールを準備する
- 手順 2: オフライン インストール用に OCI 準拠レジストリを設定する
- 手順 3: 外部 ObjectStore を構成する
- 手順 4: High Availability Add-on を構成する
- 手順 5: SQL データベースを構成する
- 手順 7: DNS を構成する
- 手順 8: ディスクを構成する
- 手順 9: カーネルと OS レベルの設定を構成する
- 手順 10: ノード ポートを構成する
- 手順 11: その他の設定を適用する
- 手順 12: 必要な RPM パッケージを検証してインストールする
- Cluster_config.json のサンプル
- 全般的な構成
- プロファイル構成
- 証明書の設定
- データベースの構成
- 外部 ObjectStore の構成
- 署名済み URL の構成
- ArgoCD の構成
- Kerberos 認証の構成
- 外部の OCI 準拠レジストリの設定
- Disaster Recovery - アクティブ/パッシブおよびアクティブ/アクティブの構成
- High Availability Add-on の構成
- Orchestrator 固有の設定
- Insights 固有の構成
- Process Mining 固有の構成
- Document Understanding 固有の構成
- Automation Suite ロボット固有の構成
- AI Center 固有の構成
- 監視の構成
- 任意: プロキシ サーバーを構成する
- 任意: マルチノードの HA 対応の運用クラスターにおけるゾーン障害に対する復元設定を有効化する
- 任意: カスタムの Resolv.con を渡す
- 任意: フォールト トレランスを向上させる
- GPU がサポートされた専用のエージェント ノードを追加する
- Automation Suite ロボット専用のエージェント ノードを追加する
- 手順 15: オフライン インストール用に一時的な Docker レジストリを設定する
- 手順 16: インストールの前提条件を検証する
- 手動: インストールを実行する
- インストール後
- クラスターの管理
- 製品を管理する
- Cluster Administration ポータルの利用を開始する
- クラスターに新しいノードを追加する
- クラスターからノードを削除する
- クラスター ノードを再舗装する
- ノードを開始およびシャットダウンする
- ノードの名前を変更する
- クラスター内の High Availability Add-on から外部の High Availability Add-on に Redis を移行する
- ObjectStore 間でデータを移行する
- クラスター内の ObjectStore から外部 ObjectStore に移行する
- クラスター内のレジストリから外部の OCI 準拠レジストリに移行する
- シングルノード (評価) デプロイからマルチノード (HA) デプロイへのスケーリング
- 監視とアラート機能
- 移行とアップグレード
- 製品固有の設定
- ベスト プラクティスとメンテナンス
- トラブルシューティング
- インストール時にサービスをトラブルシューティングする方法
- クラスターをアンインストールする方法
- オフライン成果物をクリーンアップしてディスク領域を改善する方法
- Redis データをクリアする方法
- Istio ログを有効化する方法
- ログを手動でクリーンアップする方法
- sf-logs バケットに保存されている古いログをクリーンアップする方法
- AI Center のストリーミング ログを無効化する方法
- 失敗した Automation Suite インストールをデバッグする方法
- アップグレード後に古いインストーラーからイメージを削除する方法
- TX チェックサム オフロードを無効化する方法
- ArgoCD のログ レベルを手動で Info に設定する方法
- AI Center のストレージを拡張する方法
- 外部レジストリーのエンコードされたpull_secret_valueを生成する方法
- TLS 1.2 で弱い暗号に対処する方法
- TLSのバージョンを確認する方法
- 証明書の操作方法
- Ceph のバックアップとデータの復元をスケジュールする方法
- クラスター内の ObjectStore (Ceph) を使用して DU の使用状況データを収集する方法
- エアギャップ環境に RKE2 SELinux をインストールする方法
- NFS サーバー上の古い差分バックアップをクリーンアップする方法
- バンドルのダウンロード中のエラー
- バイナリがないため、オフライン インストールが失敗する
- オフライン インストールでの証明書の問題
- SQL 接続文字列の検証エラー
- Azure ディスクが SSD としてマークされない
- 証明書の更新後のエラー
- ウイルス対策が原因でインストールの問題が発生する
- OS のアップグレード後に Automation Suite が動作しない
- Automation Suite で backlog_wait_time を 0 に設定する必要がある
- RHEL 8.9 でレジストリの一時インストールが失敗する
- オフライン インストール中に uipath 名前空間のデプロイで頻繁に発生する再起動の問題
- DNS 設定が CoreDNS によって受け入れられない
- Ceph の異常によりアップグレードが失敗する
- 領域の問題のために rke2 が開始しない
- Orchestrator データベース内のクラシック オブジェクトが原因でアップグレードが失敗する
- Ceph クラスターがサイドバイサイド アップグレード後に機能低下ステートで検出される
- Apps のサービス アップグレードの失敗
- インプレース アップグレードのタイムアウト
- オフライン環境でアップグレードが失敗する
- アップグレード後に snapshot-controller-crds ポッドが CrashLoopBackOff ステートになる
- Insights の PVC サイズが上書きされたためにアップグレードが失敗する
- 管理ポータルのタイムアウト期間を設定する
- 移行後に認証が機能しない
- Kinit: Cannot find KDC for realm <AD Domain> while getting initial credentials
- kinit: Keytab contains no suitable keys for *** while getting initial credentials
- 無効なステータス コードが原因で GSSAPI 操作が失敗した
- Alarm received for failed kerberos-tgt-update job
- SSPI Provider: Server not found in Kerberos database
- アカウントが無効なため AD ユーザーのログインに失敗した
- ArgoCD へのログインに失敗した
- 基になるディレクトリ接続を更新する
- Process Mining で高可用性を実行する
- Kerberos を使用してログインすると、Process Mining を取り込むことができなかった
- pyodbc 形式の接続文字列を使用して AutomationSuite_ProcessMining_Warehouse データベースに接続できない
- Airflow のインストールが「sqlalchemy.exc.ArgumentError: Could not parse rfc1738 URL from string ''」で失敗する
- SQL Server ポート 1433 を使用する IP テーブル ルールを追加する方法
- CData Sync を実行しているサーバーの Automation Suite の証明書が信頼されない
- 診断ツールを実行する
- Automation Suite サポート バンドルを使用する
- ログを確認する
- 要約されたテレメトリを確認する

Linux の Automation Suite のインストール ガイド
このページでは、Automation Suite の手動および自動の起動時とシャットダウン時の動作について説明します。
必ず、一方のノードをシャットダウンして必要な操作を実行し、ノードが正常になるまで待ってから、もう一方のノードを停止して同じ操作を実行する必要があります。
次の表では、クラスター サービスまたはノードをシャットダウンするときに発生する可能性のあるさまざまなシナリオについて説明します。この表は、各状況に対して実行する必要がある詳細なアクションと、これらのアクションに対して期待される動作を理解するためのガイダンスを示しています。
|
シナリオ |
操作 |
予想される行動 |
|---|---|---|
|
メンテナンスまたはその他の理由で、ノードをオフせずに 1 つのノード上のクラスター サービスをシャットダウンすること。 |
|
HA シナリオでは、ほとんどのサービスが稼働したままになります。ノードは問題なく起動し、ダウンしたサービスは再起動するはずです。 |
|
メンテナンスまたはその他の理由により、ノードをオフせずにすべてのクラスター サービスをシャットダウンする。 |
|
サービスは利用できなくなります。ノードは問題なく起動するはずです。 |
|
すべてのノードをシャットダウンします。 |
ハイパーバイザー管理ポータル(VMware、AWSなど)で、マシンを強制終了せずにサービスを正常にシャットダウンできる場合は、通常のシャットダウンを実行します。デフォルトでは、systemdサブシステムは、サービスが強制終了する前にシャットダウンするための猶予期間を許可します。ただし、システムが設定されたシャットダウン時間を上書きすると、グレースフルシャットダウンが妨げられる可能性があります。 たとえば AWS では、プラットフォームによって 2 分後に仮想マシンを強制終了できます。そのため、ノードのドレインに最大で 5 分かかる可能性があるため、サービスを手動でシャットダウンする必要があります (これはグレースフル シャットダウンの要件です)。 |
シャットダウンが正常に行われる場合、ノードは問題なく起動するはずです。 |
|
個々のノードをシャットダウンする。 |
ハイパーバイザー管理ポータル(VMware、AWSなど)で、マシンを強制終了せずにサービスを正常にシャットダウンできる場合は、通常のシャットダウンを実行します。デフォルトでは、systemdサブシステムは、サービスが強制終了する前にシャットダウンするための猶予期間を許可します。ただし、システムが設定されたシャットダウン時間を上書きすると、グレースフルシャットダウンが妨げられる可能性があります。たとえば AWS では、プラットフォームによって 2 分後に仮想マシンを強制終了できます。そのため、ノードのドレインに最大で 5 分かかる可能性があるため、サービスを手動でシャットダウンする必要があります (これはグレースフル シャットダウンの要件です)。 |
シャットダウン プロセスが強制的でない場合、ノードは問題なく再起動します。 |
|
サーバー ノードを強制終了する。 |
該当なし。 |
ほとんどの場合、ノードは起動しますが、永続的なデータを使用する一部のサービスで問題が発生する可能性があります。通常、これらの問題は回復可能ですが、バックアップを設定することを強くお勧めします。 データが失われる可能性を防ぐため、Insights ポッドは元のノードがオンラインに戻るまで再起動されません。ノードが回復できない場合は、サポート チームに連絡してください。 |
rke2-service が開始した後、node-drainer と node-uncordon が開始します。node-drainer は起動時に何も実行せず、サービスが稼働しているという確認を返すだけです。
node-uncordon は 1 回だけ実行され、ノードの遮断を解除する /opt/node-drain.sh nodestart を開始します。シャットダウン時に発生するドレイン手順の一部として、ノードが遮断され、スケジュールできなくなります。この状態は、rke2 サービスの開始後も維持されます。そのため、rke2-service の再起動後にノードの遮断を解除する必要があります。
手動の起動
rke2-service を停止した場合は、次のコマンドを実行してサービスを再開する必要があります。
- サーバー ノードで実行されている Kubernetes プロセスを開始します。
systemctl start rke2-serversystemctl start rke2-server - サーバー ノードで実行されている Kubernetes プロセスを開始します。
systemctl start rke2-agentsystemctl start rke2-agent rke2サービスが開始したら、ノードの遮断を解除して、Kubernetes がこのノードでワークロードをスケジュールできるようにします。systemctl restart node-uncordonsystemctl restart node-uncordon- ノードが起動したら、ノードをドレインする必要があります。
systemctl start node-drain.servicesystemctl start node-drain.service重要:手順 4 をスキップした場合、システムを再起動すると Kubelet サービスが異常な方法でシャットダウンする可能性があります。
systemd は開始時の順序でサービスを停止します。node-drain サービスには After=rke2-server.service または After=rke2-agent.service ディレクティブが設定されているため、rke2-service をシャットダウンする前にシャットダウン シーケンスを実行します。つまり、適切に構成されたシステムでは、単にノードを正常にシャットダウンするのは安全な操作です。
手動の再起動
rke2 サービスを停止してマシンを再起動する場合は、次の手順を実行します。
-
ノード メンテナンス アクティビティの実行中にクラスターの健全性を確保するためには、そのノードで実行されているワークロードを他のノードにドレインする必要があります。ノードのドレインを行うには、次のコマンドを実行します。
systemctl stop node-drain.servicesystemctl stop node-drain.service - サーバー ノードで実行されている Kubernetes プロセスを停止します。
systemctl stop rke2-serversystemctl stop rke2-server - エージェント ノードで実行されている Kubernetes プロセスを停止します。
systemctl stop rke2-agentsystemctl stop rke2-agent - rke2 サービス、containerd、およびすべての子プロセスを終了します。
rke2-killall.shrke2-killall.shrke2-killall.shスクリプトをダウンロードするには、「インストール パッケージのダウンロード用リンク」をご覧ください。
- インストール中に、次のユニット ファイルが作成されます。
rke2-server.service(サーバーのみ)。rke2-serverを開始します。これにより、サーバー ノードが開始されます。rke2-agent.service(エージェントのみ)。rke2-agentを開始します。これにより、エージェント ノードが開始されます。node-drain.service。シャットダウン時に使用されます。rke2-agentまたはrke2-serverをシャットダウンする前に実行され、ドレインを実行します。タイムアウトは 300 秒です。node-uncordon.service。起動時にノードの遮断を解除するために使用されます。var-lib-kubelet.mount。fstab ジェネレーターによって自動生成されます。var-lib-rancher-rke2-server-db.mount。fstab ジェネレーターによって自動生成されます。var-lib-rancher.mount。fstab ジェネレーターによって自動生成されます。
node-drain と node-uncordon には After=rke2-server.service または After=rke2-agent.service ディレクティブが設定されています。つまり、これらのサービスは rke2-service の後に開始されます。