- 概要
- 要件
- デプロイ テンプレート
- 手動: インストールを準備する
- 手動: インストールを準備する
- 手順 2: オフライン インストール用に OCI 準拠レジストリを設定する
- 手順 3: 外部 ObjectStore を構成する
- 手順 4: High Availability Add-on を構成する
- 手順 5: SQL データベースを構成する
- 手順 6: ロード バランサーを構成する
- 手順 7: DNS を構成する
- 手順 8: ディスクを構成する
- 手順 9: カーネルと OS レベルの設定を構成する
- 手順 10: ノード ポートを構成する
- 手順 11: その他の設定を適用する
- 手順 12: 必要な RPM パッケージを検証してインストールする
- 手順 13: cluster_config.json を生成する
- Cluster_config.json のサンプル
- 全般的な構成
- プロファイル構成
- 証明書の設定
- データベースの構成
- 外部 ObjectStore の構成
- 署名済み URL の構成
- ArgoCD の構成
- Kerberos 認証の構成
- 外部の OCI 準拠レジストリの設定
- Disaster Recovery - アクティブ/パッシブおよびアクティブ/アクティブの構成
- High Availability Add-on の構成
- Orchestrator 固有の設定
- Insights 固有の構成
- Process Mining 固有の構成
- Document Understanding 固有の構成
- Automation Suite ロボット固有の構成
- AI Center 固有の構成
- 監視の構成
- 任意: プロキシ サーバーを構成する
- 任意: マルチノードの HA 対応の運用クラスターにおけるゾーン障害に対する復元設定を有効化する
- 任意: カスタムの Resolv.con を渡す
- 任意: フォールト トレランスを向上させる
- GPU がサポートされた専用のエージェント ノードを追加する
- Task Mining 専用のエージェント ノードを追加する
- Task Mining アプリケーションを接続する
- Automation Suite ロボット専用のエージェント ノードを追加する
- 手順 15: オフライン インストール用に一時的な Docker レジストリを設定する
- 手順 16: インストールの前提条件を検証する
- uipathc を実行する
- 手動: インストールを実行する
- インストール後
- クラスターの管理
- 監視とアラート機能
- 移行とアップグレード
- スタンドアロン製品を Automation Suite に移行する
- 手順 1: スタンドアロンの製品データベースを復元する
- 手順 2: 復元した製品データベースのスキーマを更新する
- 手順 3: Identity 組織データをスタンドアロンから Automation Suite に移動する
- 手順 4: Automation Suite のプラットフォーム データベースをバックアップする
- 手順 5: 組織を Automation Suite にマージする
- 手順 6: 以降済みの製品の接続文字列を更新する
- 手順 7: スタンドアロンの Orchestrator を移行する
- 手順 8: スタンドアロンの Insights を移行する
- 手順 9: スタンドアロンの Test Manager を移行する
- 手順 10: 既定のテナントを削除する
- 単一テナントの移行を実行する
- Automation Suite クラスター間を移行する
- Automation Suite をアップグレードする
- 製品固有の設定
- ベスト プラクティスとメンテナンス
- トラブルシューティング
- インストール時にサービスをトラブルシューティングする方法
- クラスターをアンインストールする方法
- オフライン成果物をクリーンアップしてディスク領域を改善する方法
- Redis データをクリアする方法
- Istio ログを有効化する方法
- ログを手動でクリーンアップする方法
- sf-logs バケットに保存されている古いログをクリーンアップする方法
- AI Center のストリーミング ログを無効化する方法
- 失敗した Automation Suite インストールをデバッグする方法
- アップグレード後に古いインストーラーからイメージを削除する方法
- TX チェックサム オフロードを無効化する方法
- ArgoCD のログ レベルを手動で Info に設定する方法
- AI Center のストレージを拡張する方法
- 外部レジストリーのエンコードされたpull_secret_valueを生成する方法
- TLS 1.2 で弱い暗号に対処する方法
- TLSのバージョンを確認する方法
- NFS バックアップ ディレクトリの権限を減らす方法
- 証明書の操作方法
- Ceph のバックアップとデータの復元をスケジュールする方法
- レジストリ ポッドから未使用の Docker イメージをクリーンアップする方法
- クラスター内の ObjectStore (Ceph) を使用して DU の使用状況データを収集する方法
- エアギャップ環境に RKE2 SELinux をインストールする方法
- NFS サーバー上の古い差分バックアップをクリーンアップする方法
- RHEL 8.4 OS でオフライン インストールを実行できない
- バンドルのダウンロード中のエラー
- バイナリがないため、オフライン インストールが失敗する
- オフライン インストールでの証明書の問題
- SQL 接続文字列の検証エラー
- Azure ディスクが SSD としてマークされない
- 証明書の更新後のエラー
- ウイルス対策が原因でインストールの問題が発生する
- OS のアップグレード後に Automation Suite が動作しない
- Automation Suite で backlog_wait_time を 0 に設定する必要がある
- ワークロードの準備ができていないためボリュームをマウントできない
- サポート バンドルのログ収集の失敗
- RHEL 8.9 でレジストリの一時インストールが失敗する
- オフライン インストール中に uipath 名前空間のデプロイで頻繁に発生する再起動の問題
- DNS 設定が CoreDNS によって受け入れられない
- 一時レジストリをインストールできない
- Automation Suite のアップグレード後に Insights を再インストールまたはアップグレードするとデータが失われる
- Automation Suite 2024.10.0 へのアップグレード後に Automation Hub にアクセスできない
- フック後のインポート中にアップグレードが失敗する
- シングルノードのアップグレードがファブリック ステージで失敗する
- Ceph の異常によりアップグレードが失敗する
- 領域の問題のために rke2 が開始しない
- ボリュームがマウントできず、アタッチ/デタッチ ループ状態のまま
- Orchestrator データベース内のクラシック オブジェクトが原因でアップグレードが失敗する
- Ceph クラスターがサイドバイサイド アップグレード後に機能低下ステートで検出される
- 異常な Insights コンポーネントが原因で移行が失敗する
- Apps のサービス アップグレードの失敗
- インプレース アップグレードのタイムアウト
- Docker レジストリの移行が PVC の削除段階でスタックする
- v2023.10 以降へのアップグレード後に AI Center のプロビジョニングが失敗する
- オフライン環境でアップグレードが失敗する
- アップグレード中に SQL の検証が失敗する
- アップグレード後に snapshot-controller-crds ポッドが CrashLoopBackOff ステートになる
- Insights の PVC サイズが上書きされたためにアップグレードが失敗する
- Automation Suite 2024.10.1 にアップグレードできない
- Velero の移行の問題によりアップグレードが失敗する
- rook-ceph アプリケーションの削除でアップグレードがスタックする
- 管理ポータルのタイムアウト期間を設定する
- 移行後に認証が機能しない
- Kinit: Cannot find KDC for realm <AD Domain> while getting initial credentials
- kinit: Keytab contains no suitable keys for *** while getting initial credentials
- 無効なステータス コードが原因で GSSAPI 操作が失敗した
- Alarm received for failed kerberos-tgt-update job
- SSPI Provider: Server not found in Kerberos database
- アカウントが無効なため AD ユーザーのログインに失敗した
- ArgoCD へのログインに失敗した
- 基になるディレクトリ接続を更新する
- ロボットが Automation Suite の Orchestrator インスタンスに接続できない
- Automation Suite 2024.10.0 でバックアップの復元に部分的に失敗する
- サンドボックス イメージを取得できない
- ポッドが ArgoCD UI に表示されない
- FQDN にアクセスすると RBAC アクセス拒否エラーが返されます
- Redis プローブの障害
- RKE2 サーバーの起動に失敗する
- UiPath 名前空間でシークレットが見つからない
- 初回インストール後に ArgoCD が進行中ステートになる
- Init:0/X でポッドがスタックする
- Ceph-rook のメトリックが監視ダッシュボードに表示されない
- 診断ヘルスチェック中に報告されたエラーの不一致
- アップストリームに正常な問題はありません
- プロキシ設定でログ ストリーミングが機能しない
- オフライン環境でエージェント ノードを追加できない
- サイズの大きい Document Understanding バンドルのアップロード中にノードが応答しなくなる (OOM)
- バックアップ操作が [部分的に失敗] ステータスで失敗する
- Process Mining で高可用性を実行する
- Kerberos を使用してログインすると、Process Mining を取り込むことができなかった
- 障害復旧後、Dapr が Process Mining に対して正しく機能しない
- pyodbc 形式の接続文字列を使用して AutomationSuite_ProcessMining_Warehouse データベースに接続できない
- Airflow のインストールが「sqlalchemy.exc.ArgumentError: Could not parse rfc1738 URL from string ''」で失敗する
- SQL Server ポート 1433 を使用する IP テーブル ルールを追加する方法
- CData Sync を実行しているサーバーの Automation Suite の証明書が信頼されない
- 診断ツールを実行する
- Automation Suite サポート バンドルを使用する
- ログを確認する
- 要約されたテレメトリを確認する

Linux の Automation Suite のインストール ガイド
バックアップを復元する
クラスターの復元後は、スナップショットのバックアップは有効化されていません。復元後にスナップショットのバックアップを有効化するには、「 スナップショットのバックアップを有効化する」をご覧ください。
クラスターを復元しても、SQL Server、ObjectStore、OCI 準拠のレジストリなどの外部データ ソースは復元されません。必ず、これらのデータソースを適切なスナップショットに復元してください。
クラスターを復元するには、次の手順に従います。
-
すべてのサーバー ノードにクラスター インフラストラクチャをインストールします。詳細。。。
注:復元クラスターに提供するハードウェアは、バックアップ クラスターのハードウェアと類似のものでなければなりません。詳しくは、「ハードウェアおよびソフトウェアの要件」をご覧ください。
-
復元したクラスター上でスナップショットを構成します。詳細。。。
-
復元するスナップショットを選択します。詳細。。。
-
データと設定を復元します。詳細。。。
手順 1: クラスター インフラストラクチャをインストールする
準備
-
復元インストーラーをダウンロードします。これは、
as-installer.zipパッケージに含まれています。ダウンロードの手順については、「インストール パッケージをダウンロードする」をご覧ください。 -
オフライン環境では、外部の OCI 準拠レジストリまたは一時レジストリを指定する必要があります。レジストリの設定は、元のクラスターの設定と同じでなければならないことに注意してください。レジストリを設定するには、以下の手順を参照してください。
- 外部 OCI 準拠レジストリを設定する
- 一時的な Docker レジストリを設定するこのオプションは、障害が発生する前に外部の OCI 準拠のレジストリを使用していなかった場合にのみ選択してください。
-
構成ファイルを準備し、すべてのクラスター ノードで使用できるようにします。構成ファイルを準備するには、以下のいずれかの手順を実行します。
- オプション A: 障害が発生する前にクラスターに適用した
cluster_config.jsonファイルを再利用します。 - オプション B: 以下の例に示すように、最小限必要なパラメーターを指定した
cluster_config.jsonファイルを作成します。{ "fixed_rke_address": "fqdn", "fqdn": "fqdn", "rke_token": "guid", "profile": "cluster_profile", "external_object_storage": { "enabled": false }, "install_type": "offline or online", "snapshot": { "enabled": true, "nfs": { "server": "nfs_server_endpoint", "location": "nfs_server_mountpoint" } }, "proxy": { "enabled": false } }{ "fixed_rke_address": "fqdn", "fqdn": "fqdn", "rke_token": "guid", "profile": "cluster_profile", "external_object_storage": { "enabled": false }, "install_type": "offline or online", "snapshot": { "enabled": true, "nfs": { "server": "nfs_server_endpoint", "location": "nfs_server_mountpoint" } }, "proxy": { "enabled": false } }
- オプション A: 障害が発生する前にクラスターに適用した
以下の表では、cluster_config.json ファイルで最小限指定する必要があるすべてのパラメーターについて説明します。必ず、元のクラスターで使用したものと同じパラメーター値を指定してください。パラメーター値は復元後に変更できます。
オフライン環境では、以下の表に示す cluster_config.json パラメーターの設定とは別に、外部の OCI 準拠のレジストリ設定も指定する必要があります。詳しくは、「外部の OCI 準拠レジストリの設定」を参照してください。
| パラメーター | 値 (Value) |
|---|---|
|
| Automation Suite クラスターの FQDN。値は、古い FQDN と同じである必要があります。別の FQDN 値を指定すると、復元が失敗する可能性があります。 |
|
| 負荷分散ノードの登録と Kube API 要求に使用する固定アドレス。 fqdn の値と同じ値にする必要があります。それ以外の場合は、最初のサーバー ノードの fqdn 値を使用します。詳しくは、「ロード バランサーを構成する」をご覧ください。 |
|
| ここには、新たに生成された GUID を使用します。これは、事前共有されるクラスター固有のシークレットです。クラスターに参加させる、すべてのノードで必要です。 |
|
| インストールのプロファイルを設定します。使用可能なプロファイルは次のとおりです。
|
|
| 実行イン予定のストールの種類を表示します。以下のオプションがあります。
|
|
| スナップショットの保存場所の FQDN または IP アドレス ( mynfs.mycompany.com や 192.23.222.81 など) です。 |
|
| スナップショットの保存場所またはパスです。 |
|
| ポッド ログに使用するカスタム ディレクトリへのパスです。 これは、クラスターがカスタム ポッド ログのパスを使用して構成されている場合に必要です。 |
|
| このパラメーターは、プロキシが有効な場合にのみ必須です。詳しくは、「 任意: プロキシ サーバーを構成する」をご覧ください。 |
cluster_config.jsonの構成方法について詳しくは、「手動: 高度なインストール」をご覧ください。
実行
プライマリ サーバー ノードにクラスター インフラストラクチャをインストールする
プライマリ復元クラスター ノードにインフラストラクチャをインストールするには、次のコマンドを実行します。
cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json --accept-license-agreement --restore
cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json --accept-license-agreement --restore
プライマリ サーバー ノードから残りのサーバー/エージェント ノードに cluster_config.json をコピーします。プライマリ サーバー ノードでのインフラストラクチャのインストール手順では、残りのノードが必要とする値が追加されます。
セカンダリ サーバーにクラスター インフラストラクチャをインストールする
セカンダリ サーバーにインフラストラクチャをインストールするには、以下の手順を実行します。
cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j server --accept-license-agreement --restore
cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j server --accept-license-agreement --restore
すべてのエージェント マシンにインフラストラクチャをインストールする
エージェント ノードにインフラストラクチャをインストールするには、以下の手順を実行します。
cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j agent --accept-license-agreement --restore
cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j agent --accept-license-agreement --restore
オフライン インストール用にクラスター内レジストリをハイドレートする
この手順は、オフライン インストールにクラスター内レジストリを使用する場合にのみ必要です。 復元をトリガーする前に、次のコマンドを使用してレジストリをハイドレートする必要があります。
./bin/uipathctl rke2 registry hydrate-registry /opt/UiPathAutomationSuite/cluster_config.json
./bin/uipathctl rke2 registry hydrate-registry /opt/UiPathAutomationSuite/cluster_config.json
サービス・ノードへのクラスター・インフラストラクチャーのインストール
Task Mining ノードにクラスター インフラストラクチャをインストールする
Task Mining ノードにクラスター インフラストラクチャをインストールするには、以下の手順を実行します。
cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j task-mining --accept-license-agreement --restore
cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j task-mining --accept-license-agreement --restore
Automation Suite ロボット ノードにクラスター インフラストラクチャをインストールする
Automation Suite ロボット ノードにクラスター インフラストラクチャをインストールするには、以下の手順を実行します。
cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j asrobots --accept-license-agreement --restore
cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j asrobots --accept-license-agreement --restore
GPU ノードにクラスター インフラストラクチャをインストールする
GPU ノードにクラスター インフラストラクチャをインストールするには、以下の手順を実行します。
cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j gpu --accept-license-agreement --restore
cd <installer directory>
./bin/uipathctl rke2 install -i ../../cluster_config.json -o output.json -j gpu --accept-license-agreement --restore
手順 2: 復元のためにクラスターを準備する
インフラストラクチャをインストールしたら、復元するクラスター スナップショットを準備する必要があります。 シナリオに応じて、次のコマンドを実行する必要があります。
-
外部 Objectore を使用する場合:
./bin/uipathctl manifest apply /opt/UiPathAutomationSuite/cluster_config.json --only velero --versions versions/helm-charts.json./bin/uipathctl manifest apply /opt/UiPathAutomationSuite/cluster_config.json --only velero --versions versions/helm-charts.json -
クラスター内 Ceph-ObjectStore を使用する場合:
./bin/uipathctl manifest apply /opt/UiPathAutomationSuite/cluster_config.json --only base,rook-ceph-operator,rook-ceph-object-store,velero --versions versions/helm-charts.json./bin/uipathctl manifest apply /opt/UiPathAutomationSuite/cluster_config.json --only base,rook-ceph-operator,rook-ceph-object-store,velero --versions versions/helm-charts.json
復元したクラスターのバックアップを構成するには、「クラスター スナップショットを構成する」のセクションの手順に従います。
手順 3: 復元するスナップショットを選択する
スナップショットの構成後、既存のスナップショットの一覧を表示して、復元ポイントとして使用するスナップショットを決定します。
手順 4: データと設定を復元する
以前のクラスターに戻すには、--from-snapshot <snapshot-name> フラグを使用して、変換元のスナップショットの名前を指定します。
./bin/uipathctl snapshot restore create <restore_name> --from-snapshot <snapshot_name>
./bin/uipathctl snapshot restore create <restore_name> --from-snapshot <snapshot_name>
このコマンドは、復元プロセスをバックグラウンドでトリガーします。復元プロセスが完了するまでコマンドの完了を待機するには、 --wait オプションを渡します。復元プロセスのステータスを確認するには、次のコマンドを実行します。
./bin/uipathctl snapshot restore history
./bin/uipathctl snapshot restore history
スナップショット名を指定しない場合、クラスターは最後に成功したスナップショットに復元されます。利用可能なスナップショットについては、スナップショットのリストをご覧ください。
Cluster_config.json を復元する
Automation Suite クラスターの回復後、cluster_config.json ファイルを回復することもできます。今後クラスターに新しいノードを追加する際やアップグレードをする際などにこのファイルを使用できます。
cluster_config.jsonを復元するには、次の手順に従います。
-
次のコマンドを実行して、最後に適用された構成を見つける必要があります。
./bin/uipathctl manifest list-revisions./bin/uipathctl manifest list-revisions
次の例は、コマンド出力の例です。
VERSION UPDATED STATUS
1 2024-11-07 00:46:41 +0000 UTC successful
2 2024-11-07 01:14:20 +0000 UTC successful
3 2024-11-07 01:23:23 +0000 UTC successful
VERSION UPDATED STATUS
1 2024-11-07 00:46:41 +0000 UTC successful
2 2024-11-07 01:14:20 +0000 UTC successful
3 2024-11-07 01:23:23 +0000 UTC successful
-
バックアップの作成前にデプロイされた正しいバージョン番号を選択し、次のコマンドを実行して
cluster_config.jsonファイルを取得します。./bin/uipathctl manifest get-revision --version <VERSION>./bin/uipathctl manifest get-revision --version <VERSION>
次の例は、コマンド出力の例です。
./bin/uipathctl manifest get-revision --version 1 > ./cluster_config.json
./bin/uipathctl manifest get-revision --version 1 > ./cluster_config.json
信頼ストアに CA 証明書を追加する
クラスターの復元後、復元した仮想マシンの信頼ストアに CA 証明書を追加してください。詳しくは、以下のページをご覧ください。
新しい監視パスワードを取得する
Automation Suite クラスターの復元後、新しい監視パスワードを取得する必要があります。このためには、「監視ツールにアクセスする」の手順を実行します。
復元したクラスターで AI Center を有効化する
AI Center™ が有効化された Automation Suite クラスターを復元した後、「復元したクラスターで AI Center を有効化する」の手順に従います。
新しい Kerberos チケットの生成
Kerberos 認証が設定されている場合は、Kerberos チケットの有効期限が切れていないことを確認する必要があります。
新しい Kerberos チケットを生成するには、次のコマンドを実行します。
kubectl get cronjobs -A | grep kerberos //to identify the job with name kerberos-tgt-update
kubectl create job --from=cronjob/<cron-job-name> <new_job_name> -n <namespace>
kubectl get cronjobs -A | grep kerberos //to identify the job with name kerberos-tgt-update
kubectl create job --from=cronjob/<cron-job-name> <new_job_name> -n <namespace>
<cron-job-name>、<new_job_name>、<namespace> は、それぞれ cron ジョブの実際の名前、新しいジョブの意図した名前、実際の名前空間に置き換えてください。