- 概要
- 要件
- デプロイ テンプレート
- 手動: インストールを準備する
- 手動: インストールを準備する
- 手順 2: オフライン インストール用に OCI 準拠レジストリを設定する
- 手順 3: 外部 ObjectStore を構成する
- 手順 4: High Availability Add-on を構成する
- 手順 5: SQL データベースを構成する
- 手順 6: ロード バランサーを構成する
- 手順 7: DNS を構成する
- 手順 8: ディスクを構成する
- 手順 9: カーネルと OS レベルの設定を構成する
- 手順 10: ノード ポートを構成する
- 手順 11: その他の設定を適用する
- 手順 12: 必要な RPM パッケージを検証してインストールする
- 手順 13: cluster_config.json を生成する
- Cluster_config.json のサンプル
- 全般的な構成
- プロファイル構成
- 証明書の設定
- データベースの構成
- 外部 ObjectStore の構成
- 署名済み URL の構成
- ArgoCD の構成
- Kerberos 認証の構成
- 外部の OCI 準拠レジストリの設定
- Disaster Recovery - アクティブ/パッシブおよびアクティブ/アクティブの構成
- High Availability Add-on の構成
- Orchestrator 固有の設定
- Insights 固有の構成
- Process Mining 固有の構成
- Document Understanding 固有の構成
- Automation Suite ロボット固有の構成
- AI Center 固有の構成
- 監視の構成
- 任意: プロキシ サーバーを構成する
- 任意: マルチノードの HA 対応の運用クラスターにおけるゾーン障害に対する復元設定を有効化する
- 任意: カスタムの Resolv.con を渡す
- 任意: フォールト トレランスを向上させる
- GPU がサポートされた専用のエージェント ノードを追加する
- Task Mining 専用のエージェント ノードを追加する
- Task Mining アプリケーションを接続する
- Automation Suite ロボット専用のエージェント ノードを追加する
- 手順 15: オフライン インストール用に一時的な Docker レジストリを設定する
- 手順 16: インストールの前提条件を検証する
- uipathc を実行する
- 手動: インストールを実行する
- インストール後
- クラスターの管理
- 監視とアラート機能
- 移行とアップグレード
- スタンドアロン製品を Automation Suite に移行する
- 手順 1: スタンドアロンの製品データベースを復元する
- 手順 2: 復元した製品データベースのスキーマを更新する
- 手順 3: Identity 組織データをスタンドアロンから Automation Suite に移動する
- 手順 4: Automation Suite のプラットフォーム データベースをバックアップする
- 手順 5: 組織を Automation Suite にマージする
- 手順 6: 以降済みの製品の接続文字列を更新する
- 手順 7: スタンドアロンの Orchestrator を移行する
- 手順 8: スタンドアロンの Insights を移行する
- 手順 9: スタンドアロンの Test Manager を移行する
- 手順 10: 既定のテナントを削除する
- 単一テナントの移行を実行する
- Automation Suite クラスター間を移行する
- Automation Suite をアップグレードする
- 製品固有の設定
- ベスト プラクティスとメンテナンス
- トラブルシューティング
- インストール時にサービスをトラブルシューティングする方法
- クラスターをアンインストールする方法
- オフライン成果物をクリーンアップしてディスク領域を改善する方法
- Redis データをクリアする方法
- Istio ログを有効化する方法
- ログを手動でクリーンアップする方法
- sf-logs バケットに保存されている古いログをクリーンアップする方法
- AI Center のストリーミング ログを無効化する方法
- 失敗した Automation Suite インストールをデバッグする方法
- アップグレード後に古いインストーラーからイメージを削除する方法
- TX チェックサム オフロードを無効化する方法
- ArgoCD のログ レベルを手動で Info に設定する方法
- AI Center のストレージを拡張する方法
- 外部レジストリーのエンコードされたpull_secret_valueを生成する方法
- TLS 1.2 で弱い暗号に対処する方法
- TLSのバージョンを確認する方法
- NFS バックアップ ディレクトリの権限を減らす方法
- 証明書の操作方法
- Ceph のバックアップとデータの復元をスケジュールする方法
- レジストリ ポッドから未使用の Docker イメージをクリーンアップする方法
- クラスター内の ObjectStore (Ceph) を使用して DU の使用状況データを収集する方法
- エアギャップ環境に RKE2 SELinux をインストールする方法
- NFS サーバー上の古い差分バックアップをクリーンアップする方法
- FIPS が有効化されたクラスターに Insights をデプロイする方法
- cgroup v2 への移行方法
- RHEL 8.4 OS でオフライン インストールを実行できない
- バンドルのダウンロード中のエラー
- バイナリがないため、オフライン インストールが失敗する
- オフライン インストールでの証明書の問題
- SQL 接続文字列の検証エラー
- Azure ディスクが SSD としてマークされない
- 証明書の更新後のエラー
- ウイルス対策が原因でインストールの問題が発生する
- OS のアップグレード後に Automation Suite が動作しない
- Automation Suite で backlog_wait_time を 0 に設定する必要がある
- ワークロードの準備ができていないためボリュームをマウントできない
- サポート バンドルのログ収集の失敗
- RHEL 8.9 でレジストリの一時インストールが失敗する
- オフライン インストール中に uipath 名前空間のデプロイで頻繁に発生する再起動の問題
- DNS 設定が CoreDNS によって受け入れられない
- 一時レジストリをインストールできない
- Automation Suite のアップグレード後に Insights を再インストールまたはアップグレードするとデータが失われる
- Automation Suite 2024.10.0 へのアップグレード後に Automation Hub にアクセスできない
- フック後のインポート中にアップグレードが失敗する
- シングルノードのアップグレードがファブリック ステージで失敗する
- Ceph の異常によりアップグレードが失敗する
- 領域の問題のために rke2 が開始しない
- ボリュームがマウントできず、アタッチ/デタッチ ループ状態のまま
- Orchestrator データベース内のクラシック オブジェクトが原因でアップグレードが失敗する
- Ceph クラスターがサイドバイサイド アップグレード後に機能低下ステートで検出される
- 異常な Insights コンポーネントが原因で移行が失敗する
- Apps のサービス アップグレードの失敗
- インプレース アップグレードのタイムアウト
- Docker レジストリの移行が PVC の削除段階でスタックする
- v2023.10 以降へのアップグレード後に AI Center のプロビジョニングが失敗する
- オフライン環境でアップグレードが失敗する
- アップグレード中に SQL の検証が失敗する
- アップグレード後に snapshot-controller-crds ポッドが CrashLoopBackOff ステートになる
- Insights の PVC サイズが上書きされたためにアップグレードが失敗する
- Automation Suite 2024.10.1 にアップグレードできない
- Velero の移行の問題によりアップグレードが失敗する
- rook-ceph アプリケーションの削除でアップグレードがスタックする
- 管理ポータルのタイムアウト期間を設定する
- 移行後に認証が機能しない
- Kinit: Cannot find KDC for realm <AD Domain> while getting initial credentials
- kinit: Keytab contains no suitable keys for *** while getting initial credentials
- 無効なステータス コードが原因で GSSAPI 操作が失敗した
- Alarm received for failed kerberos-tgt-update job
- SSPI Provider: Server not found in Kerberos database
- アカウントが無効なため AD ユーザーのログインに失敗した
- ArgoCD へのログインに失敗した
- 基になるディレクトリ接続を更新する
- ロボットが Automation Suite の Orchestrator インスタンスに接続できない
- Automation Suite 2024.10.0 でバックアップの復元に部分的に失敗する
- サンドボックス イメージを取得できない
- ポッドが ArgoCD UI に表示されない
- FQDN にアクセスすると RBAC アクセス拒否エラーが返されます
- Redis プローブの障害
- RKE2 サーバーの起動に失敗する
- UiPath 名前空間でシークレットが見つからない
- 初回インストール後に ArgoCD が進行中ステートになる
- Init:0/X でポッドがスタックする
- Ceph-rook のメトリックが監視ダッシュボードに表示されない
- 診断ヘルスチェック中に報告されたエラーの不一致
- アップストリームに正常な問題はありません
- プロキシ設定でログ ストリーミングが機能しない
- オフライン環境でエージェント ノードを追加できない
- サイズの大きい Document Understanding バンドルのアップロード中にノードが応答しなくなる (OOM)
- バックアップ操作が [部分的に失敗] ステータスで失敗する
- Process Mining で高可用性を実行する
- Kerberos を使用してログインすると、Process Mining を取り込むことができなかった
- 障害復旧後、Dapr が Process Mining に対して正しく機能しない
- pyodbc 形式の接続文字列を使用して AutomationSuite_ProcessMining_Warehouse データベースに接続できない
- Airflow のインストールが「sqlalchemy.exc.ArgumentError: Could not parse rfc1738 URL from string ''」で失敗する
- SQL Server ポート 1433 を使用する IP テーブル ルールを追加する方法
- CData Sync を実行しているサーバーの Automation Suite の証明書が信頼されない
- 診断ツールを実行する
- Automation Suite サポート バンドルを使用する
- ログを確認する
- 要約されたテレメトリを確認する

Linux の Automation Suite のインストール ガイド
手順 11: その他の設定を適用する
オプション: FIPS 140-2 の有効化
このセクションでは、お使いのマシンで FIPS 140-2 を有効化する方法について説明します。
Red Hat Linux ベースの仮想マシンで FIPS を有効化できます。このためには、以下の手順に従います。
-
インストールを開始する前に、すべてのマシンで次のコマンドを実行して FIPS を有効化します。
fips-mode-setup --enablefips-mode-setup --enable -
マシンを再起動し、次のコマンドを実行して FIPS が正常に有効化されたかどうかを確認します。
fips-mode-setup --checkfips-mode-setup --check
すべてのノードで FIPS を有効にした後、cluster_config.jsonで fips_enabled_nodes パラメーターを true に設定する必要があります。詳細については、「 一般的な設定」を参照してください。
Insights は現在、FIPS 140-2 が有効化されたマシンではサポートされていません。FIPS 140-2 が有効化されたマシンに Automation Suite をインストールする際は、Insights を無効化してください。
FIPS 140-2 マシンで Automation Suite の使用を開始するために必要な追加手順の詳細については、「セキュリティのベスト プラクティス」をご覧ください。
任意: プロキシ サーバーを構成する
プロキシを構成するには、前提条件を満たす環境の設定、およびインストール時の高度な構成段階において、追加の構成手順を実行する必要があります。
環境設定時には、次の手順が必要になります。
現在、自己署名証明書による HTTPS プロキシはサポートしていません。プロキシを構成する場合は、必ず信頼された公開証明書を使用してください。
手順 1: 仮想ネットワーク上のポートを有効化する
指定の仮想ネットワークのネットワーク セキュリティ グループで、次のルールを有効化してください。
| ソース | ターゲット | プロキシ経由のルート | ポート | 説明 |
|---|---|---|---|---|
| 仮想ネットワーク | SQL | いいえ | SQL Server ポート | SQL Server に必要です。 |
| 仮想ネットワーク | ロード バランサー | いいえ | 9345 6443 | クラスターに新しいノードを追加するために必要です。 |
| 仮想ネットワーク | クラスター (サブネット) | いいえ | すべてのポート | プライベート IP 範囲での通信に必要です。 |
| 仮想ネットワーク | alm.<fqdn> | いいえ | 443 | ログインおよびデプロイ時に ArgoCD クライアントを使用するために必要です。 |
| 仮想ネットワーク | プロキシ サーバー | はい | すべてのポート | トラフィックをプロキシ サーバーにルーティングするために必要です。 |
| 仮想ネットワーク | NameServer | いいえ | すべてのポート | Azure や AWS など、ほとんどのクラウド サービスでは、これを使用して仮想マシンのメタデータを取得し、これをプライベート IP と見なします。 |
| 仮想ネットワーク | MetaDataServer | いいえ | すべてのポート | Azure や AWS など、ほとんどのクラウド サービスでは、IP アドレス 169.254.169.254 を使用してマシンのメタデータを取得します。 |
手順 2: 各ノードにプロキシ構成を追加する
ノードの構成時に、クラスターに含まれる各ノードに対してプロキシ構成を追加する必要があります。この手順は、ノードからのアウトバウンド トラフィックをプロキシ サーバー経由でルーティングするために必要です。
-
/etc/environmentに、次の構成を追加します。http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server> -
/etc/wgetrcに、次の構成を追加します。http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT> no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>必須パラメーター 説明 http_proxyノードからの HTTP アウトバウンド要求をルーティングするために使用します。これはプロキシ サーバーの FQDN とポートとする必要があります。 https_proxyノードからの HTTPS アウトバウンド要求をルーティングするために使用します。これはプロキシ サーバーの FQDN とポートとする必要があります。 no_proxyプロキシ サーバー経由でルーティングしてはならないホストと IP アドレスのコンマ区切りリストです。これには以下を含める必要があります: alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>
•metadata server address- ほとんどのクラウド サービス (Azure、AWS) は、169.254.169.254を使用してマシン メタデータを取得します。
•named server address- ほとんどのクラウド サービス (Azure、AWS) で DNS クエリを解決するために使用されます。
AI Center を外部 Orchestrator で使用する場合は、外部の Orchestrator ドメインをno_proxyリストに追加します。 -
次のコマンドを実行して、プロキシ設定が適切に構成されていることを検証します。
curl -v $HTTP_PROXY curl -v <fixed_rke_address>:9345curl -v $HTTP_PROXY curl -v <fixed_rke_address>:9345重要:プロキシ サーバーの要件が満たされたら、インストール時のプロキシ構成を進めるようにしてください。「任意: プロキシ サーバーを構成する」の手順に従い、プロキシ サーバーを適切に設定してください。