- 概要
- 要件
- デプロイ テンプレート
- 手動: インストールを準備する
- 手動: インストールを準備する
- 手順 2: オフライン インストール用に OCI 準拠レジストリを設定する
- 手順 3: 外部 ObjectStore を構成する
- 手順 4: High Availability Add-on を構成する
- 手順 5: SQL データベースを構成する
- 手順 7: DNS を構成する
- 手順 8: ディスクを構成する
- 手順 9: カーネルと OS レベルの設定を構成する
- 手順 10: ノード ポートを構成する
- 手順 11: その他の設定を適用する
- 手順 12: 必要な RPM パッケージを検証してインストールする
- Cluster_config.json のサンプル
- 全般的な構成
- プロファイル構成
- 証明書の設定
- データベースの構成
- 外部 ObjectStore の構成
- 署名済み URL の構成
- ArgoCD の構成
- Kerberos 認証の構成
- 外部の OCI 準拠レジストリの設定
- Disaster Recovery - アクティブ/パッシブおよびアクティブ/アクティブの構成
- High Availability Add-on の構成
- Orchestrator 固有の設定
- Insights 固有の構成
- Process Mining 固有の構成
- Document Understanding 固有の構成
- Automation Suite ロボット固有の構成
- AI Center 固有の構成
- 監視の構成
- 任意: プロキシ サーバーを構成する
- 任意: マルチノードの HA 対応の運用クラスターにおけるゾーン障害に対する復元設定を有効化する
- 任意: カスタムの Resolv.con を渡す
- 任意: フォールト トレランスを向上させる
- GPU がサポートされた専用のエージェント ノードを追加する
- Automation Suite ロボット専用のエージェント ノードを追加する
- 手順 15: オフライン インストール用に一時的な Docker レジストリを設定する
- 手順 16: インストールの前提条件を検証する
- 手動: インストールを実行する
- インストール後
- クラスターの管理
- 製品を管理する
- Cluster Administration ポータルの利用を開始する
- 外部 NFS サーバーを設定する
- バックアップ ストアを構成する
- クラスターをバックアップする
- その他の設定
- バックアップを復元する
- クラスター内の High Availability Add-on から外部の High Availability Add-on に Redis を移行する
- ObjectStore 間でデータを移行する
- クラスター内の ObjectStore から外部 ObjectStore に移行する
- クラスター内のレジストリから外部の OCI 準拠レジストリに移行する
- シングルノード (評価) デプロイからマルチノード (HA) デプロイへのスケーリング
- 監視とアラート機能
- 移行とアップグレード
- 製品固有の設定
- ベスト プラクティスとメンテナンス
- トラブルシューティング
- インストール時にサービスをトラブルシューティングする方法
- クラスターをアンインストールする方法
- オフライン成果物をクリーンアップしてディスク領域を改善する方法
- Redis データをクリアする方法
- Istio ログを有効化する方法
- ログを手動でクリーンアップする方法
- sf-logs バケットに保存されている古いログをクリーンアップする方法
- AI Center のストリーミング ログを無効化する方法
- 失敗した Automation Suite インストールをデバッグする方法
- アップグレード後に古いインストーラーからイメージを削除する方法
- TX チェックサム オフロードを無効化する方法
- ArgoCD のログ レベルを手動で Info に設定する方法
- AI Center のストレージを拡張する方法
- 外部レジストリーのエンコードされたpull_secret_valueを生成する方法
- TLS 1.2 で弱い暗号に対処する方法
- TLSのバージョンを確認する方法
- 証明書の操作方法
- Ceph のバックアップとデータの復元をスケジュールする方法
- クラスター内の ObjectStore (Ceph) を使用して DU の使用状況データを収集する方法
- エアギャップ環境に RKE2 SELinux をインストールする方法
- NFS サーバー上の古い差分バックアップをクリーンアップする方法
- バンドルのダウンロード中のエラー
- バイナリがないため、オフライン インストールが失敗する
- オフライン インストールでの証明書の問題
- SQL 接続文字列の検証エラー
- Azure ディスクが SSD としてマークされない
- 証明書の更新後のエラー
- ウイルス対策が原因でインストールの問題が発生する
- OS のアップグレード後に Automation Suite が動作しない
- Automation Suite で backlog_wait_time を 0 に設定する必要がある
- RHEL 8.9 でレジストリの一時インストールが失敗する
- オフライン インストール中に uipath 名前空間のデプロイで頻繁に発生する再起動の問題
- DNS 設定が CoreDNS によって受け入れられない
- Ceph の異常によりアップグレードが失敗する
- 領域の問題のために rke2 が開始しない
- Orchestrator データベース内のクラシック オブジェクトが原因でアップグレードが失敗する
- Ceph クラスターがサイドバイサイド アップグレード後に機能低下ステートで検出される
- Apps のサービス アップグレードの失敗
- インプレース アップグレードのタイムアウト
- オフライン環境でアップグレードが失敗する
- アップグレード後に snapshot-controller-crds ポッドが CrashLoopBackOff ステートになる
- Insights の PVC サイズが上書きされたためにアップグレードが失敗する
- 管理ポータルのタイムアウト期間を設定する
- 移行後に認証が機能しない
- Kinit: Cannot find KDC for realm <AD Domain> while getting initial credentials
- kinit: Keytab contains no suitable keys for *** while getting initial credentials
- 無効なステータス コードが原因で GSSAPI 操作が失敗した
- Alarm received for failed kerberos-tgt-update job
- SSPI Provider: Server not found in Kerberos database
- アカウントが無効なため AD ユーザーのログインに失敗した
- ArgoCD へのログインに失敗した
- 基になるディレクトリ接続を更新する
- Process Mining で高可用性を実行する
- Kerberos を使用してログインすると、Process Mining を取り込むことができなかった
- pyodbc 形式の接続文字列を使用して AutomationSuite_ProcessMining_Warehouse データベースに接続できない
- Airflow のインストールが「sqlalchemy.exc.ArgumentError: Could not parse rfc1738 URL from string ''」で失敗する
- SQL Server ポート 1433 を使用する IP テーブル ルールを追加する方法
- CData Sync を実行しているサーバーの Automation Suite の証明書が信頼されない
- 診断ツールを実行する
- Automation Suite サポート バンドルを使用する
- ログを確認する
- 要約されたテレメトリを確認する

Linux の Automation Suite のインストール ガイド
NFS サーバーは、任意のマシンと好みの OS 上でセットアップできます。また、クラウド プロバイダーが提供する任意の PaaS サービスを使用することもできます。Windows ベースの NFS および Azure BLOB ベースの NFS はサポートされませんので、ご注意ください。
このドキュメントでは、NFS サーバーを RHEL オペレーティング システム上に構成するための手順を説明します。
- この設定では、クラスターのバックアップのみが有効化されます。これには、クラスター構成と、サーバー マシンに接続されている
/datadisk内のクラスター内ブロック ストレージや ObjectStore データ ディスクの一部として保存されるデータが含まれます。ただし、SQL データベースや外部 ObjectStore などの外部データ ソースのバックアップは有効化されません。外部データ ソースのバックアップは、別途有効化する必要があります。
- バックアップを有効化した後に新しいサーバー ノードを追加する場合は、新しいノードへのアクセスを許可するように NFS サーバーを構成してください。
バックアップと復元の機能を設定するには、次の要件を満たす必要があります。
-
Linux では NFSv3 または NFSv4 を使用する必要があります。
- NFS サーバーは、バックアップおよび復元クラスターの外部でホストされた別個のマシンに設定する必要があります。
- NFS サーバーと、バックアップおよび復元クラスターとの間に10 ミリ秒を超える往復時間 (RTT) のレイテンシがあってはなりません。
- バックアップするクラスターと NFS サーバーは同じリージョンにある必要があります。
-
NFS サーバーは、次のハードウェア要件を満たす必要があります。
CPU
RAM
ディスク
4 (v-)CPU
8 GB
1 TB SSD (1100 IOPS)
- NFS サーバーには、すべてのクラスター ノードから到達できる必要があります。
-
NFS サーバーと、バックアップ クラスター内のすべてのノードで、以下のポートを有効化する必要があります。クラスターを復元する場合、復元クラスターのすべてのノードで同じポートを開く必要があります。
ポート
プロトコル
目的
2049TCP
NFS サーバーとバックアップおよび復元クラスター間の双方向通信。
これは、NFS サーバーが実行されるポートです。
111TCP
NFS サーバーとバックアップおよび復元クラスター間の双方向通信。
このポートは、NFS サーバーとバックアップと復元クラスター間の rpcbind に使用されます。
手順 1: NFS ライブラリをインストールする
nfs-utils ライブラリをインストールするには、以下を実行します。
dnf install nfs-utils -y
systemctl start nfs-server.service
systemctl enable nfs-server.servicednf install nfs-utils -y
systemctl start nfs-server.service
systemctl enable nfs-server.service手順 2: マウント パスを構成する
/asbackupです。 別のパスを使用する場合は、 /asbackup 適宜置き換えます。
mountPath="/asbackup"
mkdir -p $mountPath $mountPath/asetcdbackup
chown -R nobody: "$mountPath"
chmod -R 777 "$mountPath"
systemctl restart nfs-utils.servicemountPath="/asbackup"
mkdir -p $mountPath $mountPath/asetcdbackup
chown -R nobody: "$mountPath"
chmod -R 777 "$mountPath"
systemctl restart nfs-utils.service手順 3: firewalld を構成する
Firewalld は、ネットワークとファイアウォールのルールを管理するセキュリティ ライブラリです。
firewalld を無効化するには、以下を実行します。
systemctl stop firewalld
systemctl disable firewalldsystemctl stop firewalld
systemctl disable firewalldまたは、すべてのマシンの IP アドレスを firewalld の許可リストに追加することもできます。詳細については、「ゾーンを使用し、ソースに応じた着信トラフィックの管理」をご覧ください。
すべてのバックアップ ノードと復元ノードが、NFS のマウント パスにアクセスできる必要があります。
アクセスを提供するには、次の手順に従います。
- NFS サーバーの
/etc/exportsファイルに移動します。 - バックアップ クラスターと復元クラスターの両方について、各ノード (サーバーとエージェント) の FQDN のエントリを追加します。必ず、
mountpath fqdn-of-node(rw,sync,no_all_squash,root_squash)の形式を使用してください。
例:
/etc/exports ファイルにエントリを追加する方法を示します。このエントリは、クラスター内のノードの FQDN と、そのマシン上の対応する権限を指定します。
echo "/asbackup node1.automationsuite.mycompany.com(rw,sync,no_all_squash,root_squash)" >> /etc/exportsecho "/asbackup node1.automationsuite.mycompany.com(rw,sync,no_all_squash,root_squash)" >> /etc/exportsマウント パスをエクスポートするには、次のコマンドを実行します。
exportfs -arv
exportfs -sexportfs -arv
exportfs -s