automation-suite
2.2510
true
- 概要
- 要件
- デプロイ テンプレート
- 手動: インストールを準備する
- 手動: インストールを準備する
- 手順 2: オフライン インストール用に OCI 準拠レジストリを設定する
- 手順 3: 外部 ObjectStore を構成する
- 手順 4: High Availability Add-on を構成する
- 手順 5: SQL データベースを構成する
- 手順 7: DNS を構成する
- 手順 8: ディスクを構成する
- 手順 9: カーネルと OS レベルの設定を構成する
- 手順 10: ノード ポートを構成する
- 手順 11: その他の設定を適用する
- 手順 12: 必要な RPM パッケージを検証してインストールする
- Cluster_config.json のサンプル
- 全般的な構成
- プロファイル構成
- 証明書の設定
- データベースの構成
- 外部 ObjectStore の構成
- 署名済み URL の構成
- ArgoCD の構成
- Kerberos 認証の構成
- 外部の OCI 準拠レジストリの設定
- Disaster Recovery - アクティブ/パッシブおよびアクティブ/アクティブの構成
- High Availability Add-on の構成
- Orchestrator 固有の設定
- Insights 固有の構成
- Process Mining 固有の構成
- Document Understanding 固有の構成
- Automation Suite ロボット固有の構成
- AI Center 固有の構成
- 監視の構成
- 任意: プロキシ サーバーを構成する
- 任意: マルチノードの HA 対応の運用クラスターにおけるゾーン障害に対する復元設定を有効化する
- 任意: カスタムの Resolv.con を渡す
- 任意: フォールト トレランスを向上させる
- GPU がサポートされた専用のエージェント ノードを追加する
- Automation Suite ロボット専用のエージェント ノードを追加する
- 手順 15: オフライン インストール用に一時的な Docker レジストリを設定する
- 手順 16: インストールの前提条件を検証する
- 手動: インストールを実行する
- インストール後
- クラスターの管理
- 製品を管理する
- Cluster Administration ポータルの利用を開始する
- 外部 NFS サーバーを設定する
- バックアップ ストアを構成する
- クラスターをバックアップする
- その他の設定
- バックアップを復元する
- クラスター内の High Availability Add-on から外部の High Availability Add-on に Redis を移行する
- ObjectStore 間でデータを移行する
- クラスター内の ObjectStore から外部 ObjectStore に移行する
- クラスター内のレジストリから外部の OCI 準拠レジストリに移行する
- シングルノード (評価) デプロイからマルチノード (HA) デプロイへのスケーリング
- 監視とアラート機能
- 移行とアップグレード
- 製品固有の設定
- ベスト プラクティスとメンテナンス
- トラブルシューティング
- インストール時にサービスをトラブルシューティングする方法
- クラスターをアンインストールする方法
- オフライン成果物をクリーンアップしてディスク領域を改善する方法
- Redis データをクリアする方法
- Istio ログを有効化する方法
- ログを手動でクリーンアップする方法
- sf-logs バケットに保存されている古いログをクリーンアップする方法
- AI Center のストリーミング ログを無効化する方法
- 失敗した Automation Suite インストールをデバッグする方法
- アップグレード後に古いインストーラーからイメージを削除する方法
- TX チェックサム オフロードを無効化する方法
- ArgoCD のログ レベルを手動で Info に設定する方法
- AI Center のストレージを拡張する方法
- 外部レジストリーのエンコードされたpull_secret_valueを生成する方法
- TLS 1.2 で弱い暗号に対処する方法
- TLSのバージョンを確認する方法
- 証明書の操作方法
- Ceph のバックアップとデータの復元をスケジュールする方法
- クラスター内の ObjectStore (Ceph) を使用して DU の使用状況データを収集する方法
- エアギャップ環境に RKE2 SELinux をインストールする方法
- How to clean up old differential backups on an NFS server
- バンドルのダウンロード中のエラー
- バイナリがないため、オフライン インストールが失敗する
- オフライン インストールでの証明書の問題
- SQL 接続文字列の検証エラー
- Azure ディスクが SSD としてマークされない
- 証明書の更新後のエラー
- ウイルス対策が原因でインストールの問題が発生する
- OS のアップグレード後に Automation Suite が動作しない
- Automation Suite で backlog_wait_time を 0 に設定する必要がある
- RHEL 8.9 でレジストリの一時インストールが失敗する
- オフライン インストール中に uipath 名前空間のデプロイで頻繁に発生する再起動の問題
- DNS 設定が CoreDNS によって受け入れられない
- Ceph の異常によりアップグレードが失敗する
- 領域の問題のために rke2 が開始しない
- Orchestrator データベース内のクラシック オブジェクトが原因でアップグレードが失敗する
- Ceph クラスターがサイドバイサイド アップグレード後に機能低下ステートで検出される
- Apps のサービス アップグレードの失敗
- インプレース アップグレードのタイムアウト
- オフライン環境でアップグレードが失敗する
- アップグレード後に snapshot-controller-crds ポッドが CrashLoopBackOff ステートになる
- Insights の PVC サイズが上書きされたためにアップグレードが失敗する
- 管理ポータルのタイムアウト期間を設定する
- 移行後に認証が機能しない
- Kinit: Cannot find KDC for realm <AD Domain> while getting initial credentials
- kinit: Keytab contains no suitable keys for *** while getting initial credentials
- 無効なステータス コードが原因で GSSAPI 操作が失敗した
- Alarm received for failed kerberos-tgt-update job
- SSPI Provider: Server not found in Kerberos database
- アカウントが無効なため AD ユーザーのログインに失敗した
- ArgoCD へのログインに失敗した
- 基になるディレクトリ接続を更新する
- Process Mining で高可用性を実行する
- Kerberos を使用してログインすると、Process Mining を取り込むことができなかった
- pyodbc 形式の接続文字列を使用して AutomationSuite_ProcessMining_Warehouse データベースに接続できない
- Airflow のインストールが「sqlalchemy.exc.ArgumentError: Could not parse rfc1738 URL from string ''」で失敗する
- SQL Server ポート 1433 を使用する IP テーブル ルールを追加する方法
- CData Sync を実行しているサーバーの Automation Suite の証明書が信頼されない
- 診断ツールを実行する
- Automation Suite サポート バンドルを使用する
- ログを確認する
- 要約されたテレメトリを確認する
重要 :
このコンテンツの一部は機械翻訳によって処理されており、完全な翻訳を保証するものではありません。
新しいコンテンツの翻訳は、およそ 1 ~ 2 週間で公開されます。

Linux の Automation Suite のインストール ガイド
最終更新日時 2025年11月13日
クラスターをバックアップおよび復元するには、 を使用して、クラスター スナップショットの場所を Automation Suite クラスターに対して指定する必要があります
cluster_config.json。
スケジュールされたバックアップを有効化したり、オンデマンド バックアップを作成したりする前に、
cluster_config.json に以下の変更を加えます。
この情報は、Automation Suite クラスターのインストール中に指定することも、後からインストール後の操作としてクラスターの有効化やバックアップの作成時に指定することもできます。
cluster_config.json例
- NFS サーバーのバックアップには、次の
cluster_config.jsonサンプルを使用します。
{
//... cluster_config.json
"snapshot": {
"enabled": true,
"nfs": {
"server": "nfs_server_endpoint",
"location": "nfs_server_mountpoint"
}
}
}{
//... cluster_config.json
"snapshot": {
"enabled": true,
"nfs": {
"server": "nfs_server_endpoint",
"location": "nfs_server_mountpoint"
}
}
}cluster_config.json
|
キー |
値 (Value) |
|---|---|
|
|
スナップショットの保存場所の FQDN または IP アドレス (
mynfs.mycompany.com や 192.23.222.81など) です。
|
|
| NFS サーバーのパス。「 手順 2: マウント パスを構成する」の手順に従って作成されたマウント パスです。 十分な権限があり、ディレクトリ構造が既に存在していることを確認してください。
注:
重要:
Amazon EFS を NFS 互換ストレージとして使用する場合は、
location 値を EFS マウントのルートディレクトリ (/) に設定する必要があります。
サブディレクトリ (
/asbackupなど) の使用はサポートされておらず、マウント操作が失敗します。
|
- 外部 ObjectStore のバックアップには、次の
cluster_config.jsonサンプルを使用します。
{
//... cluster_config.json
"snapshot": {
"enabled": true,
"external_object_storage": {
"bucket_name": "<s3_bucket_used_for_backup>",
"storage_type": "s3",
"region": "<s3_bucket_region>"
}
}
}{
//... cluster_config.json
"snapshot": {
"enabled": true,
"external_object_storage": {
"bucket_name": "<s3_bucket_used_for_backup>",
"storage_type": "s3",
"region": "<s3_bucket_region>"
}
}
}cluster_config.json パラメーター
キー 値 (Value) bucket_nameスナップショットを保存する S3 バケットの名前です。 arn
S3 に接続するための ARN です。
バックアップ ObjectStore に接続するために必要な権限をノードが持っている場合、ARN は必要ありません。持っていない場合は、必要な権限を持つ IAM ロールを作成して ARN を追加してください。
regionS3 が存在するリージョンです。
{
//... cluster_config.json
"snapshot" : {
"external_object_storage": {
"client_secret": "<azure_service_principal_client_secret>",
"resource_group": "<azure_resource_group_with_storage_account>",
"auth_mode": "ServicePrincipal",
"account_name": "<azure_storage_account_name>",
"account_key": "<azure_storage_account_key>"
"bucket_name": "<azure_container_name>",
"client_id": "<azure_service_principal_id>",
"subscription_id": "<azure_subscription_id>",
"cloud_name": "AzurePublicCloud",
},
"aks_infra_resource_group":"<azure_infra_resource_group>"
}
}{
//... cluster_config.json
"snapshot" : {
"external_object_storage": {
"client_secret": "<azure_service_principal_client_secret>",
"resource_group": "<azure_resource_group_with_storage_account>",
"auth_mode": "ServicePrincipal",
"account_name": "<azure_storage_account_name>",
"account_key": "<azure_storage_account_key>"
"bucket_name": "<azure_container_name>",
"client_id": "<azure_service_principal_id>",
"subscription_id": "<azure_subscription_id>",
"cloud_name": "AzurePublicCloud",
},
"aks_infra_resource_group":"<azure_infra_resource_group>"
}
}
cluster_config.jsonパラメーター
キー 値 (Value) bucket_nameスナップショットを保存するための Azure Storage アカウント内のコンテナーの名前です。 resource_groupスナップショットを保存する対象の Azure Storage アカウントが存在するリソース グループです。 auth_modeServicePrincipal に設定されている必要があります。client_idサービス プリンシパル認証のクライアント ID です。 client_secretサービス プリンシパル ベースの認証のクライアント シークレットです。 account_nameスナップショットをバックアップする Azure Storage アカウントの名前です。 account_key
スナップショットをバックアップする必要がある Azure Storage アカウントのアクセス キーです。
このパラメーターは任意です。
cloud_name
既定値は AzurePublicCloud です。
AzureUSGovernmentCloud、AzureChinaCloud、AzureGermanCloud のいずれかに適宜変更します。
subscription_idバックアップを保存する Azure Storage アカウントが保存されているサブスクリプション ID です。 aks_infra_resource_group
AKS クラスターのマシンとその他のリソースが作成されるリソース グループです。通常は Azure によって作成、管理され、名前の先頭に MC_ が付きます。
他の値はバックアップおよび復元中に変わらない可能性がありますが、この値は復元中に変更されます。これは、新しい AKS クラスターの Kubernetes リソースがプロビジョニングされる新しいリソース グループである必要があります。
注: Azure での認証用のサービス プリンシパルを作成するには、Microsoft のドキュメントをご覧ください。
ローカル ディスクのバックアップには、次の cluster_config.json サンプルを使用します。
{
//... cluster_config.json
"snapshot": {
"enabled": true,
"local_disk": {
"path": "/backup"
}
}
}{
//... cluster_config.json
"snapshot": {
"enabled": true,
"local_disk": {
"path": "/backup"
}
}
}
cluster_config.json パラメーター
キー 値 (Value) pathスナップショットを保存するローカル ディレクトリです。
前のセクションの説明に従って
cluster_config.jsonに変更を加えた後、次のコマンドを実行して設定を適用します。
-
NFS サーバーおよびローカル ディスク構成の場合:
./bin/uipathctl manifest apply cluster_config.json --only velero,rke2-backup-hook --versions versions/helm-charts.json./bin/uipathctl manifest apply cluster_config.json --only velero,rke2-backup-hook --versions versions/helm-charts.json - 外部オブジェクトストア構成の場合:
./bin/uipathctl manifest apply cluster_config.json --only velero --versions versions/helm-charts.json./bin/uipathctl manifest apply cluster_config.json --only velero --versions versions/helm-charts.json