- 概要
- 要件
- インストール
- インストール後
- クラスターの管理
- 監視とアラート機能
- 移行とアップグレード
- 製品固有の設定
- ベスト プラクティスとメンテナンス
- トラブルシューティング
- インストール時にサービスをトラブルシューティングする方法
- クラスターをアンインストールする方法
- オフライン成果物をクリーンアップしてディスク領域を改善する方法
- Redis データをクリアする方法
- Istio ログを有効化する方法
- ログを手動でクリーンアップする方法
- sf-logs バケットに保存されている古いログをクリーンアップする方法
- AI Center のストリーミング ログを無効化する方法
- 失敗した Automation Suite インストールをデバッグする方法
- アップグレード後に古いインストーラーからイメージを削除する方法
- Longhorn のスナップショットを自動的にクリーンアップする方法
- TX チェックサム オフロードを無効化する方法
- ArgoCD のログ レベルを手動で Info に設定する方法
- 外部レジストリーのエンコードされたpull_secret_valueを生成する方法
- TLS 1.2 で弱い暗号に対処する方法
- 証明書の操作方法
- クラスター内の ObjectStore (Ceph) を使用して DU の使用状況データを収集する方法
- エアギャップ環境に RKE2 SELinux をインストールする方法
- RHEL 8.4 OS でオフライン インストールを実行できない
- バンドルのダウンロード中のエラー
- バイナリがないため、オフライン インストールが失敗する
- オフライン インストールでの証明書の問題
- Longhorn のセットアップ中に最初のインストールが失敗する
- SQL 接続文字列の検証エラー
- selinux iscsid モジュールの前提条件の確認が失敗する
- Azure ディスクが SSD としてマークされない
- 証明書の更新後のエラー
- ウイルス対策が原因でインストールの問題が発生する
- OS のアップグレード後に Automation Suite が動作しない
- Automation Suite で backlog_wait_time を 0 に設定する必要がある
- リソースが利用できないことの影響を受ける GPU ノード
- ワークロードの準備ができていないためボリュームをマウントできない
- サポート バンドルのログ収集の失敗
- 管理ポータルのタイムアウト期間を設定する
- 基になるディレクトリ接続を更新する
- 移行後に認証が機能しない
- Kinit: Cannot find KDC for realm <AD Domain> while getting initial credentials
- kinit: Keytab contains no suitable keys for *** while getting initial credentials
- 無効なステータス コードが原因で GSSAPI 操作が失敗した
- Alarm received for failed kerberos-tgt-update job
- SSPI Provider: Server not found in Kerberos database
- アカウントが無効なため AD ユーザーのログインに失敗した
- ArgoCD へのログインに失敗した
- サンドボックス イメージを取得できない
- ポッドが ArgoCD UI に表示されない
- Redis プローブの障害
- RKE2 サーバーの起動に失敗する
- UiPath 名前空間でシークレットが見つからない
- 初回インストール後に ArgoCD が進行中ステートになる
- ArgoCD の読み取り専用アカウントにアクセスする際の問題
- MongoDB ポッドが CrashLoopBackOff になるか、削除後に PVC プロビジョニングの保留中になる
- クラスターの復元またはロールバック後にサービスが異常になる
- Init:0/X でポッドがスタックする
- Prometheus が CrashloopBackoff ステートにあり、メモリ不足 (OOM) エラーを伴う
- Ceph-rook のメトリックが監視ダッシュボードに表示されない
- プロキシ環境でポッドが FQDN と通信できない
- アップグレード後にメール アラートを設定できない
- アップストリームに正常な問題はありません
- Automation Suite 診断ツールを使用する
- Automation Suite サポート バンドルを使用する
- ログを確認する

Linux の Automation Suite のインストール ガイド
cluster_config.json
ファイルは、Automation Suite を介してデプロイされる UiPath 製品に適用されるパラメーターや設定を定義します。クラスターに対する既定値を変更したり、何らかの高度な構成を使用したりする場合は、このファイルを更新する必要があります。
cluster_config.json
の編集には、次のいずれかを使用できます。
- vi や GNU nano などの Linux テキスト エディター。SSH を介して Linux マシン上で直接使用できます (コマンドの例:
vi cluster_config.json
)。 - お好みのテキスト エディター。その後、マシン上でファイルをコピー/ペーストします。
cluster_config.json
ファイルでは、デプロイする UiPath 製品を構成できます。製品が依存関係を持つ可能性があることに注意してください。詳しくは、「製品間の依存関係」をご覧ください。
cluster_config.json
ファイルによって製品を有効化または無効化するには、enabled
フラグに true
または false
を使用します。
{
"fqdn": "PLACEHOLDER",
"cluster_fqdn": "PLACEHOLDER",
"fixed_rke_address": "PLACEHOLDER",
"admin_username": "PLACEHOLDER",
"admin_password": "PLACEHOLDER",
"rke_token": "PLACEHOLDER ",
"zone_resilience": false,
"registries": {
"docker": {
"url": "registry.uipath.com"
},
"helm": {
"url": "registry.uipath.com"
}
},
"sql_connection_string_template": "PLACEHOLDER",
"sql_connection_string_template_jdbc": "PLACEHOLDER",
"sql_connection_string_template_odbc": "PLACEHOLDER",
"sql_connection_string_template_sqlalchemy_pyodbc": "PLACEHOLDER",
"orchestrator": {
"testautomation": {
"enabled": true
},
"updateserver": {
"enabled": true
},
"enabled": true
},
"infra": {
"docker_registry": {
"username": " PLACEHOLDER ",
"password": " PLACEHOLDER "
},
"pod_log_path": ""
},
"platform": {
"enabled": true
},
"automation_hub": {
"enabled": true
},
"automation_ops": {
"enabled": true
},
"action_center": {
"enabled": true
},
"aicenter": {
"enabled": true
},
"documentunderstanding": {
"enabled": true,
"datamanager": {}
},
"task_mining": {
"enabled": true
},
"apps": {
"enabled": true
},
"test_manager": {
"enabled": true
},
"insights": {
"enabled": true
},
"dataservice": {
"enabled": true
},
"asrobots": {
"enabled": true,
"packagecaching": true,
"packagecachefolder": "/uipath_asrobots_package_cache"
},
"processmining": {
"enabled": true
},
"external_object_storage": {
"enabled": false
},
"identity_certificate": {},
"profile": "ha",
"telemetry_optout": false,
"alternative_fqdn": "",
"server_certificate": {
"ca_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/rootCA.crt",
"tls_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/server.crt",
"tls_key_file": "/opt/UiPathAutomationSuite/UiPath_Installer/server.key"
},
"alternative_certificate": {
"ca_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-rootCA.crt",
"tls_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-server.crt",
"tls_key_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-server.key"
}
}
{
"fqdn": "PLACEHOLDER",
"cluster_fqdn": "PLACEHOLDER",
"fixed_rke_address": "PLACEHOLDER",
"admin_username": "PLACEHOLDER",
"admin_password": "PLACEHOLDER",
"rke_token": "PLACEHOLDER ",
"zone_resilience": false,
"registries": {
"docker": {
"url": "registry.uipath.com"
},
"helm": {
"url": "registry.uipath.com"
}
},
"sql_connection_string_template": "PLACEHOLDER",
"sql_connection_string_template_jdbc": "PLACEHOLDER",
"sql_connection_string_template_odbc": "PLACEHOLDER",
"sql_connection_string_template_sqlalchemy_pyodbc": "PLACEHOLDER",
"orchestrator": {
"testautomation": {
"enabled": true
},
"updateserver": {
"enabled": true
},
"enabled": true
},
"infra": {
"docker_registry": {
"username": " PLACEHOLDER ",
"password": " PLACEHOLDER "
},
"pod_log_path": ""
},
"platform": {
"enabled": true
},
"automation_hub": {
"enabled": true
},
"automation_ops": {
"enabled": true
},
"action_center": {
"enabled": true
},
"aicenter": {
"enabled": true
},
"documentunderstanding": {
"enabled": true,
"datamanager": {}
},
"task_mining": {
"enabled": true
},
"apps": {
"enabled": true
},
"test_manager": {
"enabled": true
},
"insights": {
"enabled": true
},
"dataservice": {
"enabled": true
},
"asrobots": {
"enabled": true,
"packagecaching": true,
"packagecachefolder": "/uipath_asrobots_package_cache"
},
"processmining": {
"enabled": true
},
"external_object_storage": {
"enabled": false
},
"identity_certificate": {},
"profile": "ha",
"telemetry_optout": false,
"alternative_fqdn": "",
"server_certificate": {
"ca_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/rootCA.crt",
"tls_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/server.crt",
"tls_key_file": "/opt/UiPathAutomationSuite/UiPath_Installer/server.key"
},
"alternative_certificate": {
"ca_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-rootCA.crt",
"tls_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-server.crt",
"tls_key_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-server.key"
}
}
必須パラメーター |
説明 |
---|---|
|
ロード バランサー (マルチノードの HA 対応の運用モード) またはマシン (シングルノード評価モード) のドメイン名です。 |
|
Fixed address used to load balance node registration and kube API requests. This should be fqdn if load balancer is configured as recommended. Otherwise FQDN of 1st Server Node. Refer to Configuring the load balancer. 設定内の最初の rke2 サーバーの IP/FQDN を指定できます。 |
|
マルチノードの HA 対応の運用プロファイルを選択する場合は、[
true ] に設定します。このフラグの値は、対話型インストーラーによって自動的に設定されます。内部目的にのみ使用されるものなので、手動で変更しないでください。 |
|
ホスト組織の管理者として設定するユーザー名 (admin など)。 |
|
設定されるホスト管理者パスワード。 |
|
ここには、新たに生成された GUID を使用します。これは、事前共有されるクラスター固有のシークレットです。クラスターに参加させる、すべてのノードで必要です。 |
|
インストールのプロファイルを設定します。使用可能なプロファイルは次のとおりです。
このフラグの値は、対話型インストーラーによって自動的に設定されます。内部目的にのみ使用されるものなので、手動で変更しないでください。 |
|
Docker レジストリのインストール用に設定するユーザー名。 |
|
Docker レジストリのインストール用に設定するパスワード。 |
任意パラメーター |
説明 |
---|---|
|
true または false - UiPath へのテレメトリ送信をオプトアウトするために使用します。既定では、false に設定されます。
オプトアウトする場合は、
true に設定してください。
|
|
ポッド ログの既定のパス
/var/log/pods を任意のカスタム パスに変更できます。
注:
ログのパスを更新すると、既存のコンテナーのログは
/var/log/pods から破棄されます。
|
インストール時に証明書を指定しない場合、インストーラーが自己発行の証明書を作成し、それをクラスターに設定します。
自己署名証明書の有効期間は 90 日です。
証明書を取得する方法の詳細については、以下をご覧ください。
pwd
を実行して、ファイルが配置されているディレクトリのパスを取得し、cluster_config.json
に記載された証明書ファイル名を付加します。
マルチノードの HA対応の運用環境のインストールでは、証明書は最初のノードに対してのみ必要です。
パラメーター |
説明 |
---|---|
|
証明機関 (CA) の証明書への絶対パスです。この証明機関は、TLS 証明書に署名する権威となります。CA バンドルには、TLS 証明書への署名に使用するチェーン証明書のみを含める必要があります。チェーンの証明書の制限は 9 個です。 自己署名証明書を使用している場合は、前に作成した
rootCA.crt へのパスを指定する必要があります。インストーラーで生成する場合は空白のままにします。
|
|
TLS 証明書への絶対パス (
server.crt は自己署名証明書)。インストーラーで生成する場合は空白のままにします。
|
|
証明書のキーへの絶対パス (
server.key は自己署名証明書)。インストーラーで生成する場合は空白のままにします。
|
|
トークンへの署名に使用する ID トークン署名証明書への絶対パス (
identity.pfx は自己署名証明書) です。サーバー証明書を使用して、インストーラーで ID 証明書を生成する場合は、空白のままにします。
|
|
ID トークン署名証明書をエクスポートする際に設定するプレーン テキストのパスワードです。 |
|
Automation Suite の一部として実行されるすべてのサービスに信頼させる、追加の CA 証明書を含むファイルへの絶対パス。ファイルに含まれるすべての証明書は、有効な
PEM 形式である必要があります。
たとえば、証明書が公的証明機関によって発行されていない場合、SQL Server の CA 証明書を含むファイルを指定する必要があります。 |
データベース作成ワークフロー
対話型インストーラーは、以下のワークフローを使用して自動的にデータベースを作成します。
-
対話型インストーラー スクリプトは、
cluster_config.json
ファイル内のsql.create_db
パラメーターの値を確認します。-
sql.create_db
パラメーターがtrue
に設定されている場合、インストーラーはユーザーに代わってすべてのデータベースを自動的に生成します。この場合、インストーラーは既定のデータベース名と既定のテンプレートを使用し、指定したカスタム データベース名はすべて無視します。For details, see Automatically create the necessary databases.
-
sql.create_db
がfalse
に設定されている場合は、独自のデータベースを利用する必要があります。この場合、データベースを手動で設定する必要があります。 カスタム データベース名を使用できるのは、提供されている命名規則に従っている場合です。 データベース名と接続テンプレートを組み合わせて使用してデータベース接続文字列を形成するため、この手順は重要です。 推奨される名前付け規則に従っていない場合は、SQL 接続文字列を自分で指定する必要があります。For details, see Bring your own databases.
-
-
対話型インストーラーは、次のように接続文字列を生成します。
-
サービスの接続文字列を定義しなかった場合、インストーラーは接続テンプレートを使用してすべてのデータベース接続文字列を生成します。
-
サービスの接続文字列を定義した場合、インストーラーはデータベースに指定された接続文字列を使用します。
-
必要なデータベースを自動作成する
インストーラーでデータベースを作成する場合は、cluster_config.json
ファイルの次のフィールドに入力します。
パラメーター |
説明 |
---|---|
|
インストーラーでデータベースを作成できるようにするには、
true に設定します。 インストーラーは既定のデータベース名と既定のテンプレートを使用し、指定したカスタム データベース名は無視することに注意してください。
|
|
インストーラーがデータベースを構成する SQL Server の FQDN。 |
|
SQL Server のデータベース インスタンスをホストするポートの番号です。 |
|
SQL Server に接続するユーザー名/ユーザー ID。 |
|
SQL Server に接続するために前に指定したユーザー名のパスワード。 |
-
ユーザーに
dbcreator
ロールが付与されていることを確認してください。このロールにより、SQL Server 上にデータベースを作成する権限が与えられます。この権限がないと、インストールに失敗します。 - ODBC 接続では、特殊文字を含むユーザー名はサポートされていません。AI Center、Document Understanding、Apps のデータベース ユーザー名に使用できるのは、英字 (大文字と小文字) のみです。
独自のデータベースを利用する
Automation Suite の新規インストールに独自のデータベースを利用する場合は、既存のデータベースを使用するのではなく、新しいデータベースをセットアップすることを強くお勧めします。この予防措置は、古いデータベースのメタデータが残っているために、Automation Suite の動作との競合が発生するのを防ぐために必要です。
独自のデータベースを使用する場合は、すべてのデータベースに対して SQL 接続文字列を指定する必要があります。Automation Suite では、次の形式の SQL 接続文字列をサポートしています。
パラメーター |
説明 |
製品 |
---|---|---|
|
カタログ名を DB_NAME_PLACEHOLDER に設定した ADO.NET の完全な接続文字列。インストーラーは、このプレースホルダーを、インストールするスイートのサービスの既定データベース名に置き換えます。 |
Platform、Orchestrator、Automation Suite ロボット、Test Manager、Automation Hub、Automation Ops、Insights、Task Mining、Data Service、Process Mining, Document Understanding |
|
データベース名を DB_NAME_PLACEHOLDER に設定した JDBC の完全な接続文字列。インストーラーは、このプレースホルダーを、インストールするスイートのサービスの既定データベース名に置き換えます。 |
AI Center 1 |
|
データベース名を DB_NAME_PLACEHOLDER に設定した ODBC の完全な接続文字列。インストーラーは、このプレースホルダーを、インストールするスイートのサービスの既定データベース名に置き換えます。 |
Document Understanding、Apps |
|
データベース名を DB_NAME_PLACEHOLDER に設定した SQLAlchemy PYODBC の完全な接続文字列。インストーラーは、このプレースホルダーを、インストールするスイートのサービスの既定データベース名に置き換えます。 |
Process Mining |
sql_connection_string_template_jdbc
に encrypt=true;trustServerCertificate=false;fips=true;
を追加する必要があります。
db_securityadmin
ロールと db_owner
ロールが付与されていることを確認してください。セキュリティの制約により db_owner
の使用が許可されない場合は、すべてのデータベースに対する次のロールと権限を SQL アカウントに付与する必要があります。
db_securityadmin
db_ddladmin
db_datawriter
db_datareader
- dbo スキーマに対する
EXECUTE
権限
db_securityadmin
ロールと db_ddladmin
ロールは、インストール中、またはデータベースが再プロビジョニングされる場合にのみ使用されます。このため、ユーザーはこの権限を後で取り消すことができます。
db_owner
ロールを割り当てる必要があります。
構成ファイルに接続文字列を手動で設定する場合、次の方法で SQL、JDBC、ODBC、または PYODBC のパスワードをエスケープできます。
- SQL の場合: パスワードの最初と末尾に
'
を追加し、他の'
を 2 個に増やします。 - JDBC/ODBC の場合: パスワードの先頭に
{
を追加し、末尾に}
を追加し、他のすべての}
を 2 個に増やします。 - PYODBC の場合:
username
とpassword
は、特殊文字を考慮して URL エンコードする必要があります。 Document Understanding データベースのパスワードを{
で始めることはできません。
AutomationSuite_ProcessMining_Airflow
データベースで READ_COMMITTED_SNAPSHOT
が有効化されている必要があります。
TrustServerCertificate
は False
に設定されており、SQL Server 用に追加の CA 証明書を指定する必要があります。SQL Server の証明書が自己署名証明書の場合、または社内 CA によって署名された証明書の場合はこれが必須になります。このシナリオで SQL Server の証明書を指定しないと、前提条件の確認が失敗します。
See Certificate configuration on this page for more details.
sql_connection_string_template の例
Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net:1433;Initial Catalog=DB_NAME_PLACEHOLDER;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;
Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net:1433;Initial Catalog=DB_NAME_PLACEHOLDER;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;
sql_connection_string_template_jdbc の例
jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net:1433;database=DB_NAME_PLACEHOLDER;user=testadmin;password=***;encrypt=true;trustServerCertificate=false;Connection Timeout=30;hostNameInCertificate=sfdev1804627-c83f074b-sql.database.windows.net"
jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net:1433;database=DB_NAME_PLACEHOLDER;user=testadmin;password=***;encrypt=true;trustServerCertificate=false;Connection Timeout=30;hostNameInCertificate=sfdev1804627-c83f074b-sql.database.windows.net"
sql_connection_string_template_odbc の例
SERVER=sfdev1804627-c83f074b-sql.database.windows.net,1433;DATABASE=DB_NAME_PLACEHOLDER;DRIVER={ODBC Driver 17 for SQL Server};UID=testadmin;PWD=***;MultipleActiveResultSets=False;Encrypt=YES;TrustServerCertificate=NO;Connection Timeout=30;"
SERVER=sfdev1804627-c83f074b-sql.database.windows.net,1433;DATABASE=DB_NAME_PLACEHOLDER;DRIVER={ODBC Driver 17 for SQL Server};UID=testadmin;PWD=***;MultipleActiveResultSets=False;Encrypt=YES;TrustServerCertificate=NO;Connection Timeout=30;"
sql_connection_string_template_sqlalchemy_pyodbc の例
mssql+pyodbc://testuser%40sfdev3082457-sql.database.windows.net:_-%29X07_%5E3-%28%3B%25e-T@sfdev3082457-sql.database.windows.net:1433/DB_NAME_PLACEHOLDER?driver=ODBC+Driver+17+for+SQL+Server"
mssql+pyodbc://testuser%40sfdev3082457-sql.database.windows.net:_-%29X07_%5E3-%28%3B%25e-T@sfdev3082457-sql.database.windows.net:1433/DB_NAME_PLACEHOLDER?driver=ODBC+Driver+17+for+SQL+Server"
sql_connection_string_template と sql_connection_string_template_sqlalchemy_pyodbc の例 (Process Mining)
"sql_connection_string_template": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=DB_NAME_PLACEHOLDER;Persist Security Info=False;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='***';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
"sql_connection_string_template_sqlalchemy_pyodbc": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:07%3Cl%5Bxj-%3D~%3Az%60Ds%26nl@sfdev4515230-sql.database.windows.net:1433/DB_NAME_PLACEHOLDER?driver=ODBC+Driver+17+for+SQL+Server"
"sql_connection_string_template": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=DB_NAME_PLACEHOLDER;Persist Security Info=False;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='***';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
"sql_connection_string_template_sqlalchemy_pyodbc": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:07%3Cl%5Bxj-%3D~%3Az%60Ds%26nl@sfdev4515230-sql.database.windows.net:1433/DB_NAME_PLACEHOLDER?driver=ODBC+Driver+17+for+SQL+Server"
Automation Suite サービスの既定および任意のデータベース名。
{
"orchestrator": "AutomationSuite_Orchestrator",
"orchestrator_ta": "AutomationSuite_Orchestrator",
"asrobots": "AutomationSuite_Orchestrator",
"orchestrator_upd": "AutomationSuite_Platform",
"platform": "AutomationSuite_Platform",
"test_manager": "AutomationSuite_Test_Manager",
"automation_ops": "AutomationSuite_Platform",
"automation_hub": "AutomationSuite_Automation_Hub",
"insights": "AutomationSuite_Insights",
"task_mining": "AutomationSuite_Task_Mining",
"dataservice": "AutomationSuite_DataService",
"aicenter": "AutomationSuite_AICenter",
"documentunderstanding": "AutomationSuite_DU_Datamanager",
"processmining_airflow": "AutomationSuite_Airflow",
"processmining_metadata": "AutomationSuite_ProcessMining_Metadata",
"processmining_warehouse": "AutomationSuite_ProcessMining_Warehouse",
"apps": "AutomationSuite_Apps",
}
{
"orchestrator": "AutomationSuite_Orchestrator",
"orchestrator_ta": "AutomationSuite_Orchestrator",
"asrobots": "AutomationSuite_Orchestrator",
"orchestrator_upd": "AutomationSuite_Platform",
"platform": "AutomationSuite_Platform",
"test_manager": "AutomationSuite_Test_Manager",
"automation_ops": "AutomationSuite_Platform",
"automation_hub": "AutomationSuite_Automation_Hub",
"insights": "AutomationSuite_Insights",
"task_mining": "AutomationSuite_Task_Mining",
"dataservice": "AutomationSuite_DataService",
"aicenter": "AutomationSuite_AICenter",
"documentunderstanding": "AutomationSuite_DU_Datamanager",
"processmining_airflow": "AutomationSuite_Airflow",
"processmining_metadata": "AutomationSuite_ProcessMining_Metadata",
"processmining_warehouse": "AutomationSuite_ProcessMining_Warehouse",
"apps": "AutomationSuite_Apps",
}
sql_connection_str
を設定します。
その場合も、インストーラーを実行する前に、これらのデータベースを手動で作成する必要があります。
Orchestrator とプラットフォーム用の既定の接続文字列をオーバーライドする
{
"orchestrator": {
"sql_connection_str": "Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net,1433;Initial Catalog=CustomOrchDB;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
},
"platform": {
"sql_connection_str": "Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net,1433;Initial Catalog=CustomIDDB;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
}
}
{
"orchestrator": {
"sql_connection_str": "Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net,1433;Initial Catalog=CustomOrchDB;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
},
"platform": {
"sql_connection_str": "Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net,1433;Initial Catalog=CustomIDDB;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
}
}
sql_connection_str
を設定します。この接続文字列は、対応する製品がサポートする形式である必要があります。
AI Center 用のデータベース接続文字列の設定例
パラメーター |
説明 |
---|---|
|
AI Center の JDBC 接続文字列 (JDBC 形式については以下を参照)。 |
"aicenter": {
"enabled": true,
"sql_connection_str": "jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net;database=aicenter;user=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;password=TFgID_9GsE7_P@srCQp0WemXX_euHQZJ"
}
"aicenter": {
"enabled": true,
"sql_connection_str": "jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net;database=aicenter;user=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;password=TFgID_9GsE7_P@srCQp0WemXX_euHQZJ"
}
Document Understanding の接続文字列のサンプル
"documentunderstanding": {
"enabled": true,
"sql_connection_str": "" // dotnet connection string,
"datamanager": {
"sql_connection_str": "" // odbc connection string
}
}
"documentunderstanding": {
"enabled": true,
"sql_connection_str": "" // dotnet connection string,
"datamanager": {
"sql_connection_str": "" // odbc connection string
}
}
オンライン インストールでは、手書き文字が常に有効です。
max_cpu_per-pod
の既定値は 2
ですが、必要に応じて調整できます。
Process Mining の接続文字列のサンプル
"processmining": {
"enabled": true,
"warehouse": {
"sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='***';Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://:@sfdev4515230-sql.database.windows.net:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes",
"master_sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=master;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:07%3Cl%5Bxj-%3D~%3Az%60Ds%26nl@sfdev4515230-sql.database.windows.net:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES"
"sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Metadata;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='***';Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
},
"processmining": {
"enabled": true,
"warehouse": {
"sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='***';Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://:@sfdev4515230-sql.database.windows.net:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes",
"master_sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=master;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://testadmin%40sfdev4515230-sql.database.windows.net:07%3Cl%5Bxj-%3D~%3Az%60Ds%26nl@sfdev4515230-sql.database.windows.net:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES"
"sql_connection_str": "Server=tcp:sfdev4515230-sql.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Metadata;User Id=testadmin@sfdev4515230-sql.database.windows.net;Password='***';Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
},
sql_connection_string_template_sqlalchemy_pyodbc
の名前と、独自のデータベースを利用するときに使用される PYODBC 接続文字列 sqlalchemy_pyodbc_sql_connection_str
の名前は異なることに注意してください。また、テンプレート SQL sql_connection_string_template
と、独自のデータベースを利用するときに使用される sql_connection_str
でも、接続文字列名が異なります。
cluster_config.json
ファイルの processmining
セクションにある接続文字列 sql_connection_str
と sqlalchemy_pyodbc_sql_connection_str
を使用してそのデータベースを設定した場合、テンプレート接続文字列 sql_connection_string_template
と sql_connection_string_template_sqlalchemy_pyodbc
は指定しても無視されます。
MultiSubnetFailover=True
はサポートされていません。Process Mining の接続文字列から MultiSubnetFailover=True
を削除してください。
app_security_mode
setting either a new SQL user is created for every Process Mining app by the system (app_security_mode="system_managed"
), or a single SQL user account is created that is used for all process apps (app_security_mode="single_account"
). Note that app_security_mode="system_managed"
is the default setting, and that this requires advanced permissions for the database user. See Configuring process app security.
Process Mining の接続文字列のサンプル
-
シナリオ: Kerberos 認証を使用した設定
"processmining": {
"enabled": true,
"warehouse": {
"sql_connection_str": "Server=tcp:assql2019.autosuitead.local,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes",
"master_sql_connection_str": "Server=tcp:assql2019.autosuitead.local,1433;Initial Catalog=master;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes"
},
"processmining": {
"enabled": true,
"warehouse": {
"sql_connection_str": "Server=tcp:assql2019.autosuitead.local,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes",
"master_sql_connection_str": "Server=tcp:assql2019.autosuitead.local,1433;Initial Catalog=master;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes"
},
Process Mining の接続文字列のサンプル
-
シナリオ: メタデータ データベースとデータ ウェアハウスで個別の SQL Server (非 Kerberos 認証) を使用する。
"processmining": {
"enabled": true,
"warehouse": {
"sql_connection_str": "Server=tcp:uipath-integration1.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;User Id=userid;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://userid:password@uipath-integration1.database.windows.net:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
"master_sql_connection_str": "Server=tcp:uipath-integration1.database.windows.net,1433;Initial Catalog=master;Persist Security Info=False;User Id=userid;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://userid:password@uipath-integration2.database.windows.net:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES"
"sql_connection_str": "Server=tcp:uipath-integration2.database.windows.net,1433;Initial Catalog=AutomationSuite_Airflow;Persist Security Info=False;User Id=userid;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
},
"processmining": {
"enabled": true,
"warehouse": {
"sql_connection_str": "Server=tcp:uipath-integration1.database.windows.net,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;User Id=userid;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://userid:password@uipath-integration1.database.windows.net:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
"master_sql_connection_str": "Server=tcp:uipath-integration1.database.windows.net,1433;Initial Catalog=master;Persist Security Info=False;User Id=userid;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://userid:password@uipath-integration2.database.windows.net:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES"
"sql_connection_str": "Server=tcp:uipath-integration2.database.windows.net,1433;Initial Catalog=AutomationSuite_Airflow;Persist Security Info=False;User Id=userid;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
},
Process Mining の接続文字列のサンプル
-
シナリオ: カスタム
app_security_mode
を使用する。
"processmining": {
"enabled": true,
"app_security_mode": "system_managed",
"warehouse": {
"sql_connection_str": "Server=tcp:assql2019.autosuitead.local,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes",
"master_sql_connection_str": "Server=tcp:assql2019.autosuitead.local,1433;Initial Catalog=master;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=YES"
},
"processmining": {
"enabled": true,
"app_security_mode": "system_managed",
"warehouse": {
"sql_connection_str": "Server=tcp:assql2019.autosuitead.local,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=yes",
"master_sql_connection_str": "Server=tcp:assql2019.autosuitead.local,1433;Initial Catalog=master;Persist Security Info=False;Integrated Security=true;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://:@assql2019.autosuitead.local:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES&Trusted_Connection=YES"
},
全般的な構成
Automation Suite では、独自の外部ストレージ プロバイダーを利用できます。以下のストレージ プロバイダーから選択できます。
- Azure
- AWS
- S3 互換
外部オブジェクト ストレージは、次のいずれかの方法で構成できます。
- インストール中に対話型インストーラーを使用する
- インストール後に
cluster_config.json
ファイルを使用する
- 署名付き URL を使用しても Automation Suite が正しく機能するためには、Automation Suite クラスター、ブラウザー、すべてのマシン (ワークステーションとロボット端末を含む) から外部 ObjectStore にアクセスできることを確認する必要があります。
-
キー管理サービスによるサーバー側の暗号化 (SSE-KMS) は、2014 年 1 月 30 日以降に作成されたリージョンにデプロイされた Automation Suite バケットでのみ有効化できます。
SSE-KMS 機能には、純粋な SignV4 API が必要です。2014 年 1 月 30 日より前に作成されたリージョンでは、SignV2 との下位互換性があるため、純粋な SignV4 API は使用されません。したがって、SSE-KMS は、通信に SignV4 を使用するリージョンでのみ機能します。それぞれのリージョンがプロビジョニングされた時期を確認するには、AWS のドキュメントをご覧ください。
cluster_config.json
のパラメーターを示します。
パラメーター |
Azure |
AWS |
S3 互換 |
説明 |
---|---|---|---|---|
|
|
|
|
独自のオブジェクト ストアを使用するかどうかを指定します。設定可能な値:
true および false 。
|
|
|
|
|
バケットをプロビジョニングするかどうかを指定します。設定可能な値:
true および false 。
|
|
|
|
|
構成するストレージ プロバイダーを指定します。この値は大文字と小文字が区別されます。 設定可能な値:
azure および s3 。
注: 多くの S3 ObjectStore では、Automation Suite クラスターからのトラフィックすべてに CORS を設定する必要があります。CORS ポリシーを ObjectStore レベルで設定して、クラスターの FQDN を許可する必要があります。
|
|
|
|
|
S3 サーバーの FQDN を指定します。AWS インスタンスおよび非インスタンス プロファイルの場合に必要です。 |
|
|
|
|
S3 ポートを指定します。AWS インスタンスおよび非インスタンス プロファイルの場合に必要です。 |
|
|
|
|
バケットをホストする AWS リージョンを指定します。AWS インスタンスおよび非インスタンス プロファイルの場合に必要です。 |
|
|
|
|
S3 アカウントのアクセス キーを指定します。AWS 非インスタンス プロファイルの場合にのみ必要です。 |
|
|
|
|
S3 アカウントのシークレット キーを指定します。AWS 非インスタンス プロファイルの場合にのみ必要です。 |
|
|
|
|
インスタンス プロファイルを使用するかどうかを指定します。AWS Identity and Access Management (IAM) インスタンス プロファイルは、Amazon Elastic Compute Cloud (EC2) インスタンス上で実行されるアプリケーションやサービスに対し、AWS リソースへのセキュリティで保護されたアクセスを付与します。AWS S3 を選択した場合は、インスタンス プロファイルにより、EC2 インスタンスは、明示的な AWS 資格情報 (アクセス キーなど) をインスタンスに保存することなく、S3 バケットと対話できます。 |
|
|
|
|
Azure Storage アカウントでマネージド ID を使用します。設定可能な値:
true および false 。
|
external_object_storage.bucket_name_prefix 1 |
|
|
|
バケット名のプレフィックスを指定します。AWS 非インスタンス プロファイルの場合は任意です。 |
external_object_storage.bucket_name_suffix 2 |
|
|
|
バケット名のサフィックスを指定します。AWS 非インスタンス プロファイルの場合は任意です。 |
|
|
|
|
Azure アカウント キーを指定します。非マネージド ID を使用する場合にのみ必要です。 |
|
|
|
|
Azure のアカウント名を指定します。 |
|
|
|
|
Azure FQDN のサフィックスを指定します。任意パラメーターです。 |
|
|
|
|
Azure クライアント ID を指定します。マネージド ID を使用する場合にのみ必要です。 |
bucket_name_prefix
と bucket_name_suffix
の両方で、プロバイダーの命名規則に従う必要があります。さらに、サフィックスとプレフィックスの合計長は 25 文字以下でなければならず、プレフィックスの末尾やサフィックスの先頭はハイフン (-
) であってはなりません。ハイフン (-) は自動的に追加されているからです。
製品固有の設定
「全般的な構成」セクションで説明しているパラメーターを使用して、Automation Suite の全般的な構成を更新できます。つまり、インストール済みの製品はすべて同じ構成を共有します。1 つ以上の製品を別の構成にする場合は、全般的な構成を上書きできます。その場合、外部オブジェクト ストレージを異なる設定で使用する製品を指定し、同じパラメーターを使用して構成を定義するだけです。インストール済みのその他の製品はすべて、引き続き全般的な構成を継承します。
以下の例では、Orchestrator の全般的な構成を上書きする方法を示します。
"external_object_storage": {
"enabled": false, // <true/false>
"create_bucket": true, // <true/false>
"storage_type": "s3", // <s3,azure,aws>
"fqdn": "", // <needed in the case of aws instance and non-instance profile>
"port": 443, // <needed in the case of aws instance and non-instance profile>
"region": "",
"access_key": "", // <needed in case of aws non instance profile>
"secret_key": "", // <needed in case of aws non instance profile>
"use_managed_identity": false, // <true/false>
"bucket_name_prefix": "",
"bucket_name_suffix": "",
"account_key": "", // <needed only when using non managed identity>
"account_name": "",
"azure_fqdn_suffix": "core.windows.net",
"client_id": "" // <optional field in case of managed identity>
},
"orchestrator": {
"external_object_storage": {
"enabled": false, // <true/false>
"create_bucket": true, // <true/false>
"storage_type": "s3", // <s3,azure>
"fqdn": "", // <needed in the case of aws instance and non-instance profile>
"port": 443, // <needed in the case of aws instance and non-instance profile>
"region": "",
"access_key": "", // <needed in case of aws non instance profile>
"secret_key": "", // <needed in case of aws non instance profile>
"use_managed_identity": false, // <true/false>
"bucket_name_prefix": "",
"bucket_name_suffix": "",
"account_key": "", // <needed only when using non managed identity>
"account_name": "",
"azure_fqdn_suffix": "core.windows.net",
"client_id": "" // <optional field in case of managed identity>
}
}
"external_object_storage": {
"enabled": false, // <true/false>
"create_bucket": true, // <true/false>
"storage_type": "s3", // <s3,azure,aws>
"fqdn": "", // <needed in the case of aws instance and non-instance profile>
"port": 443, // <needed in the case of aws instance and non-instance profile>
"region": "",
"access_key": "", // <needed in case of aws non instance profile>
"secret_key": "", // <needed in case of aws non instance profile>
"use_managed_identity": false, // <true/false>
"bucket_name_prefix": "",
"bucket_name_suffix": "",
"account_key": "", // <needed only when using non managed identity>
"account_name": "",
"azure_fqdn_suffix": "core.windows.net",
"client_id": "" // <optional field in case of managed identity>
},
"orchestrator": {
"external_object_storage": {
"enabled": false, // <true/false>
"create_bucket": true, // <true/false>
"storage_type": "s3", // <s3,azure>
"fqdn": "", // <needed in the case of aws instance and non-instance profile>
"port": 443, // <needed in the case of aws instance and non-instance profile>
"region": "",
"access_key": "", // <needed in case of aws non instance profile>
"secret_key": "", // <needed in case of aws non instance profile>
"use_managed_identity": false, // <true/false>
"bucket_name_prefix": "",
"bucket_name_suffix": "",
"account_key": "", // <needed only when using non managed identity>
"account_name": "",
"azure_fqdn_suffix": "core.windows.net",
"client_id": "" // <optional field in case of managed identity>
}
}
Process Mining の BLOB ストレージの資格情報をローテーションする
Automation Suite の Process Mining の BLOB ストレージの資格情報をローテーションするには、保存されているシークレットを新しい資格情報で更新する必要があります。「BLOB ストレージの資格情報をローテーションする」をご覧ください。
- Disaster Recovery - アクティブ/パッシブでは、Automation Suite の一部の製品がサポートされません。これらの製品は、プライマリ クラスターのインストール時にのみインストールできます。
- 設定に関連するすべてのパラメーターをインストーラーに指定すると、インストーラーから続行または終了するように求められます。高度なマルチサイト パラメーターを使用して生成される
cluster_config.json
を変更するには、インストーラーを終了する必要があります。
2 つの Automation Suite クラスターを個別にインストールする必要があります。
cluster_config.json
のパラメーターのリストを示します。
パラメーター |
説明 |
---|---|
|
HAA が有効であることを示します。これは、Redis を HA モードで使用するために必要です。これは必須であり、
true に設定する必要があります。
|
|
Redis (HAA) ライセンスを示します。これは必須の値であり、有効な Base64 でエンコードされた文字列である必要があります。 |
|
クラスターのロード バランサーの FQDN を示します。これは必須の値です。 |
|
Automation Suite がマルチサイトで動作するように構成されている必要があることを示します。
true に設定する必要があります。
|
|
このクラスターがプライマリ クラスターであることを示します。
true に設定する必要があります。既定では、セカンダリ クラスターを示す false です。
|
|
別のクラスターの Base64 でエンコードされた kubeconfig ファイルを示します。プライマリ Automation Suite クラスターのインストール中は、この値は利用できず、そのままにしておくことができます。ただし、回復中にプライマリ Automation Suite を再構築する際に値を指定する必要があります。 |
|
すべてのノード参加要求を作成する必要があるアドレスを示します。これは通常、
cluster_fqdn の値 (ロード バランサーの FQDN) と同じです。
|
{
"fabric": {
"redis": {
"ha": true,
"license": "xyz" //base64 encoded redis license
}
},
"cluster_fqdn": "automationsuite-primary.mycompany.com",
"multisite": {
"enabled": true,
"primary": true,
"other_kube_config": xxx, //another cluster kubeconfig
},
"fixed_rke_address": "automationsuite-primary.mycompany.com"
}
{
"fabric": {
"redis": {
"ha": true,
"license": "xyz" //base64 encoded redis license
}
},
"cluster_fqdn": "automationsuite-primary.mycompany.com",
"multisite": {
"enabled": true,
"primary": true,
"other_kube_config": xxx, //another cluster kubeconfig
},
"fixed_rke_address": "automationsuite-primary.mycompany.com"
}
cluster_config.json
ファイルで以下のパラメーターを更新します。
パラメーター |
説明 |
---|---|
|
使用する外部 Docker レジストリを指定します。 |
|
レジストリの URL。 |
|
レジストリのログイン ユーザー名。 |
| レジストリのログイン パスワード。 |
|
レジストリのプル シークレット。 手記: Automation Suite 2023.4.12 以降では、このフィールドは任意です。
|
pull_secret_value
, including the one using Docker. For details, How to generate the encoded pull_secret_value for external registries.
設定例:
{
"registries": {
"docker": {
"url": "registry.domain.io",
"username": "username",
"password": "password",
"pull_secret_value": "pull-secret-value"
},
"helm": {
"url": "registry.domain.io",
"username": "username",
"password": "password"
}
},
}
{
"registries": {
"docker": {
"url": "registry.domain.io",
"username": "username",
"password": "password",
"pull_secret_value": "pull-secret-value"
},
"helm": {
"url": "registry.domain.io",
"username": "username",
"password": "password"
}
},
}
cluster_config.json
ファイルの orchestrator.block_classic_executions
フラグを true
に設定する必要があります。このフラグを使用すると、クラシック フォルダーでのジョブの実行をブロックすることに同意したものとみなされます。フラグを使用しない場合、アップグレードの操作は失敗します。新規インストールの場合、このパラメーターは不要です。
orchestrator.orchestrator_robot_logs_elastic
セクションで設定できます。指定しない場合、ロボット ログは Orchestrator のデータベースに保存されます。
orchestrator.orchestrator_robot_logs_elastic
パラメーターのリストを示します。
パラメーター |
説明 |
---|---|
orchestrator_robot_logs_elastic |
Elasticsearch の構成。 |
|
使用する Elasticsearch インスタンスのアドレスです。URI の形式で指定する必要があります。指定すると、ユーザー名とパスワードも必要になります。 |
|
認証に使用される Elasticsearch のユーザー名です。 |
|
認証に使用される Elasticsearch のパスワードです。 |
例
"orchestrator": {
"enabled": true,
"block_classic_executions": true,
"orchestrator_robot_logs_elastic": {
"elastic_uri": "https://elastic.example.com:9200",
"elastic_auth_username": "elastic-user",
"elastic_auth_password": "elastic-password"
}
}
"orchestrator": {
"enabled": true,
"block_classic_executions": true,
"orchestrator_robot_logs_elastic": {
"elastic_uri": "https://elastic.example.com:9200",
"elastic_auth_username": "elastic-user",
"elastic_auth_password": "elastic-password"
}
}
Insights を有効化する場合、スケジュールされたメールやアラート メールの送信に使用する SMTP サーバーの構成を含めることができます。—これを指定しない場合、スケジュールされたメールやアラート メールは機能しません。
uipathctl
コマンド ライン ツールを使用して、構成の変更を適用できます。詳しくは、『 uipathctl reference guide』をご覧ください。
insights.smtp_configuration
フィールドの詳細を以下に示します。
パラメーター |
説明 |
---|---|
|
有効な値は
TLSv1_2 、TLSv1_1 、SSLv23 です。TLS を使用しない場合は、すべてのキーを省略します。
|
|
アラート メールやスケジュールされたメールの送信元となるアドレスです。 |
|
SMTP サーバーのホスト名。 |
|
SMTP サーバーのポート。 |
|
SMTP サーバー認証用のユーザー名。 |
|
SMTP サーバー認証用のパスワード。 |
enable_realtime_monitoring | Insights のリアルタイム監視を有効化するフラグ。有効な値は true または false です。既定値は false です。
|
例
"insights": {
"enabled": true,
"enable_realtime_monitoring": true,
"smtp_configuration": {
"tls_version": "TLSv1_2",
"from_email": "test@test.com",
"host": "smtp.sendgrid.com",
"port": 587,
"username": "login",
"password": "password123"
}
}
"insights": {
"enabled": true,
"enable_realtime_monitoring": true,
"smtp_configuration": {
"tls_version": "TLSv1_2",
"from_email": "test@test.com",
"host": "smtp.sendgrid.com",
"port": 587,
"username": "login",
"password": "password123"
}
}
processmining
セクションで構成できます。
パラメーター |
説明 |
---|---|
|
データベースをプレースホルダー
Initial Catalog=DB_NAME_PLACEHOLDER に設定した .NET 形式の接続文字列。
|
|
カスタム Airflow メタデータ データベースの場所を表す SQLAlchemy の PYODBC 形式の接続文字列は
sqlServer:1433/DB_NAME_PLACEHOLDER です。
例:
場所 ユーザー:
testadmin%40myhost 注:
ユーザー名に「@」が含まれている場合は、%40 に URL エンコードする必要があります。 例: (Kerberos 認証を使用した SQL Server 設定)
|
|
Process Mining のデータ ウェアハウス SQL Server への .NET 形式の SQL 接続文字列。dbname のプレースホルダーは Initial Catalog=DB_NAME_PLACEHOLDER です。
|
|
Process Mining のデータ ウェアハウス SQL Server への SQLAlchemy PYODBC 形式の SQL 接続文字列。dbname のプレースホルダーは sqlServer:1433/DB_NAME_PLACEHOLDER です。
|
|
インストーラーが
sql.create_db: true の設定を使用してデータベースを作成する場合は、Process Mining のデータ ウェアハウス SQL Server に対して .NET 形式のマスター SQL 接続文字列を指定する必要があります。接続文字列内のデータベースは、master に設定する必要があります。
|
Process Mining の接続文字列のサンプル
"processmining": {
"enabled": true,
"app_security_mode": "system_managed",
"sql_connection_str": "Server=tcp:shared_sqlserver_fqdn,1433;Initial Catalog=AutomationSuite_ProcessMining_Metadata;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://username:password@shared_sqlserver_fqdn:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
"warehouse": {
"sql_connection_str": "Server=tcp:dedicated_sqlserver_fqdn,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://useername:password@dedicated_sqlserver_fqdn:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
"master_sql_connection_str": "Server=tcp:dedicated_sqlserver_fqdn,1433;Initial Catalog=master;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"blob_storage_account_use_presigned_uri": true
},
"processmining": {
"enabled": true,
"app_security_mode": "system_managed",
"sql_connection_str": "Server=tcp:shared_sqlserver_fqdn,1433;Initial Catalog=AutomationSuite_ProcessMining_Metadata;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://username:password@shared_sqlserver_fqdn:1433/AutomationSuite_Airflow?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
"warehouse": {
"sql_connection_str": "Server=tcp:dedicated_sqlserver_fqdn,1433;Initial Catalog=AutomationSuite_ProcessMining_Warehouse;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;",
"sqlalchemy_pyodbc_sql_connection_str": "mssql+pyodbc://useername:password@dedicated_sqlserver_fqdn:1433/AutomationSuite_ProcessMining_Warehouse?driver=ODBC+Driver+17+for+SQL+Server&TrustServerCertificate=YES&Encrypt=YES",
"master_sql_connection_str": "Server=tcp:dedicated_sqlserver_fqdn,1433;Initial Catalog=master;Persist Security Info=False;User Id=username;Password='password';MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=True;Connection Timeout=30;Max Pool Size=100;"
},
"blob_storage_account_use_presigned_uri": true
},
Microsoft SQL Server をセットアップする際は、Airflow データベースがインストールされている SQL Server マシンのタイムゾーンが UTC に設定されていることを確認します。
1433
を使用する必要があります。
非標準の SQL Server ポートはサポートされていません。
Process Mining のデータ ウェアハウス SQL Server の接続文字列を構成する場合、SQL Server の名前付きインスタンスを省略する必要があります。
SQL Server の名前付きインスタンスは、同じ TCP ポートでは動作できません。 したがって、インスタンスを区別するにはポート番号だけで十分です。
tcp:server\namedinstance,1445
の代わりに tcp:server,1445
を使用します。
sql_connection_string_template_sqlalchemy_pyodbc
の名前と、独自のデータベースを利用するときに使用される PYODBC 接続文字列 sqlalchemy_pyodbc_sql_connection_str
の名前は異なることに注意してください。また、テンプレート SQL sql_connection_string_template
と、独自のデータベースを利用するときに使用される sql_connection_str
でも、接続文字列名が異なります。
cluster_config.json
ファイルの processmining
セクションにある接続文字列 sql_connection_str
と sqlalchemy_pyodbc_sql_connection_str
を使用してそのデータベースを設定した場合、テンプレート接続文字列 sql_connection_string_template
と sql_connection_string_template_sqlalchemy_pyodbc
は指定しても無視されます。
Automation Suite ロボットは、パッケージのキャッシュを使用してプロセスの実行を最適化し、実行速度を向上できます。NuGet パッケージは、インターネット/ネットワークからダウンロードするのではなく、ファイルシステムから取得します。そのためには 10 GB 以上の領域が追加で必要で、その領域を専用ノードのホスト マシンのファイルシステム上のフォルダーに割り当てる必要があります。
cluster_config.json
パラメーターを更新する必要があります。
パラメーター |
既定値 |
説明 |
---|---|---|
|
|
true に設定すると、ロボットはローカル キャッシュを使用してパッケージを解決します。
|
|
|
パッケージが保存されているサーバーレス エージェント ノード上のディスクの場所です。 |
このセクションは、S3 エンドポイントにのみ適用されます (Azure Storage には必要ありません)。
cluster_config.json
ファイルで aicenter.external_object_storage.port
パラメーターと aicenter.external_object_storage.fqdn
パラメーターを設定する必要があります。
external_object_storage
セクションを構成している場合でも、cluster_config.json
ファイルの aicenter
セクションでパラメーターを設定する必要があります。
cluster_config.json
を示しています
AI Center の構成:"aicenter": {
"external_object_storage" {
"port": 443,
"fqdn": "s3.us-west-2.amazonaws.com"
}
},
"external_object_storage": {
"enabled": true,
"create_bucket": false,
"storage_type": "s3",
"region": "us-west-2",
"use_instance_profile": true
}
...
"aicenter": {
"external_object_storage" {
"port": 443,
"fqdn": "s3.us-west-2.amazonaws.com"
}
},
"external_object_storage": {
"enabled": true,
"create_bucket": false,
"storage_type": "s3",
"region": "us-west-2",
"use_instance_profile": true
}
...
監視のために十分なリソースをプロビジョニングするには (「監視スタックを使用する」参照)、クラスター内の vCPU の数と、メトリックの必要な保持日数について検討する必要があります。監視リソース構成の設定方法については、次の表をご覧ください。
次の表で、監視フィールドの詳細について説明します。
パラメーター |
説明 |
---|---|
|
日数単位。 Grafana での視覚化や Prometheus コンソールからの手動のクエリを目的として、メトリックが保持される日数です。 既定値は
7 です。
|
|
GB 単位。 Prometheus レプリカ 1 つあたりに確保するストレージ容量です。 適切な経験則としては、この値を次のように設定します。
例: prometheus_retention を 14 日に設定し、クラスターが 5 つのマシンにまたがる 80 個のコアから構成されている場合は、次のようになります。
既定値は
45 で、これより小さな値は設定しないでください。
Prometheus でストレージ容量が不足しはじめると、具体的な修正策を含むアラートがトリガーされます。こちらをご覧ください。 |
|
MiB 単位で指定します。 Prometheus レプリカ 1 つあたりのメモリ容量の制限値です。 適切な経験則としては、この値を次のように設定します。
例: prometheus_retention を 14 日に設定し、クラスターが 5 つのマシンにまたがる 80 個のコアから構成されている場合は、次のようになります。
既定値は、シングルノードの評価モードでは
3200 で、マルチノードの HA 対応の運用モードでは 6000 であり、これより小さい値に設定しないでください。
Prometheus でメモリが不足しはじめると、具体的な修正策を含むアラートがトリガーされます。こちらをご覧ください。 |
例
"monitoring": {
"prometheus_retention": 14,
"prometheus_memory_limit": 16000,
"prometheus_storage_size": 104
}
"monitoring": {
"prometheus_retention": 14,
"prometheus_memory_limit": 16000,
"prometheus_storage_size": 104
}
インストールでプロキシ サーバーの構成を行う前に、プロキシ サーバーの要件が満たされていることを確認してください。
For details, see Step 2: Adding proxy configuration to each node.
プロキシ構成は、オンライン インストールを実行する場合にのみ必要です。
cluster_config.json
を更新する必要があります。
vim またはお好みのエディターを使用して、構成ファイルに以下を追加する必要があります。
"proxy": {
"enabled": true,
"http_proxy": "http://<PROXY-SERVER-IP>:<PROXY-PORT>",
"https_proxy": "http://<PROXY-SERVER-IP>:<PROXY-PORT>",
"no_proxy": "alm.<fqdn>,<fixed_rke_address>:9345,<fixed_rke_address>:6443,<named server address>,<metadata server address>,<k8s address range>,<private_subnet_ip>,<sql server host>,<Comma separated list of ips that should not go through proxy server>"
}
"proxy": {
"enabled": true,
"http_proxy": "http://<PROXY-SERVER-IP>:<PROXY-PORT>",
"https_proxy": "http://<PROXY-SERVER-IP>:<PROXY-PORT>",
"no_proxy": "alm.<fqdn>,<fixed_rke_address>:9345,<fixed_rke_address>:6443,<named server address>,<metadata server address>,<k8s address range>,<private_subnet_ip>,<sql server host>,<Comma separated list of ips that should not go through proxy server>"
}
必須パラメーター |
説明 |
---|---|
|
true または false を使用して、プロキシ設定を有効または無効化します。
|
|
クラスターからの HTTP アウトバウンド要求をルーティングするために使用します。これはプロキシ サーバーの FQDN とポートとする必要があります。 |
|
クラスターからの HTTPS アウトバウンド要求をルーティングするために使用します。これはプロキシ サーバーの FQDN とポートとする必要があります。 |
|
プロキシ サーバー経由でルーティングしない、ホスト、IP アドレス、CIDR 形式による IP 範囲のコンマ区切りリストです。プライベート サブネット範囲、SQL Server ホスト、名前付きサーバー アドレス、メタデータ サーバー アドレスを指定する必要があります (
*.<fqdn>,<fixed_rke_address>:9345,<fixed_rke2_address>:6443 )。
重要:
AI Center を外部 Orchestrator で使用する場合は、外部 Orchestrator ドメインを
no_proxy リストに追加する必要があります。
|
マルチノード クラスターでゾーン障害に対する復元機能を有効化するには、次の手順を実行します。
cluster_config.json
を更新するには、高度な構成手順でウィザードを終了し、vim またはお好みのエディターで構成ファイルに以下を追加します。
"zone_resilience": true
"zone_resilience": true
必須パラメーター |
説明 |
---|---|
|
true または false を使用して、ゾーン障害に対する復元機能を有効または無効化します。
|
--zone
引数と --region
引数を渡すことが推奨/必須となるのは以下のような場合です。
- 推奨: マシンが AWS、Azure、または GCP でプロビジョニングされ、メタデータ サービスが有効化されている場合。この場合は、インストーラーがゾーンとリージョンの詳細を設定するためです。
- 必須: マシンが AWS、Azure または GCP でプロビジョニングされ、メタデータ サービスが無効化されている場合、または別のクラウド プロバイダーを選択した場合.
/etc/resolv.conf
で構成されたネーム サーバーを使用します。Kubernetes はローカル DNS リゾルバー (127.0.0.1 または 127.0.0.0/8) では動作しません。そのため、このようなネームサーバーが /etc/resolv.conf
ファイル内で構成されている場合は、cluster_config.json
の .infra.custom_dns_resolver
パラメーターに、仮想マシンのどこからでもアクセスできる適切なネームサーバー エントリを含むファイル参照を渡す必要があります。
既知の制限の詳細については、Kubernetes のドキュメントをご覧ください。
任意パラメーター |
説明 |
---|---|
|
仮想マシン上のどこからでもアクセスできる、適切なネーム サーバー エントリを含むファイルへのパスです。これらのネーム サーバー エントリは、
127.0.0.0/8 からは参照しないでください。
|
cluster_config.json
ファイルの fault_tolerance
パラメーターを使用して、サーバー ノードの障害耐性を向上できます。このパラメーターにより、クラスター内のストレージ コンポーネント (Ceph や Longhorn など) のレプリケーション係数を変更します。
ハードウェア要件
1
以上に向上させるには、環境が次の要件を満たしていることを確認します。
- クラスターが少なくとも
2x+1
のサーバー ノードで構成されている。x
はサーバー ノードに必要なフォールト トレランスです。 - 各サーバー ノードに RAW デバイスが構成されている。
フォールト トレランスを向上させる方法
1
以上に向上させるには、次の手順を実行します。
cluster_config.json
ファイルでfault_tolerance
を必要な値に設定します。インストールまたはアップグレード操作の開始前にこの値を設定しておけば、追加手順を実行する必要はありません。uipathctl.sh
インストーラーを実行して、クラスター内 Ceph ObjectStore のレプリケーション係数を変更します。操作が正常に完了するまで待ちます。install-uipath.sh
インストーラーを実行して、Longhorn ボリュームのレプリケーション係数を変更します。操作が正常に完了するまで待ちます。
- Cluster_config.json のサンプル
- 全般的な構成
- 証明書の設定
- データベースの構成
- データベース作成ワークフロー
- 必要なデータベースを自動作成する
- 独自のデータベースを利用する
- 外部 ObjectStore の構成
- 全般的な構成
- 製品固有の設定
- Process Mining の BLOB ストレージの資格情報をローテーションする
- Disaster Recovery: アクティブ/パッシブ構成
- 外部 Docker レジストリの設定
- Orchestrator 固有の設定
- Insights 固有の構成
- Process Mining 固有の構成
- Automation Suite ロボット固有の構成
- AI Center 固有の構成
- 監視の構成
- 任意: プロキシ サーバーを構成する
- 任意: マルチノードの HA 対応の運用クラスターにおけるゾーン障害に対する復元設定を有効化する
- 任意: カスタムの Resolv.con を渡す
- 任意: フォールト トレランスを向上させる
- ハードウェア要件
- フォールト トレランスを向上させる方法