通知を受け取る

UiPath Automation Suite

UiPath Automation Suite ガイド

手動: 高度なインストール

このページでは、Automation Suite の cluster_config.json 構成ファイルの使用方法について説明します。

cluster_config.json ファイルは、Automation Suite を介してデプロイされる UiPath 製品に適用されるパラメーターや設定を定義します。クラスターに対する既定値を変更したり、何らかの高度な構成を使用したりする場合は、このファイルを更新する必要があります。

cluster_config.json の編集には、次のいずれかを使用できます。

  • vi や GNU nano などの Linux テキスト エディター。SSH を介して Linux マシン上で直接使用できます (コマンドの例: vi cluster_config.json)。
  • お好みのテキスト エディター。その後、マシン上でファイルをコピー/ペーストします。

The cluster_config.json file allows you to configure the UiPath products you want to deploy. Be aware that products may have dependencies. For details, see Cross-product dependencies.

cluster_config.json ファイルによって製品を有効化または無効化するには、enabled フラグに true または false を使用します。

cluster_config.json サンプル

{
  "fqdn": "PLACEHOLDER",
  "cluster_fqdn": "PLACEHOLDER",
  "fixed_rke_address": "PLACEHOLDER",
  "admin_username": "PLACEHOLDER",
  "admin_password": "PLACEHOLDER",
  "rke_token": "PLACEHOLDER ",
  "zone_resilience": false,
  "registries": {
    "docker": {
      "url": "registry.uipath.com"
    },
    "helm": {
      "url": "registry.uipath.com"
    }
  },
  "sql_connection_string_template": "PLACEHOLDER",
  "sql_connection_string_template_jdbc": "PLACEHOLDER",
  "sql_connection_string_template_odbc": "PLACEHOLDER",
  "sql_connection_string_template_sqlalchemy_pyodbc": "PLACEHOLDER",
  "orchestrator": {
    "testautomation": {
      "enabled": true
    },
    "updateserver": {
      "enabled": true
    },
    "enabled": true
  },
  "infra": {
    "docker_registry": {
      "username": " PLACEHOLDER ",
      "password": " PLACEHOLDER "
    }
  },
  "platform": {
    "enabled": true
  },
  "automation_hub": {
    "enabled": true
  },
  "automation_ops": {
    "enabled": true
  },
  "action_center": {
    "enabled": true
  },
  "aicenter": {
    "enabled": true
  },
  "documentunderstanding": {
    "enabled": true,
    "datamanager": {}
  },
  "task_mining": {
    "enabled": true
  },
  "apps": {
    "enabled": true
  },
  "test_manager": {
    "enabled": true
  },
  "insights": {
    "enabled": true
  },
  "dataservice": {
    "enabled": true
  },
  "asrobots": {
    "enabled": true,
    "packagecaching": true,
    "packagecachefolder": "/uipath_asrobots_package_cache"
  },
  "processmining": {
    "enabled": true
  },
  "external_object_storage": {
    "enabled": false
  },
  "identity_certificate": {},
  "profile": "ha",
  "telemetry_optout": false,
  "alternative_fqdn": "",
  "server_certificate": {
    "ca_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/rootCA.crt",
    "tls_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/server.crt",
    "tls_key_file": "/opt/UiPathAutomationSuite/UiPath_Installer/server.key"
  },
  "alternative_certificate": {
    "ca_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-rootCA.crt",
    "tls_cert_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-server.crt",
    "tls_key_file": "/opt/UiPathAutomationSuite/UiPath_Installer/alt-server.key"
  }
}

 

全般的な構成


Mandatory parametersDescription
fqdnThe load balancer (multi-node HA-ready production mode) or machine (single-node evaluation mode) domain name.
fixed_rke_addressFixed address used to load balance node registration and kube API requests. This should be fqdn if load balancer is configured as recommended. Otherwise FQDN of 1st Server Node. Refer to Configuring the load balancer.


Can be the IP/FQDN of the first rke2 server in your setup.
multinodeSet to true when choosing a multi-node HA-ready production profile. The value of this flag is set automatically by the interactive install wizard. It is used for internal purposes only and should not be modified manually.
admin_usernameThe username that you would like to set as admin (such as: admin ) for the host organization.
admin_passwordThe host admin password to be set.
rke_tokenUse a newly generated GUID here. This is a pre-shared, cluster-specific secret. It is needed for all the nodes joining the cluster.
profileSets the profile of the installation. The available profiles are:
default: single-node evaluation profile.
ha: multi-node HA-ready production profile.
The value of this flag is set automatically by the interactive install wizard. It is used for internal purposes only and should not be modified manually.
infra.docker_registry.usernameThe username that you would like to set for the docker registry installation.
infra.docker_registry.passwordThe password that you would like to set for the docker registry installation.
Optional parametersDescription
telemetry_optouttrue or false - used to opt-out of sending telemetry back to UiPath. It is set to false by default.

If you wish to opt out, then set to true.

 

証明書の設定


インストール時に証明書を指定しない場合、インストーラーが自己発行の証明書を作成し、それをクラスターに設定します。この証明書の有効期間は 90 日です。

証明書を取得する方法の詳細については、以下をご覧ください。

📘

注:

必ず、証明書ファイルの絶対パスを指定してください。pwd を実行して、ファイルが配置されているディレクトリのパスを取得し、 cluster_config.json に記載された証明書ファイル名を付加します。


マルチノードの HA対応の運用環境のインストールでは、証明書は最初のノードに対してのみ必要です。

ParameterDescription
server_certificate.ca_cert_fileAbsolute path to the Certificate Authority (CA) certificate. This CA is the authority that signs the TLS certificate. A CA bundle should contain only the chain certificates used to sign the TLS certificate. The chain limit is up to nine certificates.
If you are using a self-signed certificate, you need to specify the path to the rootCA.crt, which you previously created. Leave blank if you want the installer to generate.
server_certificate.tls_cert_fileAbsolute path to TLS certificate (server.crt for self-signed created in earlier steps). Leave blank if you want the installer to generate.
server_certificate.tls_key_fileAbsolute path to certificate key (server.key for self-signed created in earlier steps). Leave blank if you want the installer to generate.
identity_certificate.token_signing_cert_fileAbsolute path to the Identity Service certificate used to sign tokens (identity.pfx for self-signed created in earlier steps). Leave blank if you want the installer to generate an identity certificate using the server certificate.
identity_certificate.token_signing_cert_passPlain text password set when it was exported.
additional_ca_certsAbsolute path to the file containing additional CA certificates that you want to be trusted by all the services running as part of Automation Suite. All certificates in the file should be valid PEM format.

For example, you need to provide the file containing the SQL server CA certificate if the certificate is not issued by a public certificate authority.

 

データベースの構成


必要なデータベースを自動作成する

インストーラーでデータベースを作成する場合は、次のフィールドに入力します。

ParameterDescription
sql.create_dbSet to true.
sql.server_urlFQDN of the SQL server, where you want the installer to configure database.
sql.portPort number on which a database instance should be hosted in the SQ: server.
sql.usernameUsername / userid to connect to the SQL server.
sql.passwordPassword of the username provided earlier to connect to the SQL server.

📘

重要:

ユーザーに dbcreator ロールが付与されていることを確認してください。このロールにより、SQL Server 上にデータベースを作成する権限が与えられます。この権限がないと、インストールに失敗します。

ODBC 接続では、特殊文字を含むユーザー名はサポートされていません。AI Center と Document Understanding のデータベース ユーザー名において、英字の大文字と小文字のみをご利用ください。

 

独自データベースを利用する

独自のデータベースを使用する場合は、すべてのデータベースに対して SQL 接続文字列を指定する必要があります。Automation Suite では、次の形式の SQL 接続文字列をサポートしています。

ParameterDescriptionProducts
sql_connection_string_templateFull ADO.NET connection string where Catalog name is set to DB_NAME_PLACEHOLDER. The installer will replace this placeholder with the default database names for the installed suite services.Platform, Orchestrator, Automation Suite Robots, Test Manager, Automation Hub, Automation Ops, Insights, Task Mining, Data Service, Process Mining
sql_connection_string_template_jdbcFull JDBC connection string where database name is set to DB_NAME_PLACEHOLDER. The installer will replace this placeholder with the default database names for the installed suite services.AI Center
sql_connection_string_template_odbcFull ODBC connection string where database name is set to DB_NAME_PLACEHOLDER. The installer will replace this placeholder with the default database names for the installed suite services.Document Understanding
sql_connection_string_template_sqlalchemy_pyodbcFull SQL alchemy PYODBC connection string where database name is set to DB_NAME_PLACEHOLDER. The installer will replace this placeholder with the default database names for the installed suite services.Process Mining

🚧

重要

接続文字列で指定している SQL アカウントに、すべての Automation Suite データベースに対する db_securityadmin ロールと db_owner ロールが付与されていることを確認してください。セキュリティの制約により db_owner の使用が許可されない場合は、すべてのデータベースに対する次のロールと権限を SQL アカウントに付与する必要があります。

  • db_ddladmin
  • db_datawriter
  • db_datareader
  • dbo スキーマに対する EXECUTE 権限

🚧

重要

構成ファイルに接続文字列を手動で設定する場合、次の方法で SQL、JDBC、ODBC、または PYODBC のパスワードをエスケープできます。

  • SQL の場合: パスワードの最初と末尾に ' を追加し、他の ' を 2 個に増やします。
  • JDBC/ODBC の場合: パスワードの先頭に { を追加し、末尾に } を追加し、他のすべての } を 2 個に増やします。
  • PYODBC の場合: usernamepassword は、特殊文字を考慮して URL エンコードする必要があります。

🚧

重要

Process Mining 製品の AutomationSuite_ProcessMining_Airflow データベースで READ_COMMITTED_SNAPSHOT が有効化されている必要があります

📘

注:

TrustServerCertificate=False を設定した場合、SQL Server 用に追加の CA 証明書を指定する必要が生じることがあります。SQL Server の証明書が自己署名証明書の場合、または社内 CA によって署名された証明書の場合はこれが必須になります。

詳細については、「証明書を設定する」をご覧ください。

sql_connection_string_template の例
Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net:1433;Initial Catalog=DB_NAME_PLACEHOLDER;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;
sql_connection_string_template_jdbc の例
jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net:1433;database=DB_NAME_PLACEHOLDER;user=testadmin;password=***;encrypt=true;trustServerCertificate=false;Connection Timeout=30;hostNameInCertificate=sfdev1804627-c83f074b-sql.database.windows.net"
sql_connection_string_template_odbc の例
SERVER=sfdev1804627-c83f074b-sql.database.windows.net,1433;DATABASE=DB_NAME_PLACEHOLDER;DRIVER={ODBC Driver 17 for SQL Server};UID=testadmin;PWD=***;MultipleActiveResultSets=False;Encrypt=YES;TrustServerCertificate=NO;Connection Timeout=30;"
sql_connection_string_template_sqlalchemy_pyodbc
mssql+pyodbc://testuser%40sfdev3082457-sql.database.windows.net:_-%29X07_%5E3-%28%3B%25e-T@sfdev3082457-sql.database.windows.net:1433/DB_NAME_PLACEHOLDER?driver=ODBC+Driver+17+for+SQL+Server"
Automation Suite サービスの既定および任意のデータベース名。
{
  "orchestrator": "AutomationSuite_Orchestrator",
  "orchestrator_ta": "AutomationSuite_Orchestrator",
  "asrobots": "AutomationSuite_Orchestrator",
  "orchestrator_upd": "AutomationSuite_Platform",
  "platform": "AutomationSuite_Platform",
  "test_manager": "AutomationSuite_Test_Manager",
  "automation_ops": "AutomationSuite_Platform",
  "automation_hub": "AutomationSuite_Automation_Hub",
  "insights": "AutomationSuite_Insights",
  "task_mining": "AutomationSuite_Task_Mining",
  "dataservice": "AutomationSuite_DataService", 
  "aicenter": "AutomationSuite_AICenter",
  "documentunderstanding": "AutomationSuite_DU_Datamanager",
  "processmining_airflow": "AutomationSuite_Airflow",
  "processmining_metadata": "AutomationSuite_ProcessMining_Metadata",
  "processmining_warehouse": "AutomationSuite_ProcessMining_Warehouse",
    
}

📘

注:

上記サービスのいずれかの接続文字列をオーバーライドする場合は、その特定のサービスについて sql_connection_str を設定します。

その場合も、インストーラーを実行する前に、これらのデータベースを手動で作成する必要があります。

Orchestrator とプラットフォーム用の既定の接続文字列をオーバーライドする
{
  "orchestrator": {
    "sql_connection_str": "Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net,1433;Initial Catalog=CustomOrchDB;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
  },
  "platform": {
    "sql_connection_str": "Server=tcp:sfdev1804627-c83f074b-sql.database.windows.net,1433;Initial Catalog=CustomIDDB;Persist Security Info=False;User Id=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;Password=***;MultipleActiveResultSets=False;Encrypt=True;TrustServerCertificate=False;Connection Timeout=30;Max Pool Size=100;"
  }
}

他の製品のデータベース接続文字列をオーバーライドするには、対応する製品ブロックの sql_connection_str を設定します。この接続文字列は、対応する製品がサポートする形式である必要があります。

AI Center 用のデータベース接続文字列の設定例
ParameterDescription
aicenter.sql_connection_strAICenter JDBC connection string (Refer below for the JDBC format)

📘

注:

JDBC 接続文字列が、下記の例の形式であることを確認してください。

"aicenter": {
    "enabled": true,
    "sql_connection_str": "jdbc:sqlserver://sfdev1804627-c83f074b-sql.database.windows.net;database=aicenter;user=testadmin@sfdev1804627-c83f074b-sql.database.windows.net;password=TFgID_9GsE7_P@srCQp0WemXX_euHQZJ"
}
Document Understanding 接続文字列の例
"documentunderstanding": {
    "enabled": true,
  {
  "datamanager": {
    "sql_connection_str": "mssql+pyodbc://testadmin:myPassword@mydev-sql.database.windows.net:1433/datamanager?driver=ODBC+Driver+17+for+SQL+Server",
  }
}

: データ マネージャー SQL の接続文字列は、既定値を独自の値で上書きする場合のみの任意の設定です。
オンライン インストールでは、手書き文字が常に有効です。
max_cpu_per-pod の既定値は 2 ですが、必要に応じて調整できます。詳細については、「Document Understanding 構成ファイル」を参照してください。

 

外部 ObjectStore の構成


全般的な構成

Automation Suite では、独自の外部ストレージ プロバイダーを利用できます。以下のストレージ プロバイダーから選択できます。

  • Azure
  • AWS
  • S3 互換

外部オブジェクト ストレージは、次のいずれかの方法で構成できます。

  • インストール中に対話型インストーラーを使用する
  • インストール後に cluster_config.json ファイルを使用する

次の表に、外部オブジェクト ストレージの各プロバイダーを設定するために使用できる cluster_config.json のパラメーターを示します。

ParameterAzureAWSS3-compatibleDescription
external_object_storage.enabledSpecify whether you would like to bring your own object store. Possible values: true and false.
external_object_storage.create_bucketSpecify whether you would like to provision the bucket. Possible values: true and false.
external_object_storage.storage_typeSpecify the storage provider you would like to configure. Possible values: azure and s3.

Note: Many S3 objectstores require the CORS set to all the traffic from the Automation Suite cluster. You must configure the CORS policy at the objectstore level to allow the FQDN of the cluster.
external_object_storage.fqdnSpecify the FQDN of the S3 server. Only required in the case of the AWS non-instance profile.
external_object_storage.portSpecify the S3 port. Only required in the case of the AWS non-instance profile.
external_object_storage.regionSpecify the AWS region where buckets are hosted. Only required in the case of AWS non-instance profile.
external_object_storage.access_keySpecify the access key for the S3 account. Only required in the case of the AWS non-instance profile.
external_object_storage.secret_keySpecify the secret key for the S3 account. Only required in the case of the AWS non-instance profile.
external_object_storage.use_managed_identityUse managed identity with your Azure storage account. Possible values: true and false.
external_object_storage.bucket_name_prefixIndicate the prefix for the bucket names. Optional in the case of the AWS non-instance profile.
external_object_storage.bucket_name_suffixIndicate the suffix for the bucket names. Optional in the case of the AWS non-instance profile.
external_object_storage.account_keySpecify the Azure account key. Only required when using non-managed identity.
external_object_storage.account_nameSpecify the Azure account name.
external_object_storage.azure_fqdn_suffixSpecify the Azure FQDN suffix. Optional parameter.
external_object_storage.client_idSpecify your Azure client ID. Only required when using managed identity.

製品固有の設定

You can use the parameters described in the General configuration section to update the general Automation Suite configuration. This means that all installed products would share the same configuration. If you want to configure one or more products differently, you can override the general configuration. You just need to specify the product(s) you want to set up external object storage for differently, and use the same parameters to define your configuration. Note that all the other installed products would continue to inherit the general configuration.

以下の例では、Orchestrator の全般的な構成を上書きする方法を示します。

"external_object_storage": {
  "enabled": false, // <true/false>
  "create_bucket": true, // <true/false>
  "storage_type": "s3", // <s3,azure,aws>
  "fqdn": "",  // <needed in case of aws non instance profile>
  "port": 443, // <needed in case of aws non instance profile>
  "region": "", 
  "access_key": "", // <needed in case of aws non instance profile>
  "secret_key": "", // <needed in case of aws non instance profile>
  "use_managed_identity": false, // <true/false>
  "bucket_name_prefix": "",
  "bucket_name_suffix": "",
  "account_key": "", // <needed only when using non managed identity>
  "account_name": "",
  "azure_fqdn_suffix": "core.windows.net",
  "client_id": "" // <optional field in case of managed identity>
},

"orchestrator": {
  "external_object_storage": {
    "enabled": false, // <true/false>
    "create_bucket": true, // <true/false>
    "storage_type": "s3", // <s3,azure>
    "fqdn": "",  // <needed in case of aws non instance profile>
    "port": 443, // <needed in case of aws non instance profile>
    "region": "", 
    "access_key": "", // <needed in case of aws non instance profile>
    "secret_key": "", // <needed in case of aws non instance profile>
    "use_managed_identity": false, // <true/false>
    "bucket_name_prefix": "",
    "bucket_name_suffix": "",
    "account_key": "", // <needed only when using non managed identity>
    "account_name": "",
    "azure_fqdn_suffix": "core.windows.net",
    "client_id": "" // <optional field in case of managed identity>
  }
}

Process Mining の BLOB ストレージの資格情報をローテーションする

To rotate the blob storage credentials for Process Mining in Automation Suite the stored secrets must be updated with the new credentials. See Rotating blob storage credentials.

 

Orchestrator 固有の設定


Orchestrator はロボット ログを Elasticsearch サーバーに保存できます。この機能は、orchestrator.orchestrator_robot_logs_elastic セクションで設定できます。指定しない場合、ロボット ログは Orchestrator のデータベースに保存されます。

次の表に、orchestrator.orchestrator_robot_logs_elastic パラメーターのリストを示します。

ParameterDescription
elastic_uriThe address of the Elasticsearch instance that should be used. It should be provided in the form of a URI. If provided, then username and password are also required.
elastic_auth_usernameThe Elasticsearch username, used for authentication.
elastic_auth_passwordThe Elasticsearch password, used for authentication.
クリックすると例が表示されます。
"orchestrator": {
    "orchestrator_robot_logs_elastic": {
        "elastic_uri": "https://elastic.example.com:9200",
        "elastic_auth_username": "elastic-user",
        "elastic_auth_password": "elastic-password"
    }
}

 

Insights 固有の構成


Insights を有効化する場合、スケジュールされたメールやアラート メールの送信に使用する SMTP サーバーの構成を含めることができます。—これを指定しない場合、スケジュールされたメールやアラート メールは機能しません。

insights.smtp_configuration フィールドの詳細を以下に示します。

ParameterDescription
tls_versionValid values are TLSv1_2, TLSv1_1, SSLv23. Omit key altogether if not using TLS.
from_emailAddress that alert/scheduled emails will be sent from.
hostHostname of the SMTP server.
portPort of the SMTP server.
usernameUsername for SMTP server authentication.
passwordPassword for SMTP server authentication.
クリックすると例が表示されます。
"insights": {
    "enabled": true,
    "smtp_configuration": {
      "tls_version": "TLSv1_2",
      "from_email": "test@test.com",
      "host": "smtp.sendgrid.com",
      "port": 587,
      "username": "login",
      "password": "password123"
    }
  }

 

Process Mining 固有の構成


Process Mining を有効化する場合、プライマリ Automation Suite SQL Server とは別に、データ ウェアハウスとして機能するセカンダリ SQL Server を指定することをお勧めします。データ ウェアハウス SQL Server には重い負荷がかかります。この SQL Server は processmining セクションで構成できます。

ParameterDescription
sql_connection_strDotNet formatted connection string with database set as a placeholder: Initial Catalog=DB_NAME_PLACEHOLDER.
sqlalchemy_pyodbc_sql_connection_strSqlalchemy PYODBC formatted connection string for custom metadata location:
sqlServer:1433/DB_NAME_PLACEHOLDER.
warehouse.sql_connection_strDotNet formatted SQL connection string to the processmining data warehouse SQL Server with placeholder for dbname:
Initial Catalog=DB_NAME_PLACEHOLDER.
warehouse.sqlalchemy_pyodbc_sql_connection_strSqlalchemy PYODBC formatted SQL connection string to the processmining data warehouse SQL Server with placeholder for dbname:
sqlServer:1433/DB_NAME_PLACEHOLDER.
warehouse.master_sql_connection_strIf the installer is creating databases through sql.create_db: true setting, a DotNet formatted master SQL connection string must be provided for the processmining data warehouse SQL Server. Database in the connection string must be set as master.

 

Automation Suite ロボット固有の構成


Automation Suite ロボットは、パッケージのキャッシュを使用してプロセスの実行を最適化し、実行速度を向上できます。NuGet パッケージは、インターネット/ネットワークからダウンロードするのではなく、ファイルシステムから取得します。そのためには 10 GB 以上の領域が追加で必要で、その領域を専用ノードのホスト マシンのファイルシステム上のフォルダーに割り当てる必要があります。

パッケージのキャッシュを有効化するには、cluster_config.json の以下のパラメーターを更新する必要があります。

ParameterDefault valueDescription
packagecachingtrueWhen set to true, robots use a local cache for package resolution.
packagecachefolder/uipath_asrobots_package_cacheThe disk location on the serverless agent node where the packages are stored.

 

監視の構成


To provision enough resources for monitoring (see Using the monitoring stack), you should consider the number of vCPUs in the cluster and the amount of desired metric retention. See below for how to set the following monitoring resource configurations.

次の表で、監視フィールドの詳細について説明します。

ParameterDescription
prometheus_retentionIn days.
This is the amount of days that metrics will be retained for the purpose of visualization in Grafana and manual querying via the Prometheus console.

Default value is 7.
prometheus_storage_sizeIn GB.
Amount of storage space to reserve per Prometheus replica.
A good rule of thumb is to set this value to:
0.65 * vCPU cores * (prometheus_retention / 7)

Example:
If you set prometheus_retention to 14 days, and your cluster has 80 cores spread across 5 machines, this becomes:
0.65 * 80 * (14 / 7)
52 * (2)
104

Default value is 45 and should not be set lower.

If Prometheus starts to run out of storage space, an alert will be triggered with specific remediation instructions. See here.
prometheus_memory_limitIn MB.
Amount of memory to limit each Prometheus replica to.
A good rule of thumb is to set this value to:
100 * vCPU cores * (prometheus_retention / 7)

Example:
If you've set prometheus_retention to 14 days, and your cluster has 80 cores spread across 5 machines, this becomes:
100 * 80 * (14 / 7)
8000 * (2)
16000

Default value is 3200 for the single-node evaluation mode, and 6000 for the multi-node HA-ready production mode, and should not be set lower.

If Prometheus starts to run out of memory, an alert will be triggered with specific remediation instructions. See here.
クリックすると例が表示されます。
"monitoring": {
  "prometheus_retention": 14,
  "prometheus_memory_limit": 16000,
  "prometheus_storage_size": 104
}

 

任意: プロキシ サーバーを構成する


📘

注:

インストールでプロキシ サーバーの構成を行う前に、プロキシ サーバーの要件が満たされていることを確認してください。
詳しくは、「手順 2: 各ノードにプロキシ構成を追加する」をご覧ください。

対話型のインストーラー ウィザードを実行中に、これを終了し、高度の構成手順で cluster_config.json を更新する必要があります。

vim またはお好みのエディターを使用して、構成ファイルに以下を追加する必要があります。

"proxy": {
  "enabled": "true",
  "http_proxy": "http://<PROXY-SERVER-IP>:<PROXY-PORT>",
  "https_proxy": "http://<PROXY-SERVER-IP>:<PROXY-PORT>",
  "no_proxy": "alm.<fqdn>,<fixed_rke_address>:9345,<fixed_rke_address>:6443,<named server address>,<metadata server address>,<k8s address range>,<private_subnet_ip>,<sql server host>,<Comma separated list of ips that should not go through proxy server>"
}
Mandatory parametersDescription
enabledUse true or false to enable or disable proxy settings.
http_proxyUsed to route HTTP outbound requests from the cluster. This should be the proxy server FQDN and port.
https_proxyUsed to route HTTPS outbound requests from the cluster. This should be the proxy server FQDN and port.
no_proxyComma-separated list of hosts, IP addresses, or IP ranges in CIDR format that you do not want to route via the proxy server. This should be a private subnet range, sql server host, named server address, metadata server address: *.<fqdn>,<fixed_rke_address>:9345,<fixed_rke2_address>:6443.

fqdn - the cluster FQDN defined in cluster_config.json
fixed_rke_address - the fixed_rke_address defined in cluster_config.json
named server address - the IP address from /etc/resolv.conf
private_subnet_ip - the cluster VNet
sql server host - sql server host
metadata server address - the IP address 169.254.169.254 used to fetch machine metadata by cloud services such as Azure and AWS
k8s address range - the IP address ranges used by the Kubernetes nodes, i.e. 10.0.0.0/8.

 

任意: マルチノードの HA 対応の運用クラスターにおけるゾーン障害に対する復元設定を有効化する

マルチノード クラスターでゾーン障害に対する復元機能を有効化するには、次の手順を実行します。

  1. 使用可能な 3 つのゾーンにノードが均等に分散されていることを確認します。ベアメタル サーバーの場合、または AWS、Azure、GCP 以外のベンダーが提供する仮想マシンの場合、ゾーンのメタデータは、すべてのマシンの /etc/default/k8s-node-labels にある構成ファイルにより、次の形式で指定する必要があります。
NODE_REGION_LABEL=<REGION_NAME>
NODE_ZONE_LABEL=<ZONE_NAME>
cat > /etc/default/k8s-node-labels <<EOF
EXTRA_K8S_NODE_LABELS="topology.kubernetes.io/region=$NODE_REGION_LABEL,topology.kubernetes.io/zone=${NODE_ZONE_LABEL}"
EOF
  1. 高度な構成手順において、cluster_config.json ファイルを更新します。

対話型のインストール ウィザードで cluster_config.json を更新するには、高度な構成手順でウィザードを終了し、vim またはお好みのエディターで構成ファイルに以下を追加します。

"zone_resilience": true
Mandatory parametersDescription
zone_resilienceUse true or false to enable or disable resilience to zonal failure.

🚧

ゾーン障害に対する復元機能を有効化する場合、 --zone 引数と --region 引数を渡すことが推奨/必須となるのは以下のような場合です。

  • 推奨: マシンが AWS、Azure、または GCP でプロビジョニングされ、メタデータ サービスが有効化されている場合。この場合は、インストーラーがゾーンとリージョンの詳細を設定するためです。
  • 必須: マシンが AWS、Azure または GCP でプロビジョニングされ、メタデータ サービスが無効化されている場合、または別のクラウド プロバイダーを選択した場合.

 

任意: カスタム {0} を渡す resolv.conf

Automation Suite がデプロイする Kubernetes クラスターは、 /etc/resolv.conf で構成されたネーム サーバーを使用します。Kubernetes はローカル DNS リゾルバー (127.0.0.1 または 127.0.0.0/8) では動作しません。そのため、このようなネームサーバーが /etc/resolv.conf ファイル内で構成されている場合は、cluster_config.json.infra.custom_dns_resolver パラメーターに、仮想マシンのどこからでもアクセスできる適切なネームサーバー エントリを含むファイル参照を渡す必要があります。
For details on a known limitation, see Kubernetes documentation.

Optional ParametersDescription
.infra.custom_dns_resolverPath to the file with correct name server entries that can be accessed from anywhere on the VM. These name server entries must not be from 127.0.0.0/8.

 

任意: フォールト トレランスを向上させる

既定では、マルチノードの HA 対応の運用プロファイルは、1 つのサーバー ノードのダウンを許容でき、デプロイは失敗しません。cluster_config.json ファイルの fault_tolerance パラメーターを使用して、サーバー ノードの障害耐性を向上できます。このパラメーターにより、クラスター内のストレージ コンポーネント (Ceph や Longhorn など) のレプリケーション係数を変更します。

ハードウェア要件

フォールト トレランスを 1 以上に向上させるには、環境が次の要件を満たしていることを確認します。

  • クラスターが少なくとも 2x+1 のサーバー ノードで構成されている。x はサーバー ノードに必要なフォールト トレランスです。
  • 各サーバー ノードに RAW デバイスが構成されている。

フォールト トレランスを向上させる方法

フォールト トレランスを 1 以上に向上させるには、次の手順を実行します。

  1. cluster_config.json ファイルで fault_tolerance を必要な値に設定します。インストールまたはアップグレード操作の開始前にこの値を設定しておけば、追加手順を実行する必要はありません。

  2. uipathctl.sh インストーラーを実行して、クラスター内 Ceph ObjectStore のレプリケーション係数を変更します。操作が正常に完了するまで待ちます。

  3. install-uipath.sh インストーラーを実行して、Longhorn ボリュームのレプリケーション係数を変更します。操作が正常に完了するまで待ちます。

約 1 か月前に更新


手動: 高度なインストール


このページでは、Automation Suite の cluster_config.json 構成ファイルの使用方法について説明します。

改善の提案は、API リファレンスのページでは制限されています

改善を提案できるのは Markdown の本文コンテンツのみであり、API 仕様に行うことはできません。