Automation Suite
2022.10
マシンを構成する - Automation Suite 2022.10
Banner background image
ロゴ
Automation Suite インストール ガイド
最終更新日 2024年2月12日

マシンを構成する

ディスクを構成する

重要: データが失われるのを防ぐため、使用するインフラストラクチャがクラスターの再起動時またはシャットダウン時にクラスター ディスクを自動的に削除しないようにしてください。この機能が有効化されている場合は、必ず無効化してください。
ディスクは、configureUiPathDisks.sh スクリプトを使用して構成およびパーティション分割できます。詳しくは、以下のセクションをご覧ください。

ディスクの要件

インストール前に、LVM を使用してディスクのパーティション設定と構成を行い、データ移行やデータ損失が生じることなく、ディスク サイズを容易に変更できるようにする必要があります。

ディスクのパーティションを設定する

RHEL マシンの既定のパーティション構成は、Kubernetes のインストールには適していません。Kubernetes のインフラストラクチャは、通常 /var パーティションにインストールされるためです。この var パーティションには、既定で 8 GiB の容量しか割り当てられません。
注:
  • サポート対象のディスク フォーマットは ext4 または xfs です。
  • パーティションは、すべて LVM を使用して作成する必要があります。これは、クラスターのデータが異なるディスク上にある可能性があっても、一貫性のある表示を保証するためです。将来、データ移行のリスクやデータ損失なしに、パーティションのサイズを拡張できるようにするためにも役立ちます。
  • すべてのポッドとアプリケーション ログは、/var/log/pods ディレクトリに保存されます。このディレクトリの容量が 8 GiB 以上であることを確認してください。また、logrotate を設定して、ログを毎日~毎週の間隔でローテーションすることをお勧めします。

RHEL OS の場合は、マシン上のマウント ポイントの最小サイズが、以下を満たすようにする必要があります。

オンライン

ディスク ラベル

パーティション

Size

目的

クラスター ディスク

/var/lib/rancher

190 GiB

Rancher フォルダーには、コンテナー イメージとレイヤーが格納されます。

/var/lib/kubelet

56 GiB

Kubelet フォルダーには、シークレット、構成マップ、emptyDir などのランタイム Kubernetes 構成が格納されます。

/opt/UiPathAutomationSuite

10 GiB

インストーラーのバイナリ

etcd ディスク

/var/lib/rancher/rke2/server/db

16 GiB

Kubernetes 用の分散データベース

ブロック ストレージ

/datadisk512 GiB

ブロック ストレージ抽象化

ObjectStore1

N/A

512 GiB

クラスター内の ObjectStore

1 これはクラスター内の ObjectStore を指し、外部 ObjectStore を使用する場合は適用されません。
注:
各プロセスに公平にリソースが配分されるようにするため、上記のどの目的でも OS ディスクを使用しないことをお勧めします。
オフライン
注:

オフラインの要件は、インストールを実行する最初のマシンを除き、オンラインでの要件と同じです。最初のマシンでは、以下の要件が必要となります。

オフラインのバンドルを解凍するには余分なスペースが必要です。

ディスク ラベル

パーティション

Size

目的

クラスター ディスク

/var/lib/rancher

190 GiB

Rancher フォルダーには、コンテナー イメージとレイヤーが格納されます。

/var/lib/kubelet

56 GiB

Kubelet フォルダーには、シークレット、構成マップ、emptyDir などのランタイム Kubernetes 構成が格納されます。

/opt/UiPathAutomationSuite

10 GiB

インストーラーのバイナリ

etcd ディスク

/var/lib/rancher/rke2/server/db

16 GiB

Kubernetes 用の分散データベース

ブロック ストレージ

/datadisk

512 GiB

ブロック ストレージ抽象化

ObjectStore1

N/A

512 GiB

クラスター内の ObjectStore

UiPath バンドル ディスク

/uipath512 GiB

エアギャップ バンドル

1 これはクラスター内の ObjectStore を指し、外部 ObjectStore を使用する場合は適用されません。
注:
各プロセスに公平にリソースが配分されるようにするため、上記のどの目的でも OS ディスクを使用しないことをお勧めします。
注:

データ ディスクと etcd ディスクは、独立した物理ディスクである必要があります。これにより、データと etcd のディスクを他のクラスターのワークロードやアクティビティから物理的に分離すると同時に、クラスターのパフォーマンスと安定性も向上させることができます。

サンプル スクリプトを使用して、インストールの前にディスクをパーティション分割し、構成する方法の詳細については、次のセクションをご覧ください。

スクリプトを使用してディスクを構成する

スクリプトをダウンロードする

注: オフライン インストールの場合は、この手順をインターネットと、Automation Suite がデプロイされるエアギャップ マシンの両方にアクセスできるマシンで実行する必要があります。オンラインのマシンから、最初のターゲット マシンにファイルをコピーします。
ディスクの構成とパーティション設定には configureUiPathDisks.sh スクリプトを使用できます。

ダウンロード手順については、「configureUiPathDisks.sh」をご覧ください。

スクリプトを実行する

configureUiPathDisks.sh スクリプトは、次の目的に使用できます。
  • 新しい Automation Suite クラスターをインストールするためのディスクとマウント ポイントを構成する
  • インストール後にデータ ディスクのサイズを変更する

スクリプトを実行可能にするには、以下を実行します。

chmod +x ./configureUiPathDisks.shchmod +x ./configureUiPathDisks.sh

スクリプトの使用方法の詳細を表示するには、以下を実行します。

sudo ./configureUiPathDisks.sh --help
***************************************************************************************
Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk
Arguments
  -n|--node-type                  NodeType, Possible values: agent, server. Default to server.
  -i|--install-type               Installation mode, Possible values: online, offline. Default to online.
  -c|--cluster-disk-name          Device to host rancher and  kubelet. Ex: /dev/sdb.
  -e|--etcd-disk-name             Device to host etcd, Not required for agent node. Ex: /dev/sdb.
  -R|--ceph-raw-disk-name         Device to host ceph OSD, Not required for agent node. Ex: /dev/sdm
  -l|--data-disk-name             Device to host datadisk, Not required for agent node. Ex: /dev/sdc.
  -b|--bundle-disk-name           Device to host the uipath bundle.
                                    Only required for offline installation on 1st server node.
  -k|--robot-package-disk-name    Device to host robot package cache folder
                                    Only required for Automation Suite Robots dedicated node when 'packagecaching' is enabled
  -P|--robot-package-path         Path to robot package cache folder
                                    (defaults to '/uipath_asrobots_package_cache' if not set)
  -f|--complete-suite             Installing complete product suite or any of these products:
                                    aicenter, apps, taskmining, documentunderstanding.
                                    This will configure the datadisk volume to be 2TiB instead of 512Gi.
  -p|--primary-server             Is this machine is first server machine? Applicable only for airgap install.
                                    This is the machine on which UiPath AutomationSuite bundle will be installed.
                                    Default to false.
  -x|--extend-data-disk           Extend the datadisk. Either attach new disk or resize the exiting datadisk.
  -r|--resize                     Used in conjunction of with --extend-data-disk to resize the exiting volume,
                                    instead of adding new volume.
  -d|--debug                      Run in debug.
  -h|--help                       Display help.
ExampleUsage:
  configureUiPathDisks.sh --node-type server --install-type online \
    --cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
    --data-disk-name /dev/sdd
  configureUiPathDisks.sh --data-disk-name /dev/sdh \
    --extend-data-disk
***************************************************************************************sudo ./configureUiPathDisks.sh --help
***************************************************************************************
Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk
Arguments
  -n|--node-type                  NodeType, Possible values: agent, server. Default to server.
  -i|--install-type               Installation mode, Possible values: online, offline. Default to online.
  -c|--cluster-disk-name          Device to host rancher and  kubelet. Ex: /dev/sdb.
  -e|--etcd-disk-name             Device to host etcd, Not required for agent node. Ex: /dev/sdb.
  -R|--ceph-raw-disk-name         Device to host ceph OSD, Not required for agent node. Ex: /dev/sdm
  -l|--data-disk-name             Device to host datadisk, Not required for agent node. Ex: /dev/sdc.
  -b|--bundle-disk-name           Device to host the uipath bundle.
                                    Only required for offline installation on 1st server node.
  -k|--robot-package-disk-name    Device to host robot package cache folder
                                    Only required for Automation Suite Robots dedicated node when 'packagecaching' is enabled
  -P|--robot-package-path         Path to robot package cache folder
                                    (defaults to '/uipath_asrobots_package_cache' if not set)
  -f|--complete-suite             Installing complete product suite or any of these products:
                                    aicenter, apps, taskmining, documentunderstanding.
                                    This will configure the datadisk volume to be 2TiB instead of 512Gi.
  -p|--primary-server             Is this machine is first server machine? Applicable only for airgap install.
                                    This is the machine on which UiPath AutomationSuite bundle will be installed.
                                    Default to false.
  -x|--extend-data-disk           Extend the datadisk. Either attach new disk or resize the exiting datadisk.
  -r|--resize                     Used in conjunction of with --extend-data-disk to resize the exiting volume,
                                    instead of adding new volume.
  -d|--debug                      Run in debug.
  -h|--help                       Display help.
ExampleUsage:
  configureUiPathDisks.sh --node-type server --install-type online \
    --cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
    --data-disk-name /dev/sdd
  configureUiPathDisks.sh --data-disk-name /dev/sdh \
    --extend-data-disk
***************************************************************************************

マルチノードの HA 対応の運用環境の設定用にディスクを構成する

オンライン

サーバー ノード

オンラインのマルチノードの高可用性対応の運用設定でディスクを構成するには、すべてのサーバー マシンで次のコマンドを実行します。

./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk
エージェント ノード

オンラインのマルチノードの高可用性対応の運用設定でディスクを構成するには、すべてのエージェント マシンで次のコマンドを実行します。

./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --node-type agent./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --node-type agent

オフライン

最初のサーバー ノード

オフライン インストールでは、Docker レジストリに製品のイメージを読み込む必要があります。そのためには、別ディスクの形で追加のストレージが必要となります。このディスクは、製品バンドルの un-tar と Docker レジストリへのイメージのアップロードに使用されます。このディスクが必要となるのは、1 つのマシンだけです。

サーバー マシンの 1 つ、またはファブリックとサービスのインストーラーを実行するマシンには --primary-server フラグを設定します。

オフラインのマルチノードの高可用性対応の運用設定でディスクを構成するには、いずれかのサーバー マシンで次のコマンドを実行します。

./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk \
  --bundle-disk-name name_of_uipath_bundle_disk \
  --primary-server \
  --install-type offline./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk \
  --bundle-disk-name name_of_uipath_bundle_disk \
  --primary-server \
  --install-type offline
その他のサーバー ノード
サーバー ノードでは、バンドル ディスクは不要です。したがって、--primary-server--bundle-disk-name を指定する必要はありません。

オフラインのマルチノードの高可用性対応の運用設定でディスクを構成するには、その他のサーバー マシンで次のコマンドを実行します。

./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk \
  --install-type offline./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk \
  --install-type offline
エージェント ノード
サーバー ノードでは、バンドル ディスクは不要です。したがって、--primary-server--bundle-disk-name を指定する必要はありません。

オフラインのマルチノードの高可用性対応の運用設定でディスクを構成するには、その他のエージェント マシンで次のコマンドを実行します。

./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --node-type agent \
  --install-type offline./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --node-type agent \
  --install-type offline

ObjectStore ディスクを構成する

次のスクリプトを実行して、クラスター内の ObjectStore のストレージ サイズを拡張できます。

./configureUiPathDisks.sh --ceph-raw-disk-name name_ceph_raw_disk./configureUiPathDisks.sh --ceph-raw-disk-name name_ceph_raw_disk
注:
  • Azure の既知の問題により、Azure ディスクが非 SSD として誤ってマークされます。Azure がクラウド プロバイダーであり、ObjectStore ディスクを構成したい場合は、「トラブルシューティング」の手順に従ってください。

  • 既存のディスクの垂直スケーリングはサポートされていません。インストール後にクラスター内のストレージのサイズを増やすには、新しい RAW ディスクを追加してください。

インストール後にデータ ディスクを拡張する

データ ディスクを拡張するには、新しい物理ディスクを接続するか、既存のディスクのサイズを変更します。

新しいディスクを追加する

新たに接続されたディスクを使用してデータ ディスクを拡張するには、サーバー マシンで次のコマンドを実行します。

./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
  --extend-data-disk./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
  --extend-data-disk

既存のディスクのサイズを変更する

既存のディスクのサイズを変更することでデータ ディスクを拡張するには、サーバー マシンで次のコマンドを実行します。

./configureUiPathDisks.sh --extend-data-disk --resize./configureUiPathDisks.sh --extend-data-disk --resize

ディスク マウントを検証する

  1. 以下の手順を実行して、システムの再起動を処理するように、/etc/fstab が適切に構成されていることを確認します。
    注:
    etcd と datadisk のマウント ポイントが fstab ファイルに追加されていることを確認してください。
    /var/lib/rancher/var/lib/kubelet に対して、別々のディスク パーティションがある場合は、fstab に、これら 2 つのフォルダーも含める必要があります。さらに、これらの fstab エントリには、障害発生時の仮想マシンのブートに影響を及ぼさないように nofail オプションも指定してください。
  2. 次のコマンドを実行して、ディスクが適切にマウントされていることを確認します。

    mount -afvmount -afv
  3. 次のような応答が得られるはずです。

    /datadisk                              : already mounted
    /var/lib/rancher/rke2/server/db        : already mounted
    /var/lib/rancher                       : already mounted
    /var/lib/kubelet                       : already mounted/datadisk                              : already mounted
    /var/lib/rancher/rke2/server/db        : already mounted
    /var/lib/rancher                       : already mounted
    /var/lib/kubelet                       : already mounted

ポートを有効化する

各ソースについて、ファイアウォールで次のポートが有効化されていることを確認してください。

ポート

プロトコル

ソース

目的

要件

22

TCP

ジャンプ サーバー/クライアント マシン

SSH 用 (インストール、クラスター管理のデバッグ)

このポートは、インターネットに開かないでください。クライアント マシンまたはジャンプ サーバーへのアクセスを可能にします。

80

TCP

 

オフライン インストールのみ: システム メール通知を送信するために必要です。

 

443

TCP

クラスター内のすべてのノードとロード バランサー

HTTPS 用 (Automation Suite にアクセスする)

このポートは、クラスター内のすべてのノードとロード バランサーとの間で、送受信接続する必要があります。

587

TCP

 

オフライン インストールのみ: システム メール通知を送信するために必要です。

 

2379

TCP

クラスター内のすべてのノード

etcd クライアント ポート

インターネットに公開しないでください。プライベート IP アドレスを介したノード間のアクセスで十分です。

2380

TCP

クラスター内のすべてのノード

etcd ピア ポート

インターネットに公開しないでください。プライベート IP アドレスを介したノード間のアクセスで十分です。

6443

TCP

クラスター内のすべてのノード

HTTP を使用した Kube API へのアクセス用 (ノード参加に必要)

このポートは、クラスター内のすべてのノードの間で、送受信接続する必要があります。

8472

UDP

クラスター内のすべてのノード

Flannel (VXLAN) 用に必要

インターネットに公開しないでください。プライベート IP アドレスを介したノード間のアクセスで十分です。

9090

TCP

クラスター内のすべてのノード

Cilium でポッドのクラッシュを監視および処理するために使用されます。

このポートは、クラスター内のすべてのノードの間で、送受信接続する必要があります。

9345

TCP

クラスター内のすべてのノードとロード バランサー

HTTP を使用した Kube API へのアクセス用 (ノード参加に必要)

このポートは、クラスター内のすべてのノードとロード バランサーとの間で、送受信接続する必要があります。

10250

TCP

クラスター内のすべてのノード

kubelet/メトリック サーバー

インターネットに公開しないでください。プライベート IP アドレスを介したノード間のアクセスで十分です。

30071

TCP

クラスター内のすべてのノード

クラスター内のノード間の内部通信用の NodePort のポート

インターネットに公開しないでください。プライベート IP アドレスを介したノード間のアクセスで十分です。

重要:
Kerberos API への直接接続がある場合は、ポート 6443 をクラスターの境界の外側に公開する必要があります。
ポート 9345 は、ノードが既存のノードを検出し、マルチノード デプロイのクラスターに参加するために使用されます。高可用性検出メカニズムの実行を続けるには、健全性チェック付きのロード バランサーを介して公開することをお勧めします。

すべてのノードから SQL Server への接続が確立されていることも確認してください。

Istio の予約済みポートのいずれかに SQL Server を公開しないでください。接続障害が発生する場合があります。

ネットワーク上にファイアウォールが設定されている場合、上記要件に従ってこれらのポートが開かれ、トラフィックが許可されていることを確認します。

必要な RPM パッケージをインストールする

必要な RPM パッケージをインストールおよび検証するには、次のツールのいずれかを使用できます。

  • install-uipath.sh 手動インストーラー。オンライン環境の場合、このインストーラーは既定ですべての RPM パッケージをインストールおよび検証します。
  • installUiPathAS.sh 対話型インストーラー。このインストーラーは、install-uipath.sh インストーラーを使用してすべての RPM パッケージを検証します。
    • RPM パッケージを検証するには、validateUiPathASReadiness.sh validate-packages を実行します。
    • オンライン インストールで RPM パッケージをインストールするには、validateUiPathASReadiness.sh install-packages を実行します。
    • オフライン インストールで RPM パッケージをインストールするには、validateUiPathASReadiness.sh install-packages --install-type offline を実行します。

RPM パッケージの要件のリストについては、「ハードウェアおよびソフトウェアの要件」をご覧ください。

任意: プロキシ サーバーを構成する

プロキシを構成するには、前提条件を満たす環境の設定、およびインストール時の高度な構成段階において、追加の構成手順を実行する必要があります。

環境設定時には、次の手順が必要になります。

注: 現在、自己署名証明書による HTTPS プロキシはサポートしていません。プロキシを構成する場合は、必ず信頼された公開証明書を使用してください。

手順 1: 仮想ネットワーク上のポートを有効化する

指定の仮想ネットワークのネットワーク セキュリティ グループで、次のルールを有効化してください。

ソース

ターゲット

プロキシ経由のルート

ポート

説明

仮想ネットワーク

SQL

いいえ

SQL Server ポート

SQL Server に必要です。

仮想ネットワーク

ロード バランサー

いいえ

9345

6443

クラスターに新しいノードを追加するために必要です。

仮想ネットワーク

クラスター (サブネット)

いいえ

すべてのポート

プライベート IP 範囲での通信に必要です。

仮想ネットワーク

alm.<fqdn>

いいえ

443

ログインおよびデプロイ時に ArgoCD クライアントを使用するために必要です。

仮想ネットワーク

プロキシ サーバー

はい

すべてのポート

トラフィックをプロキシ サーバーにルーティングするために必要です。

仮想ネットワーク

NameServer

いいえ

すべてのポート

Azure や AWS など、ほとんどのクラウド サービスでは、これを使用して仮想マシンのメタデータを取得し、これをプライベート IP と見なします。

仮想ネットワーク

MetaDataServer

いいえ

すべてのポート

Azure や AWS など、ほとんどのクラウド サービスでは、IP アドレス 169.254.169.254 を使用してマシンのメタデータを取得します。

手順 2: 各ノードにプロキシ構成を追加する

ノードの構成時に、クラスターに含まれる各ノードに対してプロキシ構成を追加する必要があります。この手順は、ノードからのアウトバウンド トラフィックをプロキシ サーバー経由でルーティングするために必要です。

  1. /etc/environment に、次の構成を追加します。
    http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>
  2. /etc/wgetrc に、次の構成を追加します。
    http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>

    必須パラメーター

    説明

    http_proxy

    ノードからの HTTP アウトバウンド要求をルーティングするために使用します。これはプロキシ サーバーの FQDN とポートとする必要があります。

    https_proxy

    ノードからの HTTPS アウトバウンド要求をルーティングするために使用します。これはプロキシ サーバーの FQDN とポートとする必要があります。

    no_proxy

    プロキシ サーバー経由でルーティングしない、ホスト、IP アドレスのコンマ区切りリストです。プライベート サブネット、SQL Server ホスト、名前付きサーバー アドレス、メタデータ サーバー アドレスを指定する必要があります (alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>)。
    • metadata server address – Azure や AWS など、ほとんどのクラウド サービスでは、IP アドレス 169.254.169.254 を使用してマシンのメタデータを取得します。
    • named server address – Azure や AWS など、ほとんどのクラウド サービスでは、これを使用して DNS クエリを解決します。
    重要:
    AI Center を外部 Orchestrator で使用する場合は、外部 Orchestrator ドメインを no_proxy リストに追加する必要があります。
  3. 次のコマンドを実行して、プロキシ設定が適切に構成されていることを検証します。

    curl -v $HTTP_PROXY
    curl -v <fixed_rke_address>:9345curl -v $HTTP_PROXY
    curl -v <fixed_rke_address>:9345
    重要: プロキシ サーバーの要件が満たされたら、インストール時のプロキシ構成を進めるようにしてください。「任意: プロキシ サーバーを構成する」の手順に従い、プロキシ サーバーを適切に設定してください。
Support and Services icon
サポートを受ける
UiPath Academy icon
RPA について学ぶ - オートメーション コース
UiPath Forum icon
UiPath コミュニティ フォーラム
UiPath ロゴ (白)
信頼とセキュリティ
© 2005-2024 UiPath. All rights reserved.