Automation Suite
2021.10
バナーの背景画像
Automation Suite インストール ガイド
最終更新日 2024年3月25日

マシンを構成する

カーネルおよび OS レベルの設定の構成

以下のページは、Linux 管理者が Automation Suite のインストールを実行する前に OS とカーネル レベルの設定を管理するのに役立ちます。

通常、これらの設定は、Puppet などの専用の管理構成ツールを使用して管理されます。 一貫性と文書化の目的で、行う変更が環境の制御プロセスに従っていることを確認してください。

重要:

OS およびカーネル レベルでの設定に誤りがあると、直感的でないエラーが発生する可能性があるため、インストールを開始する前に必ず以下の手順を完了してください。 これらの特定の設定を確認すると、多くの場合、このようなエラーを回避できます。

sysctl 設定を構成する

sysctl設定では、IP 転送を有効にし、逆方向パス フィルタリングを無効にする必要があります。それには、次のコマンドを実行します。
cat <<EOF >>"/etc/sysctl.d/99-sysctl.conf"
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.conf.all.rp_filter=0
EOFcat <<EOF >>"/etc/sysctl.d/99-sysctl.conf"
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.conf.all.rp_filter=0
EOF
メモ: この nf-call-iptables は、ほとんどの Kubernetes のデプロイに必要です。 Kubernetes は、クラスターの内部に仮想ネットワークを作成します。 これにより、すべてのポッドが独自の IP アドレスを持つことができ、サービス間の通信を容易にするために内部ネームサービスと組み合わせて使用されます。 クラスターは nf-call-iptables が有効でないと動作しません。 詳しくは、 Kubernetes の公式ドキュメントをご覧ください。

ファポリシー設定の構成

fapolicy を使用する場合は、RKE2 固有のポリシーが必要です。 これを生成するには、次のコマンドを使用します。

cat <<-EOF >>"/etc/fapolicyd/rules.d/69-rke2.rules"
allow perm=any all : dir=/var/lib/rancher/
allow perm=any all : dir=/opt/cni/
allow perm=any all : dir=/run/k3s/
allow perm=any all : dir=/var/lib/kubelet/
EOFcat <<-EOF >>"/etc/fapolicyd/rules.d/69-rke2.rules"
allow perm=any all : dir=/var/lib/rancher/
allow perm=any all : dir=/opt/cni/
allow perm=any all : dir=/run/k3s/
allow perm=any all : dir=/var/lib/kubelet/
EOF
注:

変更が Linux チームに伝達され、適切な構成管理プロセスを経ていることを確認します。

noexec および nosuid の設定

/var/lib/rancher マウントに使用するディスクには、noexecnosuid がセットされていてはなりません。ディスクツールは、これらのプロパティなしでこれらのマウントを自動的に作成します。
重要:

Linux 管理者がこれらのプロパティーを手動で設定すると、インスタンスは機能しなくなります。

For more details on disk configuration, see Disk Requirements.

ディスクを構成する

重要: データが失われるのを防ぐため、使用するインフラストラクチャがクラスターの再起動時またはシャットダウン時にクラスター ディスクを自動的に削除しないようにしてください。この機能が有効化されている場合は、必ず無効化してください。
ディスクは、configureUiPathDisks.sh スクリプトを使用して構成およびパーティション分割できます。詳しくは、以下のセクションをご覧ください。

ディスクの要件

インストール前に、LVM を使用してディスクのパーティション設定と構成を行い、データ移行やデータ損失が生じることなく、ディスク サイズを容易に変更できるようにする必要があります。

ディスクのパーティションを設定する

RHEL マシンの既定のパーティション構成は、Kubernetes のインストールには適していません。Kubernetes のインフラストラクチャは、通常 /var パーティションにインストールされるためです。この var パーティションには、既定で 8 GiB の容量しか割り当てられません。
注:
サポート対象のディスク フォーマットは ext4 または xfs です。

パーティションは、すべて LVM を使用して作成する必要があります。これは、クラスターのデータが異なるディスク上にある可能性があっても、一貫性のある表示を保証するためです。将来、データ移行のリスクやデータ損失なしに、パーティションのサイズを拡張できるようにするためにも役立ちます。

RHEL OS の場合は、マシン上のマウント ポイントの最小サイズが、以下を満たすようにする必要があります。

オンライン

ディスク ラベル

パーティション

Size

目的

クラスター ディスク

/var/lib/rancher

190 GiB

Rancher フォルダーには、コンテナー イメージとレイヤーが格納されます。

/var/lib/kubelet

56 GiB

Kubelet フォルダーには、シークレット、構成マップ、emptyDir などのランタイム Kubernetes 構成が格納されます。

/opt/UiPathAutomationSuite

10 GiB

インストーラーのバイナリ

etcd ディスク

/var/lib/rancher/rke2/server/db

16 GiB

Kubernetes 用の分散データベース

データ ディスク

/datadisk

512 GiB (基本インストール)

ブロック ストレージ抽象化

2 TiB (完全インストール)

注:
各プロセスに公平にリソースが配分されるようにするため、上記のどの目的でも OS ディスクを使用しないことをお勧めします。
オフライン
注:

オフラインでの要件は、インストールを実行する最初のマシンを除き、オンラインでの要件と同じです。最初のマシンでは、以下の要件が必要となります。

オフラインのバンドルを解凍するには余分なスペースが必要です。

ディスク ラベル

パーティション

Size

目的

クラスター ディスク

/var/lib/rancher

190 GiB

Rancher フォルダーには、コンテナー イメージとレイヤーが格納されます。

/var/lib/kubelet

56 GiB

Kubelet フォルダーには、シークレット、構成マップ、emptyDir などのランタイム Kubernetes 構成が格納されます。

/opt/UiPathAutomationSuite

10 GiB

インストーラーのバイナリ

etcd ディスク

/var/lib/rancher/rke2/server/db

16 GiB

Kubernetes 用の分散データベース

データ ディスク

/datadisk

512 GiB (基本インストール)

ブロック ストレージ抽象化

2 TiB (完全インストール)

UiPath バンドル ディスク

/uipath

512 GiB

エアギャップ バンドル

注:
各プロセスに公平にリソースが配分されるようにするため、上記のどの目的でも OS ディスクを使用しないことをお勧めします。
注:

データ ディスクと etcd ディスクは、独立した物理ディスクである必要があります。これにより、データと etcd のディスクを他のクラスターのワークロードやアクティビティから物理的に分離すると同時に、クラスターのパフォーマンスと安定性も向上させることができます。

サンプル スクリプトを使用して、インストールの前にディスクをパーティション分割し、構成する方法の詳細については、次のセクションをご覧ください。

スクリプトを使用してディスクを構成する

スクリプトをダウンロードする

注: オフライン インストールの場合は、この手順をインターネットと、Automation Suite がデプロイされるエアギャップ マシンの両方にアクセスできるマシンで実行する必要があります。オンラインのマシンから、ターゲット マシンにファイルをコピーします。
ディスクの構成とパーティション設定には configureUiPathDisks.sh スクリプトを使用できます。

ダウンロード手順については、「configureUiPathDisks.sh」をご覧ください。

スクリプトを実行する

configureUiPathDisks.sh スクリプトは、次の目的に使用できます。
  • 新しい Automation Suite クラスターをインストールするためのディスクとマウント ポイントを構成する
  • インストール後にデータ ディスクのサイズを変更する

スクリプトを実行可能にするには、以下を実行します。

chmod +x ./configureUiPathDisks.shchmod +x ./configureUiPathDisks.sh

スクリプトの使用方法の詳細を表示するには、次のコマンドを実行します。

sudo ./configureUiPathDisks.sh --helpsudo ./configureUiPathDisks.sh --help
***************************************************************************************

Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk

Arguments
  -n|--node-type                  NodeType, Possible values: agent, server. Default to server
  -i|--install-type               Installation mode, Possible values: online, offline. Default to online
  -c|--cluster-disk-name          Device to host rancher and  kubelet. Ex: /dev/sdb
  -e|--etcd-disk-name             Device to host etcd, Not required for agent node. Ex: /dev/sdb
  -l|--data-disk-name             Device to host datadisk, Not required for agent node. Ex: /dev/sdc
  -b|--bundle-disk-name           Device to host the uipath bundle. 
                                    Only required for offline installation on 1st server node 
  -f|--complete-suite             Installing complete product suite or any of these products: 
                                    aicenter, apps, taskmining, documentunderstanding. 
                                    This will configure the datadisk volume to be 2TiB instead of 512Gi.
  -p|--primary-server             Is this machine is first server machine? Applicable only for airgap install.
                                    This is the machine on which UiPath AutomationSuite bundle will be installed.
                                    Default to false
  -x|--extend-data-disk           Extend the datadisk. Either attach new disk or resize the exiting datadisk
  -r|--resize                     Used in conjunction of with --extend-data-disk to resize the exiting volume,
                                    instead of adding new volume               
  -d|--debug                      Run in debug
  -h|--help                       Display help

ExampleUsage:
  configureUiPathDisks.sh --node-type server --install-type online \
    --cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
    --data-disk-name /dev/sdd

  configureUiPathDisks.sh --data-disk-name /dev/sdh --extend-data-disk
******************************************************************************************************************************************************************************

Utility to configure the disk for UiPath Automation Suite Installation.
Run this script to configure the disks on new machine or to extend the size of datadisk

Arguments
  -n|--node-type                  NodeType, Possible values: agent, server. Default to server
  -i|--install-type               Installation mode, Possible values: online, offline. Default to online
  -c|--cluster-disk-name          Device to host rancher and  kubelet. Ex: /dev/sdb
  -e|--etcd-disk-name             Device to host etcd, Not required for agent node. Ex: /dev/sdb
  -l|--data-disk-name             Device to host datadisk, Not required for agent node. Ex: /dev/sdc
  -b|--bundle-disk-name           Device to host the uipath bundle. 
                                    Only required for offline installation on 1st server node 
  -f|--complete-suite             Installing complete product suite or any of these products: 
                                    aicenter, apps, taskmining, documentunderstanding. 
                                    This will configure the datadisk volume to be 2TiB instead of 512Gi.
  -p|--primary-server             Is this machine is first server machine? Applicable only for airgap install.
                                    This is the machine on which UiPath AutomationSuite bundle will be installed.
                                    Default to false
  -x|--extend-data-disk           Extend the datadisk. Either attach new disk or resize the exiting datadisk
  -r|--resize                     Used in conjunction of with --extend-data-disk to resize the exiting volume,
                                    instead of adding new volume               
  -d|--debug                      Run in debug
  -h|--help                       Display help

ExampleUsage:
  configureUiPathDisks.sh --node-type server --install-type online \
    --cluster-disk-name /dev/sdb --etcd-disk-name /dev/sdc \
    --data-disk-name /dev/sdd

  configureUiPathDisks.sh --data-disk-name /dev/sdh --extend-data-disk
***************************************************************************************

シングルノードの評価設定用にディスクを構成する

オンライン

オンラインのシングルノードの評価設定でディスクを構成するには、マシン上で次のコマンドを実行します。

./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk

オフライン

オフライン インストールでは、Docker レジストリに製品のイメージを読み込む必要があります。そのためには、UiPath 製品バンドルをホストするため、別ディスクの形で追加のストレージが必要となります。

オフラインのシングルノードの評価設定でディスクを構成するには、マシン上で次のコマンドを実行します。

./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk \
  --bundle-disk-name name_of_uipath_bundle_disk \
  --primary-server \
  --install-type offline./configureUiPathDisks.sh --cluster-disk-name name_of_cluster_disk \
  --etcd-disk-name name_of_etcd_disk \
  --data-disk-name name_of_data_disk \
  --bundle-disk-name name_of_uipath_bundle_disk \
  --primary-server \
  --install-type offline
注: Task Mining または GPU 用の追加エージェント ノードがある場合、そのノードにはクラスター ディスクのみが必要です。このスクリプトは、クラスター ディスク名を指定し、ノード タイプをエージェントとして指定することで実行できます。

インストール後にデータ ディスクを拡張する

データ ディスクを拡張するには、新しい物理ディスクを接続するか、既存のディスクのサイズを変更します。

新しいディスクを追加する

新たに接続されたディスクを使用してデータ ディスクを拡張するには、サーバー マシンで次のコマンドを実行します。

./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
  --extend-data-disk./configureUiPathDisks.sh --data-disk-name name_of_data_disk \
  --extend-data-disk

既存のディスクのサイズを変更する

既存のディスクのサイズを変更することでデータ ディスクを拡張するには、サーバー マシンで次のコマンドを実行します。

./configureUiPathDisks.sh --extend-data-disk --resize./configureUiPathDisks.sh --extend-data-disk --resize

ディスク マウントを検証する

  1. 以下の手順を実行して、システムの再起動を処理するように、/etc/fstab が適切に構成されていることを確認します。
    注:
    etcd と datadisk のマウント ポイントが fstab ファイルに追加されていることを確認してください。
    /var/lib/rancher/var/lib/kubelet に対して、別々のディスク パーティションがある場合は、fstab に、これら 2 つのフォルダーも含める必要があります。さらに、これらの fstab エントリには、障害発生時の仮想マシンのブートに影響を及ぼさないように nofail オプションも指定してください。
  2. 次のコマンドを実行して、ディスクが適切にマウントされていることを確認します。
    mount -afvmount -afv
  3. 次のような応答が得られるはずです。
    /datadisk                              : already mounted
    /var/lib/rancher/rke2/server/db        : already mounted
    /var/lib/rancher                       : already mounted
    /var/lib/kubelet                       : already mounted/datadisk                              : already mounted
    /var/lib/rancher/rke2/server/db        : already mounted
    /var/lib/rancher                       : already mounted
    /var/lib/kubelet                       : already mounted

ポートを有効化する

各ソースについて、ファイアウォールで次のポートが有効化されていることを確認してください。

ポート

プロトコル

ソース

目的

要件

22

TCP

ジャンプ サーバー/クライアント マシン

SSH 用 (インストール、クラスター管理のデバッグ)

このポートは、インターネットに開かないでください。クライアント マシンまたはジャンプ サーバーへのアクセスを可能にします。

80

TCP

 

オフライン インストールのみ: システム メール通知を送信するために必要です。

 

443

TCP

クラスター内のすべてのノードとロード バランサー

HTTPS 用 (Automation Suite にアクセスする)

このポートは、クラスター内のすべてのノードとロード バランサーとの間で、送受信接続する必要があります。

587

TCP

 

オフライン インストールのみ: システム メール通知を送信するために必要です。

 

Task Mining を有効化し、専用の Task Mining ノードおよび/または GPU がサポートされた専用のノードをプロビジョニングした場合は、上記に加えてファイアウォールで以下のポートも必ず有効化します。

ポート

プロトコル

ソース

目的

要件

2379

TCP

クラスター内のすべてのノード

etcd クライアント ポート

インターネットに公開しないでください。プライベート IP アドレスを介したノード間のアクセスで十分です。

2380

TCP

クラスター内のすべてのノード

etcd ピア ポート

インターネットに公開しないでください。プライベート IP アドレスを介したノード間のアクセスで十分です。

6443

TCP

クラスター内のすべてのノード

HTTP を使用した Kube API へのアクセス用 (ノード参加に必要)

このポートは、クラスター内のすべてのノードの間で、送受信接続する必要があります。

8472

UDP

クラスター内のすべてのノード

Flannel (VXLAN) 用に必要

インターネットに公開しないでください。プライベート IP アドレスを介したノード間のアクセスで十分です。

9345

TCP

クラスター内のすべてのノードとロード バランサー

HTTP を使用した Kube API へのアクセス用 (ノード参加に必要)

このポートは、クラスター内のすべてのノードとロード バランサーとの間で、送受信接続する必要があります。

10250

TCP

クラスター内のすべてのノード

kubelet/メトリック サーバー

インターネットに公開しないでください。プライベート IP アドレスを介したノード間のアクセスで十分です。

30071

TCP

クラスター内のすべてのノード

クラスター内のノード間の内部通信用の NodePort のポート

インターネットに公開しないでください。プライベート IP アドレスを介したノード間のアクセスで十分です。

重要:
Kerberos API への直接接続がある場合は、ポート 6443 をクラスターの境界の外側に公開する必要があります。
ポート 9345 は、ノードが既存のノードを検出し、マルチノード デプロイのクラスターに参加するために使用されます。高可用性検出メカニズムの実行を続けるには、健全性チェック付きのロード バランサーを介して公開することをお勧めします。

すべてのノードから SQL Server への接続が確立されていることも確認してください。

Istio の予約済みポートのいずれかに SQL Server を公開しないでください。接続障害が発生する場合があります。

ネットワーク上にファイアウォールが設定されている場合、上記要件に従ってこれらのポートが開かれ、トラフィックが許可されていることを確認します。

任意: プロキシ サーバーを構成する

プロキシを構成するには、前提条件を満たす環境の設定、およびインストール時の高度な構成段階において、追加の構成手順を実行する必要があります。

環境設定時には、次の手順が必要になります。

現在、自己署名証明書による HTTPS プロキシはサポートしていません。プロキシを構成する場合は、必ず信頼された公開証明書を使用してください。

手順 1: 仮想ネットワーク上のポートを有効化する

指定の仮想ネットワークのネットワーク セキュリティ グループで、次のルールを有効化してください。

ソース

ターゲット

プロキシ経由のルート

ポート

説明

仮想ネットワーク

SQL

いいえ

SQL Server ポート

SQL Server に必要です。

仮想ネットワーク

ロード バランサー

いいえ

9345

6443

クラスターに新しいノードを追加するために必要です。

仮想ネットワーク

クラスター (サブネット)

いいえ

すべてのポート

プライベート IP 範囲での通信に必要です。

仮想ネットワーク

alm.<fqdn>

いいえ

443

ログインおよびデプロイ時に ArgoCD クライアントを使用するために必要です。

仮想ネットワーク

プロキシ サーバー

はい

すべてのポート

トラフィックをプロキシ サーバーにルーティングするために必要です。

仮想ネットワーク

NameServer

いいえ

すべてのポート

Azure や AWS など、ほとんどのクラウド サービスでは、これを使用して仮想マシンのメタデータを取得し、これをプライベート IP と見なします。

仮想ネットワーク

MetaDataServer

いいえ

すべてのポート

Azure や AWS など、ほとんどのクラウド サービスでは、IP アドレス 169.254.169.254 を使用してマシンのメタデータを取得します。

手順 2: 各ノードにプロキシ構成を追加する

ノードの構成時に、クラスターに含まれる各ノードに対してプロキシ構成を追加する必要があります。この手順は、ノードからのアウトバウンド トラフィックをプロキシ サーバー経由でルーティングするために必要です。

  1. /etc/environment に、次の構成を追加します。
    http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>
  2. /etc/wgetrc に、次の構成を追加します。
    http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>http_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    https_proxy=http://<PROXY-SERVER-IP>:<PROXY-PORT>
    no_proxy=alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>,<private_subnet_ip>,localhost,<Comma separated list of ips that should not got though proxy server>

    必須パラメーター

    説明

    http_proxy

    ノードからの HTTP アウトバウンド要求をルーティングするために使用します。これはプロキシ サーバーの FQDN とポートとする必要があります。

    https_proxy

    ノードからの HTTPS アウトバウンド要求をルーティングするために使用します。これはプロキシ サーバーの FQDN とポートとする必要があります。

    no_proxy

    プロキシ サーバー経由でルーティングしない、ホスト、IP アドレスのコンマ区切りリストです。プライベート サブネット、SQL Server ホスト、名前付きサーバー アドレス、メタデータ サーバー アドレスを指定する必要があります (alm.<fqdn>,<fixed_rke2_address>,<named server address>,<metadata server address>)。
    • named server address – Azure や AWS など、ほとんどのクラウド サービスでは、これを使用して DNS クエリを解決します。
    • metadata server address – Azure や AWS など、ほとんどのクラウド サービスでは、IP アドレス 169.254.169.254 を使用してマシンのメタデータを取得します。
  3. 次のコマンドを実行して、プロキシ設定が適切に構成されていることを検証します。

    curl -v $HTTP_PROXY
    curl -v <fixed_rke_address>:9345curl -v $HTTP_PROXY
    curl -v <fixed_rke_address>:9345
    重要: プロキシ サーバーの要件が満たされたら、インストール時のプロキシ構成を進めるようにしてください。「任意: プロキシ サーバーを構成する」の手順に従い、プロキシ サーバーを適切に設定してください。

Was this page helpful?

サポートを受ける
RPA について学ぶ - オートメーション コース
UiPath コミュニティ フォーラム
UiPath ロゴ (白)
信頼とセキュリティ
© 2005-2024 UiPath. All rights reserved.