通知を受け取る

UiPath Process Mining

UiPath Process Mining ガイド

DataBridgeAgent を使用してデータを読み込む

📘

With DataBridgeAgent, the data is loaded into a blob store. Therefore, when loading data into Process Mining Cloud, UiPath Automation CloudTM cannot check the IP-address. This means that if IP Restriction is set up for your tenant, it will not be enforced when loading data using DataBridgeAgent from a machine that is not in a trusted IP range, and the data is uploaded to Process Mining Cloud.

はじめに

Similar to extracting data and preparing a dataset for use in a on-premises (stand-alone) Discovery Accelerator, you must extract data from the source system and create a dataset for use in Process Mining (Cloud). This page describes how you can extract data from your source system for use in Process Mining (Cloud) using DataBridgeAgent.

DataBridgeAgent をダウンロードする

Use the following link to download DataBridgeAgent: https://download.uipath.com/ProcessMining/versions/22.4.1/DataBridgeAgent/DataBridgeAgent-22.4.1.zip.

DataBridgeAgent はスタンドアロンのツールです。DataBridgeAgent を使用するための別個のフォルダーをサーバー上に作成することをお勧めします。

🚧

重要

Make sure to install DataBridgeAgent in a folder on the C:\ drive. Since DataBridgeAgent contains connectors that have rather long names, file paths can become very large, which may cause issues when running the datarun.bat file to create the dataset.

Do not install DataBridgeAgent in the in the Process Mining installation folder (PLATFORMDIR). Also, do not install DataBridgeAgent in the Downloads folder.

DataBridgeAgent

DataBridgeAgent is a standalone package that can be used to extract data from your source system to SnowFlake for use in Process Mining (Cloud). It contains the UiPath Process Mining on-premises (stand-alone) build and the on-premises .mvp connector used to prepare the dataset. Currently, the following on-premises .mvp connectors are included in DataBridgeAgent:

If you want to use your own custom .mvp connector, you can add it to DataBridgeAgent. In this case, you need to configure DataBrigdeAgent for use with your connector. See Adding a custom connector to DataBridgeAgent.

オンプレミス版のインストールとの違い

DataBridgeAgent is different from an on-premise (stand-alone) installation since it:

  • コマンドライン ツールであるため、ユーザー インターフェイスを持たない
  • 個別のライセンスを必要としない
  • IIS を必要としない

📘

DataBridgeAgent には、既にコネクタが含まれています。コネクタ自体をダウンロードしてデプロイする必要はありません。

前提条件

See also System requirements.

Shared Access Signature (SAS) URI

Automation CloudTM にデータをアップロードするには、抽出したデータをアップロードする必要がある Azure BLOB ストレージの SAS URI を用意する必要があります。

The SAS is a url that includes all the information in its query parameters needed to authenticate access to the Azure blob storage location. See the illustration below for an example.

14911491

新しいアプリ用の SAS URI を取得する

新しいアプリ用の SAS URI を取得するには、以下の手順に従います。

Step

Action

1

Open the Process Mining Portal. See Process Mining Portal

2

Create a new process app.
Note: Select the applicable process app in the Process apps -> Create new app step.

3

In the Upload data using extractor step, click on imageimage to copy the upload uri to the clipboard.

4

Finish the steps to create the app.

10141014

既存のアプリ用の SAS URI を取得する

既存のアプリ用の SAS URI を取得するには、以下の手順に従います。

Step

Action

1

On the Process Apps tab, locate the app for which you want to obtain the SAS uri in the list of process apps.

2

Click on imageimage and select Upload data from the context menu.

3

Enable the Upload data using extractor option in the Data source step and click on Ingest data and publish app button.

4

In the Upload data using extractor step, click on imageimage to copy the upload uri to the clipboard.

5

Click on Finish.

SAP ソース システムからデータを抽出する

If you want to use data directly from your SAP system in Automation Cloud you must set up the SAP extraction before you can use DataBridgeAgent. See Set up Native SAP Extraction for a detailed description.

.csv ファイルを読み込んでデータを抽出する

If you want to use data loaded from .csv files always make sure that:

  • a separate .csv file is available for each table.
  • the file names of the .csv files are the same as the names of the input tables of the connector.
  • all the fields used in Process Mining are present in the .csvfile.
  • the fields in the .csv files have the same names as the field names used in Process Mining column.

The CSV settings can be defined in the CSV parameters of the DataBridgeAgent.

ODBC 接続経由でデータを抽出する

ODBC 接続を介して外部データ ソースのデータを使用する場合、必要な ODBC ドライバーがサーバーにインストールされていることを確認してください。

🚧

重要

64 ビット バージョンを持つデータベースには、すべて ODBC 接続を使用してアクセスできます。必要な 64 ビット ODBC ドライバーを UiPath Process Mining サーバーにインストールし、サーバーがその特定のシステムにアクセスできる必要があります。

資格情報ストアを使用する

A Credential store allows you to use passwords without showing the actual password. See Set up a Credential Store for a detailed description.

By default, an encrypted credential store is used. See Setting up an encrypted file-based credential store for more information.

📘

To change the Server Settings you edit the <EXTRACTORDIR>\databases\ServerSettings.json file.

DataBridgeAgent を構成する

DataBridgeAgent を構成するには、以下の手順に従います。

Step

Action

1

Download DataBridgeAgent.

2

On the server, create a folder for the DataBridgeAgent. For instance, C:\processmining\P2P_data\.

Note: In the remainder of this guide, we will refer to this directory as <EXTRACTORDIR>.

3

Place the installation package in the <EXTRACTORDIR> folder.
• Right-click on the installation package.
• Select Extract All….

4

Right-click on the file <EXTRACTORDIR>\datarun.json and select Open.

5

Enter a value for the following settings:
azureURL
Connector
Input type
Use credential store

一般的なパラメーター

DataBridgeAgent の一般的なパラメーターの概要は以下のとおりです。

Parameter

Description

azureURL

The SAS URL of the Azure blob storage to which the extracted data needs to be uploaded. See Loading data with Databridge agent

Connector

The location of the connector used to load the data and to create the dataset.

Input type

Can be either:
SAP see SAP parameters
CSV see CSV parameters
ODBC see ODBC parameters
Note: depending on the preferred input type, you must enter the settings in the corresponding section.

Use credential store

Indicate whether or not a credential store is used for password storage.
Note: if set to true you specify the password identifier in de SAP Password or ODBC Password field.

Reporting currency

The currency in which price-related values are displayed.

Exchange rate type

The exchange rate type that is used for currency conversion.

Language

The language in which data is extracted from the source system.

Extraction start date

The start date of the extraction period of the data.
Note: In cases where only a subset of the data is needed, it is recommended to limit the amount of data loaded, while this may improve the loading times.

Extraction end date

The end date of the extraction period of the data.
Note: In cases where only a subset of the data is needed, it is recommended to limit the amount of data loaded, while this may improve the loading times.

SAP パラメーター

SAP のデータソースに使用できるパラメーターの概要は以下のとおりです。

Parameter

Description

SAP Host

The hostname or IP address of the SAP application server.

SAP SystemNumber

The two-digit number between 00 and 99 that identifies the designated instance.

SAP Username

The username of the account that is being used to log in to the SAP instance.

SAP Password

The password of the user above.
Note: If you use a credential store, you must enter the password identifier from the credential store, instead of the password.

SAP Client

The client that is being used.

CSV パラメーター

CSV のデータソースに使用できるパラメーターの概要は以下のとおりです。

SAP Setting

Description

CSV Data path

Data path in the Server Data that points to the place where the .csv files are stored. For example P2P/ if all files can be found in the folder named P2P.

CSV Suffix

A regular expression containing the files extension of the file to read in. May contain a suffix up to 2 digits that are added to the name of the table.

CSV Delimeter

The delimiter character that is used to separate the fields.

CSV Quotation character

The quote character that is used to identify fields that are wrapped in quotes.

CSV Has header

Indicate whether the first line of the .CSV file is a header line.

ODBC パラメーター

ODBC のデータソースに使用できるパラメーターの概要は以下のとおりです。

Parameter

Description

ODBC Driver

The name of the ODBC driver to use for this connection.

ODBC Username

Username to be used to connect to the external datasource.

ODBC Password

Password to be used to connect to the external datasource.
Note: If you use a credential store, you must enter the password identifier from the credential store, instead of the password.

ODBC Connection parameters

Any other parameters are passed as specified to the ODBC driver. Use the format param1=value1 (;param2=value2)

Creating the dataset and upload it for use in Process Mining (Cloud)

To load the data and upload it to Azure for use in Process Mining (Cloud) you must run the EXTRACTORDIR\datarun.bat file.

このタスクにかかる時間は、読み込まれるデータの量によって大きく異なります。
出力は BLOB ストレージにアップロードされ、Snowflake での処理がトリガーされます。

ファイルを手動で開始する

データ実行を開始するには以下の手順に従います。

Step

Action

1

Double-click on the EXTRACTORDIR\datarun.bat file to start the data run.

データ実行のタスクのスケジュールを設定する

ファイルを手動で実行する代わりに Windows のタスク スケジューラーを使用すれば、バッチ スクリプトを実行するタスクをスケジュールでき、データの更新を自動化できます。

📘

Windows のタスク スケジューラでタスクを作成する場合は、[タスクの作成] ウィンドウでタスクの実行者にローカルの SYSTEM ユーザー アカウントを選択し、[最上位の特権で実行する] オプションを選択することをお勧めします。

出力は BLOB ストレージにアップロードされ、Snowflake での処理がトリガーされます。

🚧

重要

利用できるデータがない間隔を追加すると、ダッシュボードにエラー メッセージが表示されます。

トラブルシューティング

The data run also creates a log file that can help in case of unexpected results or if the data upload with DataBridgeAgent fails. The file <EXTRACTORDIR>\datarun.txt contains the logs of the last data run.

19 日前に更新

DataBridgeAgent を使用してデータを読み込む


改善の提案は、API リファレンスのページでは制限されています

改善を提案できるのは Markdown の本文コンテンツのみであり、API 仕様に行うことはできません。