通知を受け取る

UiPath Process Mining

UiPath Process Mining ガイド

DataBridgeAgent を使用してデータを読み込む

📘

注:

With DataBridgeAgent, the data is loaded into a blob store. Therefore, when loading data into Process Mining Cloud, UiPath Automation Cloud cannot check the IP-address. This means that if IP Restriction is set up for your tenant, it will not be enforced when loading data using DataBridgeAgent from a machine that is not in a trusted IP range, and the data is uploaded to Process Mining Cloud.

はじめに

Similar to extracting data and preparing a dataset for use in a on-premises (stand-alone) Discovery Accelerator, you must extract data from the source system and create a dataset for use in Process Mining. This page describes how you can extract data from your source system for use in Process Mining using DataBridgeAgent.

📘

注:

Only use DataBridgeAgent if you have a custom .mvp connector. Otherwise, use CData Sync, Theobald Xtract Universal for SAP, or file to upload data.

DataBridgeAgent をダウンロードする

Use the following link to download DataBridgeAgent: https://download.uipath.com/ProcessMining/versions/22.4.1/DataBridgeAgent/DataBridgeAgent-22.4.1.zip.

DataBridgeAgent はスタンドアロンのツールです。DataBridgeAgent を使用するための別個のフォルダーをサーバー上に作成することをお勧めします。

📘

注:

Make sure to install DataBridgeAgent in a folder on the C:\ drive. Since DataBridgeAgent contains connectors that have rather long names, file paths can become very large, which may cause issues when running the datarun.bat file to create the dataset.

Do not install DataBridgeAgent in the in the Process Mining installation folder (PLATFORMDIR). Also, do not install DataBridgeAgent in the Downloads folder.

DataBridgeAgent

DataBridgeAgent is a standalone package that can be used to extract data from your source system to SnowFlake for use in Process Mining (Cloud). It contains the UiPath Process Mining on-premises (stand-alone) build and the on-premises .mvp connector used to prepare the dataset. Currently, the following on-premises .mvp connectors are included in DataBridgeAgent:

If you want to use your own custom .mvp connector, you can add it to DataBridgeAgent. In this case, you need to configure DataBrigdeAgent for use with your connector. See Adding a custom connector to DataBridgeAgent.

オンプレミス版のインストールとの違い

DataBridgeAgent is different from an on-premise (stand-alone) installation since it:

  • コマンドライン ツールであるため、ユーザー インターフェイスを持たない
  • 個別のライセンスを必要としない
  • IIS を必要としない

📘

注:

DataBridgeAgent には、既にコネクタが含まれています。コネクタ自体をダウンロードしてデプロイする必要はありません。

前提条件

See System requirements.

To be able to upload the data to Automation CloudTM you need to have the Shared Access Signature (SAS) uri of the Azure blob storage to which the extracted data needs to be uploaded. See Obtaining the SAS uri of a process app.

SAP ソース システムからデータを抽出する

If you want to use data directly from your SAP system in Automation Cloud you must set up the SAP extraction before you can use DataBridgeAgent. See Set up Native SAP Extraction for a detailed description.

.csv ファイルを読み込んでデータを抽出する

.csv ファイルから読み込んだデータを使用する場合は、以下を必ず確認してください。

  • テーブルごとに別個の .csv ファイルが利用可能である。
  • .csv ファイルのファイル名が、コネクタの入力テーブルの名前と同じである。
  • Process Mining で使用されるすべてのフィールドが .csv ファイルに存在する。
  • .csv ファイルのフィールドの名前が、Process Mining の列で使用されているフィールドの名前と同じである。

The CSV settings can be defined in the CSV parameters of the DataBridgeAgent.

ODBC 接続経由でデータを抽出する

ODBC 接続を介して外部データ ソースのデータを使用する場合、必要な ODBC ドライバーがサーバーにインストールされていることを確認してください。

📘

注:

64 ビット バージョンを持つデータベースには、すべて ODBC 接続を使用してアクセスできます。必要な 64 ビット ODBC ドライバーを UiPath Process Mining サーバーにインストールし、サーバーがその特定のシステムにアクセスできる必要があります。

資格情報ストアを使用する

A Credential store allows you to use passwords without showing the actual password. See Set up a Credential Store for a detailed description.

By default, an encrypted credential store is used. See Setting up an encrypted file-based credential store for more information.

📘

注:

サーバー設定を変更するには、<EXTRACTORDIR>\databases\ServerSettings.json ファイルを編集します。

DataBridgeAgent を構成する

DataBridgeAgent を構成するには、以下の手順に従います。

StepAction
1Download DataBridgeAgent.
2On the server, create a folder for the DataBridgeAgent. For instance, C:\processmining\P2P_data\.

Note: In the remainder of this guide, we will refer to this directory as <EXTRACTORDIR>.
3Place the installation package in the <EXTRACTORDIR> folder.
• Right-click on the installation package.
• Select Extract All….
4Right-click on the file <EXTRACTORDIR>\datarun.json and select Open.
5Enter a value for the following settings:
azureURL
Connector
Input type
Use credential store

一般的なパラメーター

DataBridgeAgent の一般的なパラメーターの概要は以下のとおりです。

ParameterDescription
azureURLThe SAS URL of the Azure blob storage to which the extracted data needs to be uploaded. See Loading data with DataBridgeAgent
ConnectorThe location of the connector used to load the data and to create the dataset.
Input typeCan be either:
SAP see SAP parameters
CSV see CSV parameters
ODBC see ODBC parameters
Note: depending on the preferred input type, you must enter the settings in the corresponding section.
Use credential storeIndicate whether or not a credential store is used for password storage.
Note: if set to true you specify the password identifier in de SAP Password or ODBC Password field.
Reporting currencyThe currency in which price-related values are displayed.
Exchange rate typeThe exchange rate type that is used for currency conversion.
LanguageThe language in which data is extracted from the source system.
Extraction start dateThe start date of the extraction period of the data.
Note: In cases where only a subset of the data is needed, it is recommended to limit the amount of data loaded, while this may improve the loading times.
Extraction end dateThe end date of the extraction period of the data.
Note: In cases where only a subset of the data is needed, it is recommended to limit the amount of data loaded, while this may improve the loading times.

SAP パラメーター

SAP のデータソースに使用できるパラメーターの概要は以下のとおりです。

ParameterDescription
SAP HostThe hostname or IP address of the SAP application server.
SAP SystemNumberThe two-digit number between 00 and 99 that identifies the designated instance.
SAP UsernameThe username of the account that is being used to log in to the SAP instance.
SAP PasswordThe password of the user above.
Note: If you use a credential store, you must enter the password identifier from the credential store, instead of the password.
SAP ClientThe client that is being used.

CSV パラメーター

CSV のデータソースに使用できるパラメーターの概要は以下のとおりです。

SAP SettingDescription
CSV Data pathData path in the Server Data that points to the place where the .csv files are stored. For example P2P/ if all files can be found in the folder named P2P.
CSV SuffixA regular expression containing the files extension of the file to read in. May contain a suffix up to 2 digits that are added to the name of the table.
CSV DelimeterThe delimiter character that is used to separate the fields.
CSV Quotation characterThe quote character that is used to identify fields that are wrapped in quotes.
CSV Has headerIndicate whether the first line of the .CSV file is a header line.

ODBC パラメーター

ODBC のデータソースに使用できるパラメーターの概要は以下のとおりです。

ParameterDescription
ODBC DriverThe name of the ODBC driver to use for this connection.
ODBC UsernameUsername to be used to connect to the external datasource.
ODBC PasswordPassword to be used to connect to the external datasource.
Note: If you use a credential store, you must enter the password identifier from the credential store, instead of the password.
ODBC Connection parametersAny other parameters are passed as specified to the ODBC driver. Use the format param1=value1 (;param2=value2)

Creating the dataset and upload it for use in Process Mining

To load the data and upload it to Azure for use in Process Mining you must run the EXTRACTORDIR\datarun.bat file.

このタスクにかかる時間は、読み込まれるデータの量によって大きく異なります。
出力は BLOB ストレージにアップロードされ、Snowflake での処理がトリガーされます。

ファイルを手動で開始する

データ実行を開始するには以下の手順に従います。

StepAction
1Double-click on the EXTRACTORDIR\datarun.bat file to start the data run.

データ実行のタスクのスケジュールを設定する

ファイルを手動で実行する代わりに Windows のタスク スケジューラーを使用すれば、バッチ スクリプトを実行するタスクをスケジュールでき、データの更新を自動化できます。

📘

注:

Windows のタスク スケジューラでタスクを作成する場合は、[タスクの作成] ウィンドウでタスクの実行者にローカルの SYSTEM ユーザー アカウントを選択し、[最上位の特権で実行する] オプションを選択することをお勧めします。

出力は BLOB ストレージにアップロードされ、Snowflake での処理がトリガーされます。

📘

注:

利用できるデータがない間隔を追加すると、ダッシュボードにエラー メッセージが表示されます。

トラブルシューティング

データ実行ではログ ファイルも作成されます。これは、予期しない結果が発生した場合や、DataBridgeAgent でのデータのアップロードが失敗した場合に役立ちます。<EXTRACTORDIR>\datarun.txt ファイルには、前回のデータ実行のログが含まれています。

12 日前に更新

DataBridgeAgent を使用してデータを読み込む


改善の提案は、API リファレンスのページでは制限されています

改善を提案できるのは Markdown の本文コンテンツのみであり、API 仕様に行うことはできません。