Process Mining
最新
バナーの背景画像
Process Mining
最終更新日 2024年4月17日

DataBridgeAgent を構成する

はじめに

このページでは、DataBridgeAgent を構成して、Process Mining のプロセス アプリにデータを読み込む方法について説明します。

DataBridgeAgent を構成する

DataBridgeAgent を構成するには、以下の手順に従います。

  1. DataBridgeAgent をダウンロードします。詳しくは、「DataBridgeAgent を使用してデータを読み込む」をご覧ください。
  2. サーバー上に DataBridgeAgent 用のフォルダーを作成します。例: D:\processmining\P2P_data\
注: このガイドでは、以降はこのディレクトリを <EXTRACTORDIR> と表記します。
  1. インストール パッケージを <EXTRACTORDIR> フォルダーに保存します。
    • インストール パッケージを右クリックします。
    • [すべて展開] を選択します。
  2. <EXTRACTORDIR>\datarun.json ファイルを右クリックして、[開く] を選択します。
  3. 以下の設定に値を入力します:

    • azureURL
    • connectorWorkspace
    • connectorModuleCode
    • Input type
    • Use credential store

一般的なパラメーター

DataBridgeAgent の一般的なパラメーターの概要は以下のとおりです。

パラメーター

説明

azureURL

抽出されたデータをアップロードする必要がある、Azure BLOB ストレージの SAS URL です。「Azure BLOB ストレージの資格情報を取得する」をご覧ください。

endOfUploadApiUrl

すべてのデータがアップロードされた後に、Process Mining でデータ処理を開始するために呼び出される API です。
注:
この endOfUploadApiUrl は、DataBridgeAgent を使用してデータ ファイルをアップロードする場合にのみ必要です。抽出器を使用してファイルをアップロードする場合は、抽出ジョブでアップロード後の URL を設定します。

connectorWorkspace
データの読み込みとデータセットの作成に使用するコネクタのワークスペース名です。

connectorModuleCode

データの読み込みとデータセットの作成に使用するコネクタのモジュール コードです。

入力の種類

次のいずれかです。

SAP 詳しくは、SAP パラメーターをご覧ください。
CSV 詳しくは、CSV パラメーターをご覧ください。
ODBC 詳しくは、ODBC パラメーターをご覧ください。
注: 希望する入力の種類によっては、対応するセクションに設定を入力する必要があります。

Use credential store

パスワードのストレージに資格情報ストアを使用するかどうかを指定します。

注: true に設定した場合、[SAP Password] または [ODBC Password] フィールドにパスワードの識別子を指定します。

Reporting currency

料金関連の値の表示に使用する通貨です。

Exchange rate type

通貨変換に使用する為替レートの種類です。

言語

ソース システムからデータを抽出する言語です。

Extraction start date

データの抽出期間の開始日です。

注: データの一部のみが必要な場合、読み込むデータの量を制限することをお勧めします。これにより読み込み時間を短縮できる可能性があります。

Extraction end date

データの抽出期間の終了日です。

注: データの一部のみが必要な場合、読み込むデータの量を制限することをお勧めします。これにより読み込み時間を短縮できる可能性があります。

SAP パラメーター

SAP のデータソースに使用できるパラメーターの概要は以下のとおりです。

パラメーター

説明

SAP Host

SAP アプリケーション サーバーのホスト名または IP アドレスです。

SAP SystemNumber

指定したインスタンスを識別する、00 から 99 の間の 2 桁の数字です。

SAP Username

SAP インスタンスへのログインに使用する、アカウントのユーザー名です。

SAP Password

上記のユーザーのパスワードです。

注: 資格情報ストアを使用する場合は、パスワードではなく資格情報ストアのパスワード識別子を入力する必要があります。

SAP Client

使用するクライアントです。

CSV パラメーター

CSV のデータソースに使用できるパラメーターの概要は以下のとおりです。

SAP の設定

説明

CSV Data path

.csv ファイルが保存されている場所を示すサーバー データのデータ パスです。たとえば、P2P/ フォルダーに存在するすべてのファイルを示す場合は P2P です。

CSV Suffix

読み込むファイルの拡張子を含む正規表現です。テーブル名に追加するサフィックスを最大 2 桁まで含めることができます。

CSV Delimeter

フィールドを区切るために使用する区切り文字です。

CSV Quotation character

引用符で囲まれたフィールドを識別するために使用する引用符文字です。

CSV Has header

.CSV ファイルの 1 行目がヘッダー行であるかどうかを指定します。

ODBC パラメーター

ODBC のデータソースに使用できるパラメーターの概要は以下のとおりです。

パラメーター

説明

ODBC Driver

この接続に使用する ODBC ドライバーの名前です。

ODBC Username

外部データソースに接続するために使用するユーザー名です。

ODBC Password

外部データソースに接続するために使用するパスワードです。

注: 資格情報ストアを使用する場合は、パスワードではなく資格情報ストアのパスワード識別子を入力する必要があります。

ODBC Connection parameters

その他のすべてのパラメーターが、指定されたとおりに ODBC ドライバーに渡されます。次の形式を使用します。 param1=value1 (;param2=value2)

Process Mining で使用するデータセットを作成してアップロードする

Process Mining で使用するためにデータを読み込んで Azure にアップロードするには、EXTRACTORDIR\datarun.bat ファイルを実行する必要があります。

このタスクにかかる時間は、読み込まれるデータの量によって大きく異なります。

出力は BLOB ストレージにアップロードされ、Snowflake での処理がトリガーされます。

ファイルを手動で開始する

データ実行を開始するには以下の手順に従います。

  1. EXTRACTORDIR\datarun.bat ファイルをダブルクリックし、データ実行を開始します。

データ実行のタスクのスケジュールを設定する

ファイルを手動で実行する代わりに Windows のタスク スケジューラを使用すれば、バッチ スクリプトを実行するタスクをスケジュールでき、データの更新を自動化できます。

注: Windows のタスク スケジューラでタスクを作成する場合は、[タスクの作成] ウィンドウでタスクの実行者にローカルの SYSTEM ユーザー アカウントを選択し、[最上位の特権で実行する] オプションを選択することをお勧めします。

出力は BLOB ストレージにアップロードされ、Snowflake での処理がトリガーされます。

重要: 利用できるデータがない間隔を追加すると、ダッシュボードにエラー メッセージが表示されます。

トラブルシューティング

データ実行ではログ ファイルも作成されます。これは、予期しない結果が発生した場合や、DataBridgeAgent でのデータのアップロードが失敗した場合に役立ちます。<EXTRACTORDIR>\datarun.txt ファイルには、前回のデータ実行のログが含まれています。

Was this page helpful?

サポートを受ける
RPA について学ぶ - オートメーション コース
UiPath コミュニティ フォーラム
UiPath ロゴ (白)
信頼とセキュリティ
© 2005-2024 UiPath. All rights reserved.