DataBridgeAgent を構成する
はじめに
このページでは、DataBridgeAgent を構成して、Process Mining のプロセス アプリにデータを読み込む方法について説明します。
DataBridgeAgent を構成する
DataBridgeAgent を構成するには、以下の手順に従います。
- DataBridgeAgent をダウンロードします。詳しくは、「DataBridgeAgent を使用してデータを読み込む」をご覧ください。
- サーバー上に DataBridgeAgent 用のフォルダーを作成します。例:
D:\processmining\P2P_data\
。
<EXTRACTORDIR>
と表記します。
-
インストール パッケージを
<EXTRACTORDIR>
フォルダーに保存します。- インストール パッケージを右クリックします。
- [すべて展開] を選択します。
<EXTRACTORDIR>\datarun.json
ファイルを右クリックして、[開く] を選択します。-
以下の設定に値を入力します:
azureURL
connectorWorkspace
connectorModuleCode
Input type
Use credential store
一般的なパラメーター
DataBridgeAgent の一般的なパラメーターの概要は以下のとおりです。
パラメーター |
説明 |
---|---|
azureURL |
抽出されたデータをアップロードする必要がある、Azure BLOB ストレージの SAS URL です。「Azure BLOB ストレージの資格情報を取得する」をご覧ください。 |
endOfUploadApiUrl |
すべてのデータがアップロードされた後に、Process Mining でデータ処理を開始するために呼び出される API です。
「Azure BLOB ストレージの資格情報を取得する」をご覧ください。 注:
この |
connectorWorkspace | データの読み込みとデータセットの作成に使用するコネクタのワークスペース名です。 |
connectorModuleCode |
データの読み込みとデータセットの作成に使用するコネクタのモジュール コードです。 |
入力の種類 |
次のいずれかです。 • • • 注: 希望する入力の種類によっては、対応するセクションに設定を入力する必要があります。
|
Use credential store |
パスワードのストレージに資格情報ストアを使用するかどうかを指定します。 注:
true に設定した場合、[SAP Password] または [ODBC Password] フィールドにパスワードの識別子を指定します。
|
Reporting currency |
料金関連の値の表示に使用する通貨です。 |
Exchange rate type |
通貨変換に使用する為替レートの種類です。 |
言語 |
ソース システムからデータを抽出する言語です。 |
Extraction start date |
データの抽出期間の開始日です。 注: データの一部のみが必要な場合、読み込むデータの量を制限することをお勧めします。これにより読み込み時間を短縮できる可能性があります。
|
Extraction end date |
データの抽出期間の終了日です。 注: データの一部のみが必要な場合、読み込むデータの量を制限することをお勧めします。これにより読み込み時間を短縮できる可能性があります。
|
SAP パラメーター
SAP のデータソースに使用できるパラメーターの概要は以下のとおりです。
パラメーター |
説明 |
---|---|
SAP Host |
SAP アプリケーション サーバーのホスト名または IP アドレスです。 |
SAP SystemNumber |
指定したインスタンスを識別する、00 から 99 の間の 2 桁の数字です。 |
SAP Username |
SAP インスタンスへのログインに使用する、アカウントのユーザー名です。 |
SAP Password |
上記のユーザーのパスワードです。 注: 資格情報ストアを使用する場合は、パスワードではなく資格情報ストアのパスワード識別子を入力する必要があります。
|
SAP Client |
使用するクライアントです。 |
CSV パラメーター
CSV のデータソースに使用できるパラメーターの概要は以下のとおりです。
SAP の設定 |
説明 |
---|---|
CSV Data path |
|
CSV Suffix |
読み込むファイルの拡張子を含む正規表現です。テーブル名に追加するサフィックスを最大 2 桁まで含めることができます。 |
CSV Delimeter |
フィールドを区切るために使用する区切り文字です。 |
CSV Quotation character |
引用符で囲まれたフィールドを識別するために使用する引用符文字です。 |
CSV Has header |
|
ODBC パラメーター
ODBC のデータソースに使用できるパラメーターの概要は以下のとおりです。
パラメーター |
説明 |
---|---|
ODBC Driver |
この接続に使用する ODBC ドライバーの名前です。 |
ODBC Username |
外部データソースに接続するために使用するユーザー名です。 |
ODBC Password |
外部データソースに接続するために使用するパスワードです。 注: 資格情報ストアを使用する場合は、パスワードではなく資格情報ストアのパスワード識別子を入力する必要があります。
|
ODBC Connection parameters |
その他のすべてのパラメーターが、指定されたとおりに ODBC ドライバーに渡されます。次の形式を使用します: |
Process Mining で使用するデータセットを作成してアップロードする
Process Mining で使用するためにデータを読み込んで Azure にアップロードするには、EXTRACTORDIR\datarun.bat
ファイルを実行する必要があります。
このタスクにかかる時間は、読み込まれるデータの量によって大きく異なります。
出力は BLOB ストレージにアップロードされ、Snowflake での処理がトリガーされます。
ファイルを手動で開始する
データ実行を開始するには以下の手順に従います。
EXTRACTORDIR\datarun.bat
ファイルをダブルクリックし、データ実行を開始します。
データ実行のタスクのスケジュールを設定する
ファイルを手動で実行する代わりに Windows のタスク スケジューラを使用すれば、バッチ スクリプトを実行するタスクをスケジュールでき、データの更新を自動化できます。
出力は BLOB ストレージにアップロードされ、Snowflake での処理がトリガーされます。
トラブルシューティング
データ実行ではログ ファイルも作成されます。これは、予期しない結果が発生した場合や、DataBridgeAgent でのデータのアップロードが失敗した場合に役立ちます。<EXTRACTORDIR>\datarun.txt
ファイルには、前回のデータ実行のログが含まれています。