process-mining
latest
false
重要 :
このコンテンツの一部は機械翻訳によって処理されており、完全な翻訳を保証するものではありません。
Process Mining
Automation CloudAutomation Cloud Public SectorAutomation SuiteStandalone
Last updated 2024年10月15日

DataBridgeAgent を構成する

はじめに

このページでは、DataBridgeAgent を構成して、Process Mining のプロセス アプリにデータを読み込む方法について説明します。

DataBridgeAgent を構成する

DataBridgeAgent を構成するには、以下の手順に従います。

  1. DataBridgeAgent をダウンロードします。詳しくは、「DataBridgeAgent を使用してデータを読み込む」をご覧ください。
  2. サーバー上に DataBridgeAgent 用のフォルダーを作成します。例: D:\processmining\P2P_data\
注: このガイドでは、以降はこのディレクトリを <EXTRACTORDIR> と表記します。
  1. インストール パッケージを <EXTRACTORDIR> フォルダーに保存します。
    • インストール パッケージを右クリックします。
    • [すべて展開] を選択します。
  2. <EXTRACTORDIR>\datarun.json ファイルを右クリックして、[開く] を選択します。
  3. 以下の設定に値を入力します:

    • azureURL
    • connectorWorkspace
    • connectorModuleCode
    • 入力の種類
    • Use credential store

一般的なパラメーター

DataBridgeAgent の一般的なパラメーターの概要は以下のとおりです。

パラメーター

説明

azureURL

抽出されたデータをアップロードする必要がある、Azure BLOB ストレージの SAS URL です。「Azure BLOB ストレージの資格情報を取得する」をご覧ください。

endOfUploadApiUrl

すべてのデータがアップロードされた後に、Process Mining でデータ処理を開始するために呼び出される API です。
注:
この endOfUploadApiUrl は、DataBridgeAgent を使用してデータ ファイルをアップロードする場合にのみ必要です。抽出器を使用してファイルをアップロードする場合は、抽出ジョブでアップロード後の URL を設定します。

connectorWorkspace
データの読み込みとデータセットの作成に使用するコネクタのワークスペース名です。

connectorModuleCode

データの読み込みとデータセットの作成に使用するコネクタのモジュール コードです。

入力の種類

次のいずれかです。

SAP 詳しくは、SAP パラメーターをご覧ください。
CSV 詳しくは、CSV パラメーターをご覧ください。
ODBC 詳しくは、ODBC パラメーターをご覧ください。
注: 希望する入力の種類によっては、対応するセクションに設定を入力する必要があります。

Use credential store

パスワードのストレージに資格情報ストアを使用するかどうかを指定します。

注: true に設定した場合、[SAP Password] または [ODBC Password] フィールドにパスワードの識別子を指定します。

Reporting currency

料金関連の値の表示に使用する通貨です。

Exchange rate type

通貨変換に使用する為替レートの種類です。

言語

ソース システムからデータを抽出する言語です。

Extraction start date

データの抽出期間の開始日です。

注: データの一部のみが必要な場合、読み込むデータの量を制限することをお勧めします。これにより読み込み時間を短縮できる可能性があります。

Extraction end date

データの抽出期間の終了日です。

注: データの一部のみが必要な場合、読み込むデータの量を制限することをお勧めします。これにより読み込み時間を短縮できる可能性があります。

SAP パラメーター

SAP のデータソースに使用できるパラメーターの概要は以下のとおりです。

パラメーター

説明

SAP Host

SAP アプリケーション サーバーのホスト名または IP アドレスです。

SAP SystemNumber

指定したインスタンスを識別する、00 から 99 の間の 2 桁の数字です。

SAP Username

SAP インスタンスへのログインに使用する、アカウントのユーザー名です。

SAP Password

上記のユーザーのパスワードです。

注: 資格情報ストアを使用する場合は、パスワードではなく資格情報ストアのパスワード識別子を入力する必要があります。

SAP Client

使用するクライアントです。

CSV パラメーター

CSV のデータソースに使用できるパラメーターの概要は以下のとおりです。

SAP の設定

説明

CSV Data path

.csv ファイルが保存されている場所を示すサーバー データのデータ パスです。たとえば、P2P/ フォルダーに存在するすべてのファイルを示す場合は P2P です。

CSV Suffix

読み込むファイルの拡張子を含む正規表現です。テーブル名に追加するサフィックスを最大 2 桁まで含めることができます。

CSV Delimeter

フィールドを区切るために使用する区切り文字です。

CSV Quotation character

引用符で囲まれたフィールドを識別するために使用する引用符文字です。

CSV Has header

.CSV ファイルの 1 行目がヘッダー行であるかどうかを指定します。

ODBC パラメーター

ODBC のデータソースに使用できるパラメーターの概要は以下のとおりです。

パラメーター

説明

ODBC Driver

この接続に使用する ODBC ドライバーの名前です。

ODBC Username

外部データソースに接続するために使用するユーザー名です。

ODBC Password

外部データソースに接続するために使用するパスワードです。

注: 資格情報ストアを使用する場合は、パスワードではなく資格情報ストアのパスワード識別子を入力する必要があります。

ODBC Connection parameters

その他のすべてのパラメーターが、指定されたとおりに ODBC ドライバーに渡されます。次の形式を使用します: param1=value1 (;param2=value2)

Process Mining で使用するデータセットを作成してアップロードする

Process Mining で使用するためにデータを読み込んで Azure にアップロードするには、EXTRACTORDIR\datarun.bat ファイルを実行する必要があります。

このタスクにかかる時間は、読み込まれるデータの量によって大きく異なります。

出力は BLOB ストレージにアップロードされ、Snowflake での処理がトリガーされます。

ファイルを手動で開始する

データ実行を開始するには以下の手順に従います。

  1. EXTRACTORDIR\datarun.bat ファイルをダブルクリックし、データ実行を開始します。

データ実行のタスクのスケジュールを設定する

ファイルを手動で実行する代わりに Windows のタスク スケジューラを使用すれば、バッチ スクリプトを実行するタスクをスケジュールでき、データの更新を自動化できます。

注: Windows のタスク スケジューラでタスクを作成する場合は、[タスクの作成] ウィンドウでタスクの実行者にローカルの SYSTEM ユーザー アカウントを選択し、[最上位の特権で実行する] オプションを選択することをお勧めします。

出力は BLOB ストレージにアップロードされ、Snowflake での処理がトリガーされます。

重要: 利用できるデータがない間隔を追加すると、ダッシュボードにエラー メッセージが表示されます。

トラブルシューティング

データ実行ではログ ファイルも作成されます。これは、予期しない結果が発生した場合や、DataBridgeAgent でのデータのアップロードが失敗した場合に役立ちます。<EXTRACTORDIR>\datarun.txt ファイルには、前回のデータ実行のログが含まれています。

このページは役に立ちましたか?

サポートを受ける
RPA について学ぶ - オートメーション コース
UiPath コミュニティ フォーラム
Uipath Logo White
信頼とセキュリティ
© 2005-2024 UiPath. All rights reserved.