process-mining
latest
false
重要 :
このコンテンツの一部は機械翻訳によって処理されており、完全な翻訳を保証するものではありません。 新しいコンテンツの翻訳は、およそ 1 ~ 2 週間で公開されます。
UiPath logo, featuring letters U and I in white

Process Mining

最終更新日時 2025年8月20日

データ ソースを選択する

サンプル データセットを使用したり、 .tsv ファイルを含むデータセットをアップロードしたり、抽出器を使用してデータを読み込んだりできます。データは、新しいプロセス アプリの作成後に読み込まれます。
重要:

パフォーマンス上およびセキュリティ上の理由から、アプリの開発やデータ変換のテストには小規模なデータセットを使用することを強くお勧めします。

開発データセットは、データ変換のテストに使用されます。パブリッシュ済みのプロセス アプリのダッシュボードに表示されるデータには影響しません。

ビジネス ユーザーがアプリを使用する準備が整ったら、アプリをパブリッシュして、パブリッシュ済みのプロセス アプリで使用する新しいデータを読み込むことができます。

  1. データ ソースに適用するオプションを選択します。

  2. [次へ] を選択します。

Theobald 抽出器を使用

注:

SAP ソース システムを使用するプロセス アプリには、[Theobald 抽出器を使用] をお勧めします。

SAP ソース システムを使用するアプリ テンプレートを選択した場合、データを読み込むための既定のオプションは [Theobald 抽出器を使用] オプションです。

アプリを作成するプロセスの後半の [Theobald を使用してデータをアップロード] ステップで、抽出器で使用する詳細情報をコピーできます。「アプリの作成を完了する」をご覧ください。

詳しくは、「Theobald Xtract Universal を使用してデータを読み込む」をご覧ください。

CData 抽出器を使用

注:

CData でサポートされているソース システムを使用するアプリ テンプレートでは、[CData 抽出器を使用] が既定のオプションです。

アプリを作成するプロセスの後半の [CData を使用してデータをアップロード] ステップで、抽出器で使用する詳細情報をコピーできます。「アプリの作成を完了する」をご覧ください。

詳しくは、「CData Sync を使用してデータを読み込む」をご覧ください。

サンプル データを使用

注: [サンプル データを使用] オプションが、プロセス アプリでサンプル データが利用可能な場合にのみ有効化されるようになりました。

データをアップロードする

.csvファイルを使用してデータをアップロードすることもできます。
警告:

データが大量にある場合は、CData Sync や Theobald Xtract Universal (SAP の場合) を使用してデータをアップロードすることをお勧めします。

DataUploader を使用して、最大 5 TB の各データ ファイルを Process Mining のプロセス アプリに直接アップロードすることもできます。

手記: 新しいプロセス アプリを作成する際は、新しいアプリの作成に使用するアプリ テンプレートで求められる形式のデータがあることを必ず確認してください。詳しくは、「 アプリ テンプレート」をご覧ください
注: テーブル名とフィールド名では大文字と小文字が区別されます。データセットのフィールド名 (列ヘッダー) が入力テーブルのフィールド名と一致しており、ファイル名がテーブル名と一致していることを必ず確認してください。

データ ファイルをアップロードするには以下の手順に従います。

入力テーブルをマッピングする

注:

プロセス アプリに必要なテーブルが、[ テーブル] ページの [必要なテーブル] セクションに表示されます。

  1. プロセス アプリの入力テーブルに必要なファイルをドラッグ アンド ドロップするか、[ファイルを選択] アイコンを選択してファイル選択アイコンコンピューターからファイルを選択します。ファイルがアップロードされます。

    注:

    必要なテーブルが見つからない場合は、[ + ファイルをアップロード ] オプションを使用して追加のファイルをアップロードできます。

    アップロードされた各ファイルの [ ソース テーブル ] セクションに新しいテーブルが追加され、[ ターゲット テーブル ] セクション内の関連する入力テーブルに自動的にマッピングされます。

    ヒント:

    青い点は、テーブルに対して新しいデータがアップロードされたことを示します。これは、新しいテーブル用または既存のテーブル用のいずれかです。

  2. 各テーブルが正しいターゲット テーブルにマップされていることを確認します。必要に応じて、[ ターゲット テーブル ] リストから別のテーブルを選択してマッピングを修正します。

  3. [ 次へ] を選択します。[フィールド] ページが表示され、入力フィールドのマッピングを続行できます。

必須の表としてリストされていないファイルをアップロードすると、アップロードされる各ファイルの [ ソース テーブル ] セクションに新しい表が自動的に追加され、対応する入力テーブルが [ ターゲット テーブル ] セクションに作成されます。既定では、アップロードされたファイルのファイル名がテーブルの名前として使用されます。

注:

テーブルのデータをアップロードする前に、テーブルを設定する必要があることを示す警告メッセージが表示されます。新しいテーブルをアップロードすると、データ変換で使用できるようになります。ただし、このデータをダッシュボードに表示するには、さらに手順が必要です。まず、SQL クエリを使用してテーブル データを読み込む必要があります。次に、テーブルをプロセス アプリのデータ モデルに組み込む必要があります。データ モデルにテーブルを追加する方法の詳細については、「 データ モデル 」をご覧ください。

入力テーブルを構成する

対象の入力テーブルの設定が自動的に検出されるので、あとは確認するだけです。

入力テーブルの設定を編集するには、以下の手順に従います。

  1. 設定するテーブルを見つけて [テーブルを編集] アイコンを選択し、選択したテーブルの [テーブルを編集 ] パネルを開きます。

  2. 必要に応じて設定を編集し、[ 保存] を選択します。

次の表では、テーブルの設定について説明します。

設定

説明

テーブル名

データ変換の入力テーブルの名前。

必須です。

テーブルを必須として定義するオプション。

TRUE場合、後でプロセス アプリをパブリッシュまたはインポートするときにこのテーブルが必要になります。テーブルがアップロードされない場合は、エラーがスローされます。FALSE場合、アプリをパブリッシュまたはインポートする際に、テーブルは任意と見なされます。テーブルがアップロードされない場合は、後続の SQL クエリが失敗しないように、空のテーブルが作成されます。

エンコード

ファイルで使用されているエンコード。

区切り文字

各フィールドを区切る区切り文字です。

行の終わり

行の終わりと新しい行の始まりを示すために使用される文字。

引用符文字

フィールドが引用符で囲まれている場合に使用される引用符文字。

読み込みの種類

表のロード・タイプ。

注:

「ロード・タイプ 」として 「増分 」を選択した場合は、表の増分ロードを構成するための追加設定を指定する必要があります。

データの増分読み込み

全ロードでは、最後のロード以降にデータが変更されたかどうか、または同じままであったかどうかに関係なく、すべてのデータがソースから抽出され、ターゲットシステムにロードされます。増分読み込みでは、最後の読み込み以降に変更 (追加または更新) されたデータのみが抽出されます。増分読み込みは、通常、全読み込みよりも高速でリソース消費が少なく、特に、小さなサブセットのみが頻繁に変更される可能性のある大量のデータを処理する場合に便利です。

表の増分データ・ロードを有効にするには、表の 「ロード・タイプ 」を 「増分」に設定する必要があります。増分読み込みには、データが正しく読み込まれるようにするための一意の識別子と、ソース データの変更を追跡するためのフィールド (タイムスタンプやバージョンなど) が必要です。

次の表では、 増分 読み込みに必要な追加設定について説明します。

設定

説明

主キー

主キー フィールドまたはデータ ソース内の各レコードを一意に識別するフィールド。

タイムスタンプ フィールド

各レコードが最後に更新または追加された日時を追跡するために使用されるフィールドです。

タイムスタンプの形式

[ タイムスタンプ ] フィールドで使用されるタイムスタンプ値の形式です。

重要:

データの読み込みに使用される抽出方法では、増分抽出のために追加または特定の構成が必要になる場合があります。

CData Sync の増分抽出の設定方法の詳細については、「 CData Sync を使用してデータを読み込む 」をご覧ください。

増分抽出用に DataUploader を設定する方法の詳細については、「 DataUploader を使用してデータを読み込む 」をご覧ください。

気を付け:[読み込みの種類] を [完全] に戻した場合は、使用する抽出方法を適宜設定してください。

入力フィールドのマッピング

注:

選択したテーブルについて、そのテーブルに必要な入力フィールドが [ フィールド] ページの [必須フィールド] セクションに表示されます。

入力テーブルで検出されたソース フィールドは、ターゲット テーブルの対応するフィールドに自動的にマッピングされます。

  1. 各フィールドが正しいターゲット フィールドにマップされていることを確認してください。必要に応じて、[ ターゲット フィールド ] リストから別のフィールドを選択してマッピングを修正します。

  2. [次へ] を選択して続行します。

入力フィールドを設定する

対象入力欄の設定は自動検出されるので、あとは確認するだけです。

入力フィールドの設定を編集するには、以下の手順に従います。

  1. 設定するフィールドを見つけて [フィールドを編集] アイコンを選択し、選択したフィールドの [フィールドを編集 ] パネルを開きます。

  2. 必要に応じて設定を編集し、[ 保存] を選択します。

次の表では、テーブルの設定について説明します。

設定

説明

名前

フィールドの名前です。

注:

[名前] は必須フィールドです。

入力

フィールドのデータ型です。

  • テキスト

  • Integer

  • Decimal

  • Boolean

  • 日付

  • Datetime

注:

フィールドの種類に応じて、解析設定を指定してフィールドを設定する必要があります。

必須です。

フィールドを必須として定義するオプション。

選択すると、プロセス アプリをパブリッシュまたはインポートするときにこのフィールドが必須になります。フィールドがない場合はエラーがスローされます。選択しない場合、このフィールドは任意と見なされます。これがない場合、フィールドは NULL 値で追加され、後続の SQL クエリは失敗しません。

一意

フィールド値を定義するオプション: レコードごとに個別の値または一意の値を設定します。

null ではない

フィールドが各レコードに対して値を持つ必要があることを定義するオプション。フィールドを空のままにしたり、NULL 値を入力したりすることはできません。

フィールド型の解析設定

次の表では、さまざまなフィールドの種類で使用できる解析設定について説明します。

フィールドの種類

解析の設定

Integer

3 桁の区切り文字

  • None

  • ドット (.)

  • コンマ (,)

Decimal

  • 小数点の区切り文字

    • ドット (.)

    • コンマ (,)

  • 3 桁の区切り文字

    • None

    • ドット (.)

    • コンマ (,)

Boolean

  • 真価:

    TRUE または 1
  • False 値

    FALSE または 0
注:

[True value ] と [False ] は必須の設定であり、異なる値にする必要があります。

日付

日付形式 ( 「日付の形式」の「解析設定例」をご覧ください)。

Datetime

日付時刻形式: 日付形式 (「 Datetime 形式の解析設定例」をご覧ください。

抽出器を使用してデータをアップロード

注: 抽出器を使用してデータを読み込む場合、データは BLOB ストアに読み込まれます。このため、データを読み込む際には Process Mining Automation CloudTM によって IP アドレスを確認することができません。つまり、お使いのテナントに IP 制限が設定されている場合、信頼できる IP 範囲にないマシンから抽出器でデータを読み込んだ場合でも制限が適用されず、データが Process Mining にアップロードされます。
注:

アプリを作成するプロセスの後半の [抽出器を使用してデータをアップロード] ステップで、抽出器で使用する詳細情報をコピーできます。「アプリの作成を完了する」をご覧ください。

直接接続を使用してデータをアップロード

気を付け: プロセス アプリを作成する際に [ 直接接続を使用してデータをアップロード ] オプションを使用できるのは、 OrchestratorOrchestrator のフォルダーへのアクセス権がある場合のみです。このオプションは Integration Service のコネクションを作成または読み取るために必要です。
注:

[直接接続を使用してデータをアップロード] オプションは、ServiceNow のソース システムまたは Salesforce のソース システムを使用するプロセス固有のアプリ テンプレートで使用できます。ServiceNow または Salesforce への直接接続を設定する場合は、汎用アプリ テンプレートの[イベント ログ] と[カスタム プロセス] でも [ 直接接続を使用してデータをアップロード] オプションを利用できます。

注:

[直接接続を使用してデータをアップロード] オプションは、直接接続が利用できるソース システムを使用するアプリ テンプレートでは既定のオプションです。

前提条件

[直接接続を使用してデータをアップロード] では、Integration Service のコネクションを使用します。つまり、以下が必要です。
  • Integration Service のライセンス

  • Integration Service がテナントで有効化されている

  • Orchestrator および Orchestrator のフォルダーへのアクセス権

Integration Service のコネクションはフォルダーによって制限されます。特定のフォルダーからのコネクションを使用する場合、そのフォルダーを Process Mining に表示するには、Orchestrator でそのフォルダーへのアクセス権を持っている必要があります。Process Mining から新しいコネクションを作成した場合、そのコネクションは Orchestrator の個人用ワークスペース内に作成されます。

Integration Service のライセンスおよび Integration Service のコネクションについて詳しくは、『Integration Service ガイド』をご覧ください。

直接接続を設定する

CData Sync を使用して接続を設定する代わりに、「 データ ソースを選択する 」の手順で、ソース システムへの直接接続を使用してセットアップできます。

[直接接続を使用してデータをアップロード] オプションを使用すると、ソース システムからプロセス アプリにデータが直接読み込まれます。

ソース システムへの直接接続を設定するには、次の手順を実行します。

  1. [直接接続を使用してデータをアップロード] オプションを選択します。

    アプリ テンプレートで使用されているソース システムが表示されます。

  2. [接続] を選択します。

    新しいブラウザー タブが開き、コネクションの認証の詳細を入力できます。

注意:

プロセス固有のアプリ テンプレートを使用している場合は、ユーザー資格情報が、アプリ テンプレートで指定されているテーブルとフィールドの既定のリストにアクセスできることを確認してください。詳しくは、「 アプリ テンプレート 」をご覧ください。

特定のソース・システム用の接続を設定する方法の詳細と詳細な説明については、「 直接接続を使用してデータを読み込む 」を参照してください。

トラブルシューティング

「基本的なトラブルシューティング」ガイドの「 統合された抽出器 」をご覧ください。

抽出表をマッピングする

  1. 抽出された各表の [ ソース テーブル ] セクションに表が追加され、[ ターゲット テーブル ] セクション内の関連する入力表に自動的にマップされます。

  2. 各テーブルが正しいターゲット テーブルにマップされていることを確認します。必要に応じて、[ ターゲット テーブル ] リストから別のテーブルを選択してマッピングを修正します。

  3. [次へ] を選択します。

このページは役に立ちましたか?

サポートを受ける
RPA について学ぶ - オートメーション コース
UiPath コミュニティ フォーラム
Uipath Logo