process-mining
latest
false
重要 :
このコンテンツの一部は機械翻訳によって処理されており、完全な翻訳を保証するものではありません。 新しいコンテンツの翻訳は、およそ 1 ~ 2 週間で公開されます。
UiPath logo, featuring letters U and I in white

Process Mining

最終更新日時 2025年9月4日

データ ソースを選択する

サンプル データセットを使用したり、 .tsv ファイルを含むデータセットをアップロードしたり、抽出器を使用してデータを読み込んだりできます。データは、新しいプロセス アプリの作成後に読み込まれます。
重要:

パフォーマンス上およびセキュリティ上の理由から、アプリの開発やデータ変換のテストには小規模なデータセットを使用することを強くお勧めします。

開発データセットは、データ変換のテストに使用されます。パブリッシュ済みのプロセス アプリのダッシュボードに表示されるデータには影響しません。

ビジネス ユーザーがアプリを使用する準備が整ったら、アプリをパブリッシュして、パブリッシュ済みのプロセス アプリで使用する新しいデータを読み込むことができます。

  1. データ ソースに適用するオプションを選択します。

  2. [次へ] を選択します。

Theobald 抽出器を使用

注:

SAP ソース システムを使用するプロセス アプリには、[Theobald 抽出器を使用] をお勧めします。

SAP ソース システムを使用するアプリ テンプレートを選択した場合、データを読み込むための既定のオプションは [Theobald 抽出器を使用] オプションです。

アプリを作成するプロセスの後半の [Theobald を使用してデータをアップロード] ステップで、抽出器で使用する詳細情報をコピーできます。「アプリの作成を完了する」をご覧ください。

Refer to Loading data using Theobald Xtract Universal for more information.

CData 抽出器を使用

注:

CData でサポートされているソース システムを使用するアプリ テンプレートでは、[CData 抽出器を使用] が既定のオプションです。

アプリを作成するプロセスの後半の [CData を使用してデータをアップロード] ステップで、抽出器で使用する詳細情報をコピーできます。「アプリの作成を完了する」をご覧ください。

Refer to Loading data using CData Sync for more information.

サンプル データを使用

注: [サンプル データを使用] オプションが、プロセス アプリでサンプル データが利用可能な場合にのみ有効化されるようになりました。

データをアップロードする

.csvファイルを使用してデータをアップロードすることもできます。
警告:

データが大量にある場合は、CData Sync や Theobald Xtract Universal (SAP の場合) を使用してデータをアップロードすることをお勧めします。

DataUploader を使用して、最大 5 TB の各データ ファイルを Process Mining のプロセス アプリに直接アップロードすることもできます。

Note: When you create a new process app, always make sure that the data is in the required format for the app template that you use to create a new app. Also check out App Templates.
注: テーブル名とフィールド名では大文字と小文字が区別されます。データセットのフィールド名 (列ヘッダー) が入力テーブルのフィールド名と一致しており、ファイル名がテーブル名と一致していることを必ず確認してください。

データ ファイルをアップロードするには以下の手順に従います。

入力テーブルをマッピングする

注:

プロセス アプリに必要なテーブルは、[ データ ソースを選択] ページの [必要なテーブル] セクションに表示されます。

  1. プロセス アプリの入力テーブルに必要なファイルをドラッグ アンド ドロップするか、[ファイルを選択] アイコンを選択してファイル選択アイコンコンピューターからファイルを選択します。ファイルがアップロードされます。

    注:

    必要なテーブルが見つからない場合は、[ + ファイルをアップロード ] オプションを使用して追加のファイルをアップロードできます。

    アップロードされた各ファイルの [ ソース テーブル ] セクションに新しいテーブルが追加され、[ ターゲット テーブル ] セクション内の関連する入力テーブルに自動的にマッピングされます。

    ヒント:

    青い点は、テーブルに対して新しいデータがアップロードされたことを示します。これは、新しいテーブル用または既存のテーブル用のいずれかです。

  2. 各テーブルが正しいターゲット テーブルにマップされていることを確認します。必要に応じて、[ ターゲット テーブル ] リストから別のテーブルを選択してマッピングを修正します。

  3. [ 次へ] を選択します。[フィールド] ページが表示され、入力フィールドのマッピングを続行できます。

必須の表としてリストされていないファイルをアップロードすると、アップロードされる各ファイルの [ ソース テーブル ] セクションに新しい表が自動的に追加され、対応する入力テーブルが [ ターゲット テーブル ] セクションに作成されます。既定では、アップロードされたファイルのファイル名がテーブルの名前として使用されます。

注:

A warning message is displayed indicating the table needs configuration before data can be uploaded for the table. When a new table is uploaded, it becomes available in data transformations. However, further steps are required to make this data visible on the dashboards. First, the table data must be loaded using a SQL query. Then, the table should be incorporated into the data model of the process app. Refer to Data models for more information on how to add a table in the data model.

入力テーブルを構成する

対象の入力テーブルの設定が自動的に検出されるので、あとは確認するだけです。

入力テーブルの設定を編集するには、以下の手順に従います。

  1. 設定するテーブルを見つけて [テーブルを編集] アイコンを選択し、選択したテーブルの [テーブルを編集 ] パネルを開きます。

  2. 必要に応じて設定を編集し、[ 保存] を選択します。

次の表では、テーブルの設定について説明します。

設定

説明

テーブル名

データ変換の入力テーブルの名前。

必須です。

テーブルを必須として定義するオプション。

TRUE場合、後でプロセス アプリをパブリッシュまたはインポートするときにこのテーブルが必要になります。テーブルがアップロードされない場合は、エラーがスローされます。FALSE場合、アプリをパブリッシュまたはインポートする際に、テーブルは任意と見なされます。テーブルがアップロードされない場合は、後続の SQL クエリが失敗しないように、空のテーブルが作成されます。

エンコード

ファイルで使用されているエンコード。

区切り文字

各フィールドを区切る区切り文字です。

行の終わり

行の終わりと新しい行の始まりを示すために使用される文字。

引用符文字

フィールドが引用符で囲まれている場合に使用される引用符文字。

読み込みの種類

表のロード・タイプ。

注:

「ロード・タイプ 」として 「増分 」を選択した場合は、表の増分ロードを構成するための追加設定を指定する必要があります。

データの増分読み込み

全ロードでは、最後のロード以降にデータが変更されたかどうか、または同じままであったかどうかに関係なく、すべてのデータがソースから抽出され、ターゲットシステムにロードされます。増分読み込みでは、最後の読み込み以降に変更 (追加または更新) されたデータのみが抽出されます。増分読み込みは、通常、全読み込みよりも高速でリソース消費が少なく、特に、小さなサブセットのみが頻繁に変更される可能性のある大量のデータを処理する場合に便利です。

表の増分データ・ロードを有効にするには、表の 「ロード・タイプ 」を 「増分」に設定する必要があります。増分読み込みには、データが正しく読み込まれるようにするための一意の識別子と、ソース データの変更を追跡するためのフィールド (タイムスタンプやバージョンなど) が必要です。

次の表では、 増分 読み込みに必要な追加設定について説明します。

設定

説明

主キー

主キー フィールドまたはデータ ソース内の各レコードを一意に識別するフィールド。

タイムスタンプ フィールド

各レコードが最後に更新または追加された日時を追跡するために使用されるフィールドです。

タイムスタンプの形式

[ タイムスタンプ ] フィールドで使用されるタイムスタンプ値の形式です。

重要:

データの読み込みに使用される抽出方法では、増分抽出のために追加または特定の構成が必要になる場合があります。

Check out Loading data using CData Sync for more information on how to set up incremental extraction for CData Sync.

Check out Loading data using DataUploader for more information on how to set up DataUploader for incremental extraction.

気を付け:[読み込みの種類] を [完全] に戻した場合は、使用する抽出方法を適宜設定してください。

入力フィールドのマッピング

注:

選択したテーブルについて、そのテーブルに必要な入力フィールドが [ フィールド] ページの [必須フィールド] セクションに表示されます。

入力テーブルで検出されたソース フィールドは、ターゲット テーブルの対応するフィールドに自動的にマッピングされます。

  1. 各フィールドが正しいターゲット フィールドにマップされていることを確認してください。必要に応じて、[ ターゲット フィールド ] リストから別のフィールドを選択してマッピングを修正します。

  2. [次へ] を選択して続行します。

入力フィールドを設定する

対象入力欄の設定は自動検出されるので、あとは確認するだけです。

入力フィールドの設定を編集するには、以下の手順に従います。

  1. 設定するフィールドを見つけて [フィールドを編集] アイコンを選択し、選択したフィールドの [フィールドを編集 ] パネルを開きます。

  2. 必要に応じて設定を編集し、[ 保存] を選択します。

次の表では、テーブルの設定について説明します。

設定

説明

名前

フィールドの名前です。

注:

[名前] は必須フィールドです。

入力

フィールドのデータ型です。

  • テキスト

  • Integer

  • Decimal

  • Boolean

  • 日付

  • Datetime

注:

フィールドの種類に応じて、解析設定を指定してフィールドを設定する必要があります。

必須です。

フィールドを必須として定義するオプション。

選択すると、プロセス アプリをパブリッシュまたはインポートするときにこのフィールドが必須になります。フィールドがない場合はエラーがスローされます。選択しない場合、このフィールドは任意と見なされます。これがない場合、フィールドは NULL 値で追加され、後続の SQL クエリは失敗しません。

一意

フィールド値を定義するオプション: レコードごとに個別の値または一意の値を設定します。

null ではない

フィールドが各レコードに対して値を持つ必要があることを定義するオプション。フィールドを空のままにしたり、NULL 値を入力したりすることはできません。

フィールド型の解析設定

次の表では、さまざまなフィールドの種類で使用できる解析設定について説明します。

フィールドの種類

解析の設定

Integer

3 桁の区切り文字

  • None

  • ドット (.)

  • コンマ (,)

Decimal

  • 小数点の区切り文字

    • ドット (.)

    • コンマ (,)

  • 3 桁の区切り文字

    • None

    • ドット (.)

    • コンマ (,)

Boolean

  • 真価:

    TRUE または 1
  • False 値

    FALSE または 0
注:

[True value ] と [False ] は必須の設定であり、異なる値にする必要があります。

日付

日付形式 ( 「日付の形式」の「解析設定例」をご覧ください)。

Datetime

日付/時刻形式 日付形式 ( 「日時形式の解析設定の例」をご覧ください。)
DateTime 形式の解析設定の例
形式
YYYY-MM-DD HH:mm:ss

2025-04-05 14:30:45

2025-4-5 14:30:45

yyyy-mm-dd hh:mm:ss[.nnn]

2025-04-05 14:30:45.123

2025-4-5 14:30:45.123

yyyy-mm-ddThh:mm:ss[.nnn]

2025-04-05T14:30:45.123

2025-4-5T14:30:45.123

yyyy-dd-mm hh:mm:ss[.nnn]

2025-05-04 14:30:45.123

2025-5-4 14:30:45.123

mm/dd/yy hh:mm:ss 午前/午後

04/05/25 02:30:45 PM

4/5/25 02:30:45 PM

mm-dd-yyyy hh:mm:ss[.nnn]

04-05-2025 14:30:45.123

4-5-2025 14:30:45.123

04-05-2025 14:30:45

4-5-2025 14:30:45

mm-yyyy-dd hh:mm:ss[.nnn]

04-2025-05 14:30:45.123

4-2025-5 14:30:45.123

04-2025-05 14:30:45

4-2025-5 14:30:45

dd-mm-yyyy hh:mm:ss[.nnn]

05-04-2025 14:30:45.123

5-4-2025 14:30:45.123

05-04-2025 14:30:45

5-4-2025 14:30:45

dd-yyyy-mm hh:mm:ss[.nnn]

05-2025-04 14:30:45.123

5-2025-4 14:30:45.123

05-2025-04 14:30:45

5-2025-4 14:30:45

yyyy-mm-ddThh:mm:ss[.nnn]+00:00*

2025-04-05T14:30:45.123+02:00

2025-04-05T14:30:45-03:00

2025-04-05T14:30:45

2025-4-5T14:30:45.123+02:00

2025-4-5T14:30:45-03:00

2025-4-5T14:30:45Z

yyyy-mm-ddThh:mm:ss+00:00*

2025-04-05T14:30:45+02:00

2025-04-05T14:30:45

2025-4-5T14:30:45-03:00

2025-4-5T14:30:45Z

dd/mm/yyyy hh:mm:ss[.nnn]

05/04/2025 14:30:45.123

5/4/2025 14:30:45.123

*) タイム ゾーン情報を含むタイムスタンプは、データの取り込み時に自動的に UTC に変換されます。

抽出器を使用してデータをアップロード

注: 抽出器を使用してデータを読み込む場合、データは BLOB ストアに読み込まれます。このため、データを読み込む際に Process Mining Automation CloudTM (公共部門向け) で IP アドレスを確認できません。つまり、お使いのテナントに IP 制限が設定されている場合、信頼できる IP 範囲にないマシンから抽出器でデータを読み込んだ場合でも制限が適用されず、データが Process Mining にアップロードされます。
注:

アプリを作成するプロセスの後半の [抽出器を使用してデータをアップロード] ステップで、抽出器で使用する詳細情報をコピーできます。「アプリの作成を完了する」をご覧ください。

このページは役に立ちましたか?

サポートを受ける
RPA について学ぶ - オートメーション コース
UiPath コミュニティ フォーラム
Uipath Logo
信頼とセキュリティ
© 2005-2025 UiPath. All rights reserved.