- はじめる前に
- アクセス権を管理する
- 基本情報
- Integrations
- プロセス アプリを使用する
- ダッシュボードとグラフを使用する
- プロセス グラフを使用する
- [プロセス モデルを検出] や [BPMN モデルをインポート] を使用する
- メニューを表示または非表示にする
- コンテキスト情報
- エクスポート
- フィルター
- UiPath® Automation Hub にオートメーションのアイデアを送信する
- タグ
- 期限日
- 比較
- 適合性チェック
- プロセス シミュレーション
- 根本原因分析 (プレビュー)
- 自動化の見込みをシミュレーションする
- Task Mining プロジェクトを Process Mining から開始する
- オートメーションをプロセス アプリからトリガーする
- プロセスのデータを表示する
- Process Insights (プレビュー)
- アプリを作成する
- データを読み込む
- データ変換中
- ダッシュボードをカスタマイズする
- プロセス アプリをパブリッシュする
- アプリ テンプレート
- 通知
- その他のリソース
Process Mining ユーザー ガイド
データ変換から直接入力テーブルを設定して、入力データがプロセス アプリの要件を満たしていることを確認できます。[入力データを管理] 設定オプションを使用すると、既存の入力テーブルを簡単に設定したり、新しくアップロードしたファイルから新しい入力テーブルを作成したりできます。
入力データの設定を管理するには、以下の手順に従います。
- [Input] セクションで、[Tables] フォルダーを見つけます。
- ファイルを管理するテーブルを見つけてコンテキスト メニュー アイコンを選択し、選択したテーブルの [テーブルを編集 ] パネルを開きます。
[ テーブル] ページが表示され、プロセス アプリに既に存在するソース テーブルが表示されます。
入力テーブルのマッピングと構成
1 つまたは複数のファイルをアップロードすると、アップロードされた各ファイルの [ソース テーブル ] セクションに新しいテーブルが自動的に追加され、対応する入力テーブルが [ターゲット テーブル ] セクションに作成されます。既定では、アップロードされたファイルのファイル名がテーブルの名前として使用されます。テーブルのデータをアップロードする前にテーブルの設定が必要であることを示す警告メッセージが表示されます。
入力テーブルをマッピングする
入力データは、アプリに対して定義されたデータ モデルを満たす必要があります。必要に応じて、 ソース テーブルを別の ターゲット テーブルにマップできます。
入力テーブルを構成する
対象の入力テーブルの設定が自動的に検出されるので、あとは確認するだけです。
入力テーブルの設定を編集するには、以下の手順に従います。
- 構成するテーブルを見つけて [テーブルを編集] アイコン を選択します。これにより、選択したテーブルの [テーブルを編集 ] パネルが開きます。
- 必要に応じて設定を編集し、[ 保存] を選択します。
次の表では、テーブルの設定について説明します。
| 設定 | 説明 |
|---|---|
| テーブル名 | データ変換の入力テーブルの名前。 |
| 必須です。 | テーブルを必須として定義するオプション。TRUEした場合、後でプロセス アプリをパブリッシュまたはインポートするときにこの表が必要になります。テーブルがアップロードされていない場合は、エラーがスローされます。FALSEの場合、アプリのパブリッシュまたはインポート時に、この表は省略可能と見なされます。テーブルがアップロードされていない場合は、後続の SQL クエリが失敗しないように空のテーブルが作成されます。 |
| Autodetect | 入力ファイル内のフィールドの種類を識別し、検出されたフィールドの種類をターゲット テーブルの対応するフィールドに自動的に適用できます。 |
| エンコード | ファイルで使用されているエンコード。 |
| 区切り文字 | 各フィールドを区切る区切り文字です。 |
| 行の終わり | 行の終わりと新しい行の始まりを示すために使用される文字。 |
| 引用符文字 | フィールドが引用符で囲まれている場合に使用される引用符文字。 |
| エスケープ文字 | 特別な制御文字 (引用符や区切り文字など) として扱われる文字を正しく解釈するために使用されるエスケープ文字です。注: 既定では、選択した 引用符文字 がエスケープ文字として使用されます。または、エスケープ文字としてバックスラッシュ (\) を選択することもできます。 |
| 読み込みの種類 | テーブルの読み込みタイプ。注:[ロードタイプ] として [増分] を選択した場合は、テーブルの増分ロードを構成するための追加の設定を指定する必要があります。 |
データの増分読み込み
全ロードでは、最後のロード以降にデータが変更されたかどうか、または同じままであったかどうかに関係なく、すべてのデータがソースから抽出され、ターゲットシステムにロードされます。増分読み込みでは、最後の読み込み以降に変更 (追加または更新) されたデータのみが抽出されます。増分読み込みは、通常、全読み込みよりも高速でリソース消費が少なく、特に、小さなサブセットのみが頻繁に変更される可能性のある大量のデータを処理する場合に便利です。
テーブルの増分データ読み込みを有効にするには、テーブルの [読み込みの種類 ] を [増分] に設定する必要があります。増分読み込みには、データが正しく読み込まれるようにするための一意の識別子と、ソース データの変更を追跡するためのフィールド (タイムスタンプやバージョンなど) が必要です。
次の表で、 増分 読み込みに必要な追加設定について説明します。
| 設定 | 説明 |
|---|---|
| 主キー | 主キー フィールドまたはデータ ソース内の各レコードを一意に識別するフィールド。 |
| タイムスタンプ フィールド | 各レコードが最後に更新または追加された日時を追跡するために使用されるフィールドです。 |
| タイムスタンプの形式 | [タイムスタンプ] フィールドで使用されるタイムスタンプ値の形式です。 |
データの読み込みに使用する抽出方法では、増分抽出のために追加または特定の設定が必要になる場合があります。CData Sync の増分抽出の設定方法について詳しくは、「 CData Sync を使用してデータを読み込む 」をご覧ください。Theobald Xtract Universal の増分抽出の設定方法について詳しくは、「 Theobald Xtract Universal を使用してデータを読み込む 」をご覧ください。DataUploader で増分抽出を設定する方法について詳しくは、「 DataUploader を使用してデータを読み込む 」をご覧ください。読み込みの種類を [完全] に戻す場合は、適切な抽出方法を設定してください。
ソース・ファイルの削除
ソースデータのアップロード時に誤ってソースファイルを選択してしまった場合は、[入力データ]画面から削除できます。
ソース ファイルは、データがアップロードされていない場合にのみ削除できます。
ソース ファイルを削除するには、以下の手順に従います。
- [ソース テーブル] リストで、削除するソース ファイルを見つけます。
- 表の上にマウスをホバーし、[ ファイルを削除] を選択します。
入力ファイルが削除されます。

入力テーブルを削除する
以前にアップロードした入力テーブルは、[入力データ] 画面の [テーブルのマッピング] ページから直接削除できます。入力テーブルを削除すると、プロセス アプリのデータが削除されます。後でプロセス アプリでデータを使用する場合は、入力テーブルを再アップロードする必要があります。
テーブルを削除すると、データ変換が失敗する可能性があります。
テーブルを削除するには、以下の手順に従います。
- 削除するテーブルを見つけて、[テーブルを削除] アイコン を選択します。確認のメッセージが表示されます。
- [削除] を選択します。
入力フィールドのマッピングと設定
入力テーブルの構成が完了したら、テーブルの入力フィールドをマッピングして構成できます。[表] ページで [次へ] を選択します。[フィールド] ページが表示されます。
各テーブルについて、ソース ファイルのフィールドが自動的に検出され、ターゲット テーブルの対応するフィールドにマッピングされます。
入力フィールドのマッピング
入力データは、アプリに対して定義されたデータ モデルを満たす必要があります。必要に応じて、[ ソース ] フィールドを別の [ターゲット ] フィールドにマッピングできます。
[自動検出] オプションは、入力ファイル内のフィールドの種類を識別し、検出されたフィールドの種類をターゲット テーブルの対応するフィールドに自動的に適用します。
入力フィールドを設定する
対象入力欄の設定は自動検出されるので、あとは確認するだけです。
入力フィールドの設定を編集するには、以下の手順に従います。
- 設定するフィールドを見つけて [フィールドを編集] アイコン を選択し、選択したフィールドの [フィールドを編集 ] パネルを開きます。
- 必要に応じて設定を編集し、[ 保存] を選択します。
次の表では、テーブルの設定について説明します。
| 設定 | 説明 |
|---|---|
| 名前 | フィールドの名前です。注: [名前] は必須フィールドです。 |
| Autodetect | 入力ファイル内のフィールドの種類を識別し、検出されたフィールドの種類をターゲット テーブルのフィールドに自動的に適用できます。 |
| 入力 | フィールドのデータ型です。 •テキスト •整数 •10 進 •ブール • 日付 •Datetime 注: フィールドの種類によっては、解析設定を指定してフィールドを構成する必要があります。 |
| 必須です。 | フィールドを必須として定義するオプション。オンにした場合は、プロセス アプリをパブリッシュまたはインポートする際にこのフィールドが必須になります。フィールドが見つからない場合は、エラーがスローされます。選択しない場合、フィールドは任意と見なされます。この値がない場合、フィールドは NULL 値で追加されるため、後続の SQL クエリは失敗しません。 |
| 一意 | フィールド値を定義するオプション: レコードごとに個別の値または一意の値を設定します。 |
| null ではない | フィールドが各レコードに対して値を持つ必要があることを定義するオプション。フィールドを空のままにしたり、NULL 値を入力したりすることはできません。 |
フィールド型の解析設定
次の表では、さまざまなフィールドの種類で使用できる解析設定について説明します。
| フィールドの種類 | 解析の設定 |
|---|---|
| Integer | 3 桁の区切り文字 •なし • ドット (.) • コンマ (,) |
| Decimal | • 小数点の区切り文字 • ドット (.) • コンマ (,) •千の区切り文字 •なし • ドット (.) • コンマ (,) |
| Boolean | • 真の値: TRUE または 1 • False 値: FALSE または 0 注: True 値 と False 値は 必須の設定であり、異なる値である必要があります。 |
| 日付 | 日付形式 ( 「日付形式の解析設定の例」をご覧ください)。 |
| Datetime | 日付/時刻形式 日付形式 ( 「日時形式の解析設定の例」をご覧ください。) |
日付形式の解析設定例
| 形式 | 例 |
|---|---|
yyyy-mm-dd | 2025-04-05 2025-4-5 |
mm/dd/yy | 04/05/25 4/5/25 |
mm/dd/yyyy | 04/05/2025 4/5/2025 |
mm-dd-yyyy | 04-05-2025 4-5-2025 |
dd-mm-yyyy | 05-04-2025 5-4-2025 |
yyyy/mm/dd | 2025/04/05 |
DateTime 形式の解析設定の例
| 形式 | 例 |
|---|---|
yyyy-mm-dd hh:mm:ss[.nnn] | 2025-04-05 14:30:45.123 2025-4-5 14:30:45.123 |
yyyy/mm/dd hh:mm:ss[.nnn] | 2025/04/05 14:30:45.123 2025/4/5 14:30:45.123 |
mm/dd/yyyy hh:mm:ss[.nnn] | 04/05/2025 14:30:45.123 4/5/2025 14:30:45.123 04/05/2025 14:30:45 4/5/2025 14:30:45 |
yyyy-mm-ddThh:mm:ss[.nnn] | 2025-04-05T14:30:45.123 2025-4-5T14:30:45.123 |
mm-dd-yyyy hh:mm:ss[.nnn] | 04-05-2025 14:30:45.123 4-5-2025 14:30:45.123 04-05-2025 14:30:45 4-5-2025 14:30:45 |
dd-mm-yyyy hh:mm:ss[.nnn] | 05-04-2025 14:30:45.123 5-4-2025 14:30:45.123 05-04-2025 14:30:45 5-4-2025 14:30:45 |
yyyy-mm-ddThh:mm:ss[.nnn]+00:00* | 2025-04-05T14:30:45.123+02:00 2025-04-05T14:30:45-03:00 2025-04-05T14:30:45 2025-4-5T14:30:45.123+02:00 2025-4-5T14:30:45-03:00 2025-4-5T14:30:45Z |
yyyy-mm-ddThh:mm:ss[.nnn]+0000* | 2025-04-05T09:30:00+0000 2025-04-05T09:30:00.123+0000 |
yyyy-mm-dd hh:mm:ss[.nnn]+00:00* | 2025-04-05 09:30:00+00:00 2025-04-05 09:30:00.123+00:00 |
yyyy-mm-dd hh:mm:ss[.nnn]+0000* | 2025-04-05 09:30:00+0000 2025-04-05 09:30:00.123+0000 |
dd/mm/yyyy hh:mm:ss[.nnn] | 05/04/2025 14:30:45.123 5/4/2025 14:30:45.123 |
mm/dd/yy hh:mm:ss[.nnn] AM/PM | 04/05/25 02:30:45 PM 4/5/25 02:30:45 PM |
** タイム ゾーン情報を含むタイムスタンプは、データの取り込み中に自動的に UTC に変換されます。
入力データを管理画面を利用するための既存のプロセス アプリの調整
はじめに
既存のプロセス アプリは引き続き完全に機能しますが、Process Mining の入力 データを管理 画面を利用するようにプロセス アプリを調整することができます。[入力データを管理] 画面では、新しい入力テーブルや入力フィールドを簡単に追加できます。そのため、入力データの構造が変更される可能性のあるプロセス アプリを調整することをお勧めします。入力データの構造に多くの変更が予想されない場合は、アプリを調整しないことを検討することをお勧めします。
[ 入力データを管理 ] 画面を使用して既存のプロセス アプリのテーブルとフィールドを読み込む場合は、このページに記載されている手順を手動で実行する必要があります。
前提条件
アプリの調整を開始する前に、次のことを行います。
- プロセス アプリに対するすべての変更がパブリッシュされていることを確認します。
- プロセス アプリをエクスポートまたは複製して、バックアップを保存します。
手順
入力クエリは、 sources セクションで定義されたテーブルを参照する SQL ファイルです。これらのモデルは、多くの場合、 フォルダー 1_inputにあります。
入力クエリごとに以下の手順に従います 。
- 入力 SQL ファイルに名前変更と型キャストのみが含まれるようにしてください。他のロジック (フィルター処理、派生列など) を後続の SQL ファイルに移動します。
次の図は、名前の変更と型キャストのみを含む Event_log_input.sql ファイルの例を示しています。
2. [入力データを管理 ] に移動し、各フィールドのフィールドのプロパティを調整します。詳しくは、「 入力フィールドをマッピングおよび設定 する」をご覧ください。
- [データ変換] の [入力データの設定を管理] オプションを使用して、データ型と名前を変更します。
- [フィールドのプロパティ] パネルでフィールドの属性 (必須、一意、NULL 以外) を確認し、正しく設定されていることを確認します。
3. すべての SQL ファイルに入力テーブルへの参照がないか確認し、 {{ ref('table_name') }}をクリックし、新しいテーブルを使用するようにこれらの参照を更新します。
{{ ref('table_name') }} のすべての出現箇所を {{ source('sources', 'source_table_name') }}に置き換えます。たとえば、SQL ファイルを指していた {{ ref('Event_log_input') }} を、ソース テーブルを直接指す {{ source('sources', 'Event_log_raw') }} に置き換えます。

これらの参照は、どの SQL ファイルでも発生する可能性があります。
- 元の入力 SQL ファイルは使用されなくなったため、安全に削除できるようになりました。
重要:
[ 入力データの設定を管理] でまだ利用できない形式の設定が変換に含まれている場合は、型キャストを dbt 変換に残す必要があります。たとえば、SAP の日付は使用できません (YYYYMMDD)。
トラブルシューティング
質問
以前にアップロードしたファイルが正しく読み込まれません。
考えられる解決策
ファイルのエンコードと行末を調べて、テーブルの設定と一致するかどうかを確認します。詳しくは 、「入力テーブルをマッピングおよび構成 する」をご覧ください。