- リリース ノート
- はじめる前に
- アクセス権を管理する
- 基本情報
- Integrations
- プロセス アプリを使用する
- アプリを作成する
- データを読み込む
- データ変換中
- プロセス アプリをカスタマイズする
- プロセス アプリをパブリッシュする
- アプリ テンプレート
- 通知
- その他のリソース

Process Mining
データ変換から直接入力テーブルを設定し、入力データがプロセス アプリの要件を満たすことを確認できます。[入力データの設定を管理] オプションを使用すると、既存の入力テーブルを簡単に設定したり、新しくアップロードしたファイルから新しい入力テーブルを作成したりできます。
入力データの設定を管理するには、以下の手順に従います。
-
[入力] セクションで、[テーブル] フォルダーを見つけます。
-
ファイルを管理するテーブルを見つけ、コンテキスト メニュー アイコンを選択して、選択したテーブルの [テーブルを編集] パネルを開きます。
[ テーブル] ページには、プロセス アプリに既に存在するソース テーブルが表示されます。
1 つ以上のファイルをアップロードすると、アップロードされた各ファイルの新しいテーブルが [ ソース テーブル ] セクションに自動的に追加され、対応する入力テーブルが [ ターゲット テーブル ] セクションに作成されます。既定では、アップロードされたファイルのファイル名がテーブルの名前として使用されます。テーブルのデータをアップロードする前に、テーブルを設定する必要があることを示す警告メッセージが表示されます。
入力テーブルをマッピングする
入力データは、アプリに対して定義されたデータ モデルを満たす必要があります。必要に応じて、 ソース テーブルを別の ターゲット テーブルにマップできます。
入力テーブルを構成する
対象の入力テーブルの設定が自動的に検出されるので、あとは確認するだけです。
入力テーブルの設定を編集するには、以下の手順に従います。
-
設定するテーブルを見つけて [テーブルを編集] アイコンを選択し、選択したテーブルの [テーブルを編集 ] パネルを開きます。
-
必要に応じて設定を編集し、[ 保存] を選択します。
次の表では、テーブルの設定について説明します。
|
設定 |
説明 |
|
テーブル名 |
データ変換の入力テーブルの名前。 |
|
必須です。 |
テーブルを必須として定義するオプション。 TRUE場合、後でプロセス アプリをパブリッシュまたはインポートするときにこのテーブルが必要になります。テーブルがアップロードされない場合は、エラーがスローされます。FALSE場合、アプリをパブリッシュまたはインポートする際に、テーブルは任意と見なされます。テーブルがアップロードされない場合は、後続の SQL クエリが失敗しないように、空のテーブルが作成されます。
|
|
エンコード |
ファイルで使用されているエンコード。 |
|
区切り文字 |
各フィールドを区切る区切り文字です。 |
|
行の終わり |
行の終わりと新しい行の始まりを示すために使用される文字。 |
|
引用符文字 |
フィールドが引用符で囲まれている場合に使用される引用符文字。 |
|
読み込みの種類 |
表のロード・タイプ。 注:
「ロード・タイプ 」として 「増分 」を選択した場合は、表の増分ロードを構成するための追加設定を指定する必要があります。 |
データの増分読み込み
全ロードでは、最後のロード以降にデータが変更されたかどうか、または同じままであったかどうかに関係なく、すべてのデータがソースから抽出され、ターゲットシステムにロードされます。増分読み込みでは、最後の読み込み以降に変更 (追加または更新) されたデータのみが抽出されます。増分読み込みは、通常、全読み込みよりも高速でリソース消費が少なく、特に、小さなサブセットのみが頻繁に変更される可能性のある大量のデータを処理する場合に便利です。
表の増分データ・ロードを有効にするには、表の 「ロード・タイプ 」を 「増分」に設定する必要があります。増分読み込みには、データが正しく読み込まれるようにするための一意の識別子と、ソース データの変更を追跡するためのフィールド (タイムスタンプやバージョンなど) が必要です。
次の表では、 増分 読み込みに必要な追加設定について説明します。
|
設定 |
説明 |
|
主キー | 主キー フィールドまたはデータ ソース内の各レコードを一意に識別するフィールド。 |
|
タイムスタンプ フィールド |
各レコードが最後に更新または追加された日時を追跡するために使用されるフィールドです。 |
|
タイムスタンプの形式 |
[ タイムスタンプ ] フィールドで使用されるタイムスタンプ値の形式です。 |
データの読み込みに使用される抽出方法では、増分抽出のために追加または特定の構成が必要になる場合があります。
CData Sync の増分抽出の設定方法の詳細については、「 CData Sync を使用してデータを読み込む 」をご覧ください。
増分抽出用に DataUploader を設定する方法の詳細については、「 DataUploader を使用してデータを読み込む 」をご覧ください。
ソース・ファイルの削除
ソースデータのアップロード時に誤ってソースファイルを選択してしまった場合は、[入力データ]画面から削除できます。- [ ソース テーブル ] リストで、削除するソース ファイルを見つけます。
- テーブル上にマウスをホバーし、[ ファイルの削除] を選択します。
Deleting an input table
You can delete an input table you previously uploaded, directly from the mapping tables page in Input data screen. Deleting an input table removes the data for your process app. If you want to use the data in your process app at a later stage, you must re-upload the input table.- Locate the table you want to delete and select the Delete table icon. A confirmation message is displayed.
- [削除] を選択します。
入力テーブルの構成が完了したら、テーブルの入力フィールドをマップおよび構成できます。
-
[ テーブル] ページで [ 次へ] を選択します。[フィールド] ページが表示されます。
各テーブルについて、ソース ファイルのフィールドが自動的に検出され、ターゲット テーブルの対応するフィールドにマッピングされます。
入力フィールドのマッピング
入力データは、アプリに対して定義されたデータ モデルを満たす必要があります。必要に応じて、 ソース フィールドを別の ターゲット フィールドにマッピングできます。
入力フィールドを設定する
対象入力欄の設定は自動検出されるので、あとは確認するだけです。
入力フィールドの設定を編集するには、以下の手順に従います。
-
設定するフィールドを見つけて [フィールドを編集] アイコンを選択し、選択したフィールドの [フィールドを編集 ] パネルを開きます。
-
必要に応じて設定を編集し、[ 保存] を選択します。
次の表では、テーブルの設定について説明します。
|
設定 |
説明 |
|
名前 |
フィールドの名前です。 注:
[名前] は必須フィールドです。 |
|
入力 |
フィールドのデータ型です。
注:
フィールドの種類に応じて、解析設定を指定してフィールドを設定する必要があります。 |
|
必須です。 |
フィールドを必須として定義するオプション。 選択すると、プロセス アプリをパブリッシュまたはインポートするときにこのフィールドが必須になります。フィールドがない場合はエラーがスローされます。選択しない場合、このフィールドは任意と見なされます。これがない場合、フィールドは NULL 値で追加され、後続の SQL クエリは失敗しません。 |
|
一意 |
フィールド値を定義するオプション: レコードごとに個別の値または一意の値を設定します。 |
|
null ではない |
フィールドが各レコードに対して値を持つ必要があることを定義するオプション。フィールドを空のままにしたり、NULL 値を入力したりすることはできません。 |
フィールド型の解析設定
次の表では、さまざまなフィールドの種類で使用できる解析設定について説明します。
|
フィールドの種類 |
解析の設定 |
|
Integer |
3 桁の区切り文字
|
|
Decimal |
|
|
Boolean |
注:
[True value ] と [False ] は必須の設定であり、異なる値にする必要があります。 |
|
日付 |
日付形式 ( 「日付の形式」の「解析設定例」をご覧ください)。 |
|
Datetime | 日付/時刻形式 日付形式 ( 「日時形式の解析設定の例」をご覧ください。) |
日付形式の解析設定例
| 形式 | 例 |
|---|---|
yyyy-MM-dd |
|
mm/dd/yy |
|
mm/dd/yyyy |
|
MM-DD-YYYY |
|
dd-mm-yyyy |
|
DateTime 形式の解析設定の例
| 形式 | 例 |
|---|---|
YYYY-MM-DD HH:mm:ss |
|
yyyy-mm-dd hh:mm:ss[.nnn] |
|
yyyy-mm-ddThh:mm:ss[.nnn] |
|
mm/dd/yy hh:mm:ss 午前/午後 |
|
mm-dd-yyyy hh:mm:ss[.nnn] |
|
dd-mm-yyyy hh:mm:ss[.nnn] |
|
yyyy-mm-ddThh:mm:ss[.nnn]+00:00* |
|
yyyy-mm-ddThh:mm:ss+00:00* |
|
dd/mm/yyyy hh:mm:ss[.nnn] |
|
はじめに
既存のプロセス アプリは引き続き完全に機能しますが、Process Mining の [入力データを管理] 画面を利用するようにプロセス アプリを調整できます。[入力データの管理] 画面では、新しい入力テーブルや入力フィールドを簡単に追加できます。そのため、入力データの構造が変更される可能性があるプロセス アプリの調整をお勧めします。入力データの構造に大きな変更が見込めない場合は、アプリを調整しないことを検討してください。
[ 入力データを管理] 画面を使用して既存のプロセス アプリのテーブルやフィールドを読み込む場合は、このページに記載されている手順を手動で実行する必要があります。
前提条件
アプリの調整を開始する前に、次のことを行います。
-
プロセス アプリに対するすべての変更がパブリッシュされていることを確認します。
-
プロセス アプリをエクスポートまたは複製して、バックアップを保存します。
手順
sources セクションで定義されたテーブルを参照する SQL ファイルです。これらのモデルは、多くの場合、 フォルダー 1_inputにあります。
入力 クエリごとに次の手順を実行します。
-
入力 SQL ファイルに名前変更と型キャストのみが含まれるようにしてください。他のロジック (フィルター処理、派生列など) を後続の SQL ファイルに移動します。
次の図は、名前の変更と型キャストのみを含むEvent_log_input.sqlファイルの例を示しています。 -
[入力データを管理] に移動し、各フィールドのフィールド プロパティを調整します。詳しくは、「 入力フィールドのマッピングと設定 」をご覧ください。
-
[データ変換] の [ 入力データの設定を管理] オプションを使用して、データ型と名前を変更します。
-
[フィールドのプロパティ] パネルの[フィールドの属性] (必須 、 一意 、 NULL 以外) を確認し、正しく設定されていることを確認します。
-
-
すべての SQL ファイルに入力テーブル
{{ ref('table_name') }}への参照があることを確認し、これらの参照を更新して新しいテーブルを使用します。{{ ref('table_name') }}のすべての出現箇所を{{ source('sources', 'source_table_name') }}に置き換えます。たとえば、SQL ファイルを指していた{{ ref('Event_log_input') }}を、ソース テーブルを直接指す{{ source('sources', 'Event_log_raw') }}に置き換えます。注:これらの参照は、どの SQL ファイルでも発生する可能性があります。
-
元の入力 SQL ファイルは使用されなくなったため、安全に削除できるようになりました。
[ 入力データの設定を管理] でまだ利用できない形式設定が変換に含まれている場合は、 dbt 変換で型キャストをそのままにする必要があります。たとえば、SAP の日付は使用できません (YYYYMMDD) などです。
トラブルシューティング
質問
以前にアップロードしたファイルが正しく読み込まれません。
考えられる解決策
ファイルのエンコーディングと行末を調べて、テーブル設定と一致するかどうかを確認します。詳細については、「入力テーブルのマッピングと設定」をご覧ください。