- Versionshinweise
- Bevor Sie beginnen
- Erste Schritte
- Integrationen
- Arbeiten mit Prozess-Apps
- Arbeiten mit Dashboards und Diagrammen
- Arbeiten mit Prozessdiagrammen
- Arbeiten mit Discover-Prozessmodellen und Import BPMN-Modellen
- Showing or hiding the menu
- Kontextinformationen
- Exportieren
- Filter
- Senden von Automatisierungsideen an den UiPath® Automation Hub
- Tags
- Fälligkeitsdaten
- Vergleichen
- Konformitätsprüfung
- Ursachenanalyse
- Simulation des Automatisierungspotenzials
- Auslösen einer Automatisierung über eine Prozess-App
- Anzeigen von Prozessdaten
- Erstellen von Apps
- Laden von Daten
- Anpassen von Prozess-Apps
- Einführung in Dashboards
- Arbeiten mit dem Dashboard-Editor
- Dashboards erstellen
- Dashboards
- Automatisierungsmanager
- Definieren neuer Eingabetabellen
- Hinzufügen von Feldern
- Hinzufügen von Tabellen
- Anforderungen an das Datenmodell
- Anzeigen und Bearbeiten des Datenmodells
- Exportieren und Importieren von Transformationen
- Anzeigen des Transformationsprotokolls
- Bearbeiten und Testen von Datentransformationen
- Structure of transformations
- Tips for writing SQL
- Zusammenführen von Ereignisprotokollen
- Prozessmanager
- App-Vorlagen
- Zusätzliche Ressourcen
- Vorgefertigte Tags und Fälligkeitsdaten
- Bearbeiten von Datentransformationen in einer lokalen Umgebung
- Setting up a local test environment
- Designing an event log
- DataBridgeAgent
- Systemanforderungen
- Konfigurieren des DataBridgeAgent
- Hinzufügen eines benutzerdefinierten Connectors zu DataBridgeAgent
- Verwenden von DataBridgeAgent mit dem SAP Connector für den Purchase-to-Pay Discovery Accelerator
- Verwenden von DataBridgeAgent mit dem SAP Connector für den Order-to-Cash Discovery Accelerator
- Erweitern des Extraktionstools SAP Ariba
- Leistungsmerkmale
Process Mining
Transformationen
Die Transformationen einer Prozess-App bestehen aus einem dbt- Projekt. Nachfolgend finden Sie eine Beschreibung des Inhalts eines dbt- Projektordners.
Ordner/Datei |
Enthält |
---|---|
|
das
pm_utils -Paket und seine Makros.
|
|
Protokolle, die beim Ausführen von dbterstellt werden. |
|
benutzerdefinierte Makros. |
|
.sql -Dateien, die die Transformationen definieren.
|
|
.yml -Dateien, die Tests für die Daten definieren.
|
|
.csv -Dateien mit Konfigurationseinstellungen.
|
|
die Einstellungen des dbt-Projekts. |
Siehe Abbildung unten.
Die Datei dbt_project.yml enthält Einstellungen des dbt -Projekts, das Ihre Transformationen definiert. Der Abschnitt vars enthält Variablen, die in den Transformationen verwendet werden.
Datums-/Uhrzeitformat
Jede App-Vorlage enthält Variablen, die das Format für die Analyse von Datums-/Uhrzeitdaten bestimmen. Diese Variablen müssen angepasst werden, wenn die Eingabedaten ein anderes Datums-/Uhrzeitformat als erwartet haben.
.sql
-Dateien im Verzeichnis models\
definiert. Die Datenumwandlungen sind in einem Standardsatz von Unterverzeichnissen organisiert:
1_input
,2_entities
,3_events
,4_event_logs
,5_business_logic
.
.sql
-Dateien sind in Jinja SQL geschrieben, sodass Sie Jinja-Anweisungen in einfache SQL-Abfragen einfügen können. Wenn dbt alle .sql
-Dateien ausführt, führt jede .sql
-Datei zu einer neuen Ansicht oder Tabelle in der Datenbank.
.sql
-Dateien die folgende Struktur:
-
With-Anweisungen: Eine oder mehrere with-Anweisungen zum Einschließen der erforderlichen Untertabellen.
{{ ref(‘My_table) }}
verweist auf eine Tabelle, die durch eine andere SQL-Datei definiert ist Datei.{{ source(var("schema_sources"), 'My_table') }}
verweist auf eine Eingabetabelle.
- Hauptabfrage: Die Abfrage, die die neue Tabelle definiert.
-
Letzte Abfrage: Normalerweise wird eine Abfrage wie
Select * from table
am Ende verwendet. Dadurch ist es einfach, während des Debuggens Unterauswahlen zu treffen.
Weitere Tipps zum effektiven Schreiben von Transformationen finden Sie unter Tipps zum Schreiben von SQL
models\schema\sources.yml
aufgeführt sein. Auf diese Weise können andere Modelle darauf verweisen, indem sie {{ source(var("schema_sources"), 'My_table') }}
verwenden. Ein Beispiel finden Sie in der Abbildung unten.
sources.yml
aufgeführt sein.
Weitere Informationen zur Verwendung von Quelltabellen in Abfragen finden Sie unter Struktur von Transformationen:1. Eingabe. Ausführliche Informationen finden Sie in der offiziellen dbt-Dokumentation zu Quellen.
Die Datenumwandlungen müssen das Datenmodell ausgeben, das von der entsprechenden App benötigt wird. jede erwartete Tabelle und jedes Feld muss vorhanden sein.
models\5_business_logic
nicht gelöscht werden sollten. Außerdem sollten die Ausgabefelder in den entsprechenden Abfragen nicht entfernt werden.
Wenn Sie Ihrer Prozess-App neue Felder hinzufügen möchten, können Sie diese Felder in den Transformationen hinzufügen.
dbt docs
-Befehle verwenden, um eine Dokumentationsseite für Ihr dbt-Projekt zu generieren und in Ihrem Standardbrowser zu öffnen. Die Dokumentationsseite enthält auch ein Herkunftsdiagramm, das ein Entitätsbeziehungsdiagramm mit einer grafischen Darstellung der Verknüpfungen zwischen den einzelnen Datentabellen in Ihrem Projekt bietet.
dbt docs
.
Makros erleichtern die Wiederverwendung gängiger SQL-Konstruktionen. Ausführliche Informationen finden Sie in der offiziellen dbt-Dokumentation zu Jinja-Makros.
pm-utils
-Paket enthält eine Reihe von Makros, die normalerweise in Process Mining-Transformationen verwendet werden. Weitere Informationen zu den pm_utils
-Makros finden Sie unter ProcessMining-pm-utils.
pm_utils.optional()
aufruft.
csv
-Dateien, die verwendet werden, um Ihren Transformationen Datentabellen hinzuzufügen. Ausführliche Informationen finden Sie in der offiziellen dbt-Dokumentation zu jinja-Samen.
In Process Miningwird dies normalerweise verwendet, um die Konfiguration von Zuordnungen in Ihren Transformationen zu vereinfachen.
Nach dem Bearbeiten von Seed-Dateien werden diese Dateien nicht sofort automatisch in der Datenbank aktualisiert. Um dbt anzuweisen, den Inhalt der neuen Seed-Datei in die Datenbank zu laden, führen Sie entweder
dbt seed
– wodurch nur die Seed-Dateitabellen aktualisiert werden, oder-
dbt build
– führt auch alle Modelle und Tests aus.Hinweis: Wenn die Seed-Datei anfangs keine Datensätze hatte, wurden die Datentypen in der Datenbank möglicherweise nicht korrekt festgelegt. Um dies zu beheben, rufenrun dbt seed --full-refresh
auf. Dadurch wird auch der Spaltensatz in der Datenbank aktualisiert.
models\schema\
enthält eine Reihe von .yml
-Dateien, die Tests definieren. Diese validieren die Struktur und den Inhalt der erwarteten Daten. Ausführliche Informationen finden Sie in der offiziellen dbt-Dokumentation zu Tests.
sources.yml
ausgeführt. Dies geschieht, um zu überprüfen, ob die Eingabedaten richtig formatiert sind.
Datentransformationen werden verwendet, um Eingabedaten in Daten umzuwandeln, die für Process Mining geeignet sind. Die Transformationen in Process Mining werden als dbt- Projekte geschrieben.
Diese Seiten bieten eine Einführung in dbt. Ausführlichere Informationen finden Sie in der offiziellen dbt-Dokumentation.
pm_utils
enthalten. Dieses pm-utils
-Paket enthält Dienstprogrammfunktionen und Makros für Process Mining- dbt -Projekte. Weitere Informationen zu pm_utils
finden Sie unter ProcessMining-pm-utils.
pm-utils
-Paket ständig durch neue Funktionen.
pm-utils
-Pakets veröffentlicht wird, wird Ihnen empfohlen, die in Ihren Transformationen verwendete Version zu aktualisieren, um sicherzustellen, dass Sie die neuesten Funktionen und Makros des pm-utils
-Pakets nutzen.
pm-utils
im Bereich Versionen der ProcessMining -pm-utils.
pm-utils
-Version in Ihren Transformationen zu aktualisieren.
-
Laden Sie den Quellcode (ZIP) aus der Version von
pm-utils
herunter. -
Extrahieren Sie die
zip
-Datei, und benennen Sie den Ordner in pm_utils um. -
Exportieren Sie Transformationen aus dem Inline- Datentransformations -Editor und extrahieren Sie die Dateien.
-
Ersetzen Sie den Ordner pm_utils aus den exportierten Transformationen durch den neuen Ordner pm_utils .
-
Zippen Sie die Inhalte der Transformationen erneut und importieren Sie sie in den Datentransformations- Editor.