- Bevor Sie beginnen
- Erste Schritte
- Integrationen
- Arbeiten mit Prozess-Apps
- Arbeiten mit Dashboards und Diagrammen
- Arbeiten mit Prozessdiagrammen
- Arbeiten mit Discover-Prozessmodellen und Import BPMN-Modellen
- Anzeigen oder Ausblenden des Menüs
- Kontextinformationen
- Exportieren
- Filter
- Senden von Automatisierungsideen an den UiPath® Automation Hub
- Tags
- Fälligkeitsdaten
- Vergleichen
- Konformitätsprüfung
- Ursachenanalyse
- Simulation des Automatisierungspotenzials
- Auslösen einer Automatisierung über eine Prozess-App
- Anzeigen von Prozessdaten
- Erstellen von Apps
- Laden von Daten
- Anpassen von Prozess-Apps
- Einführung in Dashboards
- Arbeiten mit dem Dashboard-Editor
- Dashboards erstellen
- Dashboards
- Automatisierungsmanager
- Definieren neuer Eingabetabellen
- Hinzufügen von Feldern
- Hinzufügen von Tabellen
- Anforderungen an das Datenmodell
- Anzeigen und Bearbeiten des Datenmodells
- Exportieren und Importieren von Transformationen
- Anzeigen des Transformationsprotokolls
- Bearbeiten und Testen von Datentransformationen
- Struktur von Transformationen
- Tipps zum Schreiben von SQL
- Zusammenführen von Ereignisprotokollen
- Prozessmanager
- Dashboards veröffentlichen
- App-Vorlagen
- Zusätzliche Ressourcen
- Vorgefertigte Tags und Fälligkeitsdaten
- Bearbeiten von Datentransformationen in einer lokalen Umgebung
- Setting up a local test environment
- Entwerfen eines Ereignisprotokolls
- DataBridgeAgent
- Systemanforderungen
- Konfigurieren des DataBridgeAgent
- Hinzufügen eines benutzerdefinierten Connectors zu DataBridgeAgent
- Verwenden von DataBridgeAgent mit dem SAP Connector für den Purchase-to-Pay Discovery Accelerator
- Verwenden von DataBridgeAgent mit dem SAP Connector für den Order-to-Cash Discovery Accelerator
- Erweitern des Extraktionstools SAP Ariba
- Leistungsmerkmale
- So wird eine Datenausführung von der Datenbank abgebrochen
- So fügen Sie eine IP-Tabellenregel hinzu, um den SQL Server-Port 1433 zu verwenden
- Beim Erstellen einer Prozess-App bleibt der Status in „App wird erstellt“.
- Konfigurieren von Dapr mit Redis im Clustermodus
- Datentransformationen
- Hochladen von Daten
- CData-Synchronisierung
Process Mining-Benutzerhandbuch
Ordnerstruktur
The transformations of a process app consist of a dbt project. Below is a description of the contents of a dbt project folder.
| Ordner/Datei | Enthält |
|---|---|
dbt_packages\ | das pm_utils -Paket und seine Makros. |
logs\ | logs created when running dbt. |
macros\ | benutzerdefinierte Makros. |
models\ | .sql die Transformationen definieren. |
models\schema\ | .yml die Tests für die Daten definieren. |
seed | .csv Dateien mit Konfigurationseinstellungen. |
dbt_project.yml | Die Einstellungen des dbt-Projekts. |
Siehe Abbildung unten.

Datentransformationen
Die Datenumwandlungen sind in .sql -Dateien im Verzeichnis models\ definiert. Die Datenumwandlungen sind in einem Standardsatz von Unterverzeichnissen organisiert:
1_input,2_objects,3_events,4_event_logs,5_business_logic.
Sehen Sie sich Struktur von Transformationen an .
The .sql files are written in Jinja SQL, which allows you to insert Jinja statements inside plain SQL queries. When dbt runs all .sql files, each .sql file results in a new view or table in the database.
Normalerweise haben die .sql -Dateien die folgende Struktur:
-
Mit Anweisungen: Eine oder mehrere mit Anweisungen, die die erforderlichen Untertabellen enthalten sollen.
{{ ref(‘My_table) }}verweist auf eine Tabelle, die durch eine andere SQL-Datei definiert ist Datei.{{ source(var("schema_sources"), 'My_table') }}verweist auf eine Eingabetabelle.
-
Hauptabfrage: Die Abfrage, die die neue Tabelle definiert.
-
Letzte Abfrage: In der Regel wird am Ende eine Abfrage wie
Select * from tableverwendet. Dies erleichtert das Treffen von Unterauswahlen beim Debuggen.
Weitere Tipps zum effektiven Schreiben von Transformationen finden Sie unter Tipps zum Schreiben von SQL
Hinzufügen von Quelltabellen
Um dem dbt -Projekt eine neue Quelltabelle hinzuzufügen, muss sie in models\schema\sources.yml aufgeführt sein. Auf diese Weise können andere Modelle mit {{ source(var("schema_sources"), 'My_table') }} darauf verweisen. Die folgende Abbildung zeigt ein Beispiel.

Each new source table must be listed in sources.yml.
Ausführliche Informationen finden Sie in der offiziellen dbt-Dokumentation unter Quellen.
Datenausgabe
Die Datenumwandlungen müssen das Datenmodell ausgeben, das von der entsprechenden App benötigt wird. jede erwartete Tabelle und jedes Feld muss vorhanden sein.
Wenn Sie Ihrer Prozess-App neue Felder hinzufügen möchten, können Sie diese Felder in den Transformationen hinzufügen.
Makros
Makros machen die Wiederverwendung gängiger SQL-Konstruktionen einfach. Ausführliche Informationen finden Sie in der offiziellen dbt-Dokumentation zu Chinja-Makros.
pm_utils
Das pm-utils -Paket enthält eine Reihe von Makros, die typischerweise in Process Mining-Transformationen verwendet werden. Weitere Informationen zu den pm_utils -Makros finden Sie unter ProcessMining-pm-utils.
Die folgende Abbildung zeigt ein Beispiel für Minja-Code, der das Makro pm_utils.optional() aufruft.

Samen
Startdaten sind csv -Dateien, die verwendet werden, um Datentabellen zu Ihren Transformationen hinzuzufügen. Ausführliche Informationen finden Sie in der offiziellen dbt-Dokumentation zu jinja- Seeds.
In Process Mining wird dies normalerweise verwendet, um die Konfiguration von Zuordnungen in Ihren Transformationen zu vereinfachen.
Führen Sie nach der Bearbeitung von Startdateien die Datei aus, indem Sie Datei ausführen oder Alle ausführen auswählen, um die entsprechende Datentabelle zu aktualisieren.
Beispiele für die Verwendung von Seed-Dateien finden Sie unter Aktivitätskonfiguration und Simulation des Automatisierungspotenzials .
Activity configuration
Die activity_configuration.csv -Datei wird verwendet, um zusätzliche Felder im Zusammenhang mit Aktivitäten festzulegen. activity_order wird als Bindungsunterbrechung verwendet, wenn zwei Ereignisse im selben Zeitstempel auftreten. Die folgende Abbildung zeigt ein Beispiel für eine activity_configuration.csv -Datei.

Tests
Der models\schema\ -Ordner enthält einen Satz von .yml -Dateien, die Tests definieren. Diese validieren die Struktur und den Inhalt der erwarteten Daten. Ausführliche Informationen finden Sie in der offiziellen dbt-Dokumentation zu Tests.
Wenn die Transformationen in Process Mining ausgeführt werden, werden bei jeder Datenaufnahme nur die Tests in sources.yml ausgeführt. Dadurch wird überprüft, ob die Eingabedaten ordnungsgemäß formatiert sind.
When you edit transformations, make sure to update the tests accordingly. The tests can be removed if desired.
Dbt-Projekte
Datentransformationen werden verwendet, um Eingabedaten in Daten umzuwandeln, die für Process Mining geeignet sind . Die Transformationen in Process Mining werden als dbt -Projekte geschrieben.
Auf dieser Seite wird eine Einführung in dbt angezeigt. Ausführliche Informationen finden Sie in der offiziellen dbt-Dokumentation.
pm-utils package
Process Mining- App-Vorlagen enthalten ein dbt- Paket mit dem Namen pm_utils. Dieses pm-utils -Paket enthält Dienstprogrammfunktionen und Makros für Process Mining- dbt- Projekte. Weitere Informationen zu pm_utils finden Sie unter ProcessMining-pm-utils.
Aktualisieren der PM-utils-Version, die für Ihre App-Vorlage verwendet wird
UiPath® verbessert das pm-utils -Paket ständig, indem neue Funktionen hinzugefügt werden.
Wenn eine neue Version des pm-utils -Pakets veröffentlicht wird, wird Ihnen empfohlen, die in Ihren Transformationen verwendete Version zu aktualisieren, um sicherzustellen, dass Sie die neuesten Funktionen und Makros des pm-utils -Pakets nutzen.
Sie finden die Versionsnummer der neuesten Version des pm-utils -Pakets im Bereich Versionen von ProcessMining-pm-utils.
Führen Sie die folgenden Schritte aus, um die pm-utils -Version in Ihren Transformationen zu aktualisieren.
- Laden Sie den Quellcode (ZIP) aus der Version von
pm-utilsherunter. - Extrahieren Sie die Datei
zipund benennen Sie den Ordner in pm_utils um. - Exportieren Sie Transformationen aus dem Inline- Datentransformations -Editor und extrahieren Sie die Dateien.
- Ersetzen Sie den Ordner pm_utils aus den exportierten Transformationen durch den neuen Ordner pm_utils .
- Zippen Sie die Inhalte der Transformationen erneut und importieren Sie sie in den Datentransformations- Editor.