- Versionshinweise
- Bevor Sie beginnen
- Erste Schritte
- Integrationen
- Arbeiten mit Prozess-Apps
- Arbeiten mit Dashboards und Diagrammen
- Arbeiten mit Prozessdiagrammen
- Arbeiten mit Discover-Prozessmodellen und Import BPMN-Modellen
- Showing or hiding the menu
- Kontextinformationen
- Exportieren
- Filter
- Senden von Automatisierungsideen an den UiPath® Automation Hub
- Tags
- Fälligkeitsdaten
- Vergleichen
- Konformitätsprüfung
- Ursachenanalyse
- Simulation des Automatisierungspotenzials
- Starten eines Task Mining-Projekts über Process Mining
- Auslösen einer Automatisierung über eine Prozess-App
- Anzeigen von Prozessdaten
- Erstellen von Apps
- Laden von Daten
- Anpassen von Prozess-Apps
- Einführung in Dashboards
- Dashboards erstellen
- Dashboards
- Automatisierungsmanager
- Input data
- Definieren neuer Eingabetabellen
- Hinzufügen von Feldern
- Hinzufügen von Tabellen
- Anforderungen an das Datenmodell
- Anzeigen und Bearbeiten des Datenmodells
- Exportieren und Importieren von Transformationen
- Bearbeiten und Testen von Datentransformationen
- Structure of transformations
- Zusammenführen von Ereignisprotokollen
- Tips for writing SQL
- Prozessmanager
- Veröffentlichen von Prozess-Apps
- App-Vorlagen
- Zusätzliche Ressourcen
- Vorgefertigte Tags und Fälligkeitsdaten
- Bearbeiten von Datentransformationen in einer lokalen Umgebung
- Setting up a local test environment
- Designing an event log
- Systemanforderungen
- Konfigurieren des DataBridgeAgent
- Hinzufügen eines benutzerdefinierten Connectors zu DataBridgeAgent
- Verwenden von DataBridgeAgent mit dem SAP Connector für den Purchase-to-Pay Discovery Accelerator
- Verwenden von DataBridgeAgent mit dem SAP Connector für den Order-to-Cash Discovery Accelerator
- Erweitern des Extraktionstools SAP Ariba
- Leistungsmerkmale
Leistungsmerkmale
Die Reaktionszeit von Process Mining-Apps wird von vielen Faktoren bestimmt. Im Allgemeinen gilt jedoch das folgende Prinzip:
-
Weniger Daten = schnellere Ausführung
In Process Mining gibt es zwei Bereiche mit unterschiedlichen Leistungseigenschaften: Datenausführungen zum Laden der Daten und Dashboards zum Anzeigen der Daten.
In Process Mining hat jede Prozess-App eine Entwicklungsphase und eine veröffentlichte Phase. Wenn die von Ihnen gewünschte App ein großes Dataset erfordert, wird empfohlen, ein kleineres Dataset (<10 Mio. Datensätze) für die Entwicklung der Datentransformationen und Dashboards zu verwenden.
Das Entwicklungs-Dataset wird zum Testen der Datentransformationen verwendet. Dies wirkt sich nicht auf die Daten aus, die in den Dashboards der veröffentlichten Prozess-App angezeigt werden. Sobald Ihre App von Geschäftsanwendern verwendet werden kann, können Sie die App veröffentlichen und neue Daten für die Verwendung in der veröffentlichten Prozess-App erfassen.
Ein gängiges Szenario ist die Verwendung eines Datasets mit einem kürzeren Zeitrahmen für die Entwicklung, z. B. nur 100.000 Ereignisse in einem Zeitfenster von 2 Wochen. Beim Veröffentlichen kann ein größeres Dataset verwendet werden, das sich z. B. über 12 Monate erstreckt.
Datenausführungen in Process Mining werden in den folgenden Anwendungsfällen ausgelöst:
-
Eine App wird erstellt
-
Hochladen von Daten
-
Auslösen Auf Dashboards anwenden , Alle ausführen oder Datei ausführen im Datentransformations- Editor.
-
Veröffentlichen einer App, die Änderungen bei den Datentransformationen aufweist.
Eine Datenausführung besteht in der Regel aus den folgenden Schritten, die jeweils unterschiedliche Leistungseigenschaften haben:
Beim Hochladen von Daten ist die Gesamtgröße der hochgeladenen Daten auf der Festplatte der wichtigste Faktor für die Geschwindigkeit. Siehe Laden von Daten. Folgende Faktoren beeinflussen die Leistung:
-
Die Anzahl der Tabellen;
-
Die Anzahl der Datensätze in den Tabellen;
-
Die Anzahl der Spalten in den Tabellen;
-
Die Daten in den Tabellen. Beispielsweise ist eine mehrzeilige Beschreibungsspalte langsamer als eine einfache boolesche Spalte.
Datentransformationen ändern die Eingabedaten in das Datenmodell, das für die Dashboards erforderlich ist. Siehe Datentransformationen.
.sql
-Datei in den Transformationen führt eine zusätzliche SQL-Abfrage aus. Die folgenden Faktoren beeinflussen die Geschwindigkeit von Datentransformationen:
-
Die Anzahl der
.sql
-Dateien; -
Die Anzahl der Datensätze in jeder Tabelle;
-
Die Anzahl der Spalten in jeder Tabelle;
-
Die Komplexität der SQL-Abfrage: Join-Bedingungen, Anzahl der Common Table Expressions (CTEs), Ausdrücke in der SQL-Abfrage.
Das Datenmodell bestimmt den Satz von Tabellen, die für die Dashboards verfügbar gemacht werden. Während einer Datenausführung werden Tests ausgeführt, um die Struktur dieser Tabellen im Datenmodell zu überprüfen. Am zeitaufwändigsten sind jedoch die Vorberechnungen, die durchgeführt werden, um die spätere Anzeige von Dashboards zu beschleunigen.
Die Gesamtgeschwindigkeit dieses Schritts wird bestimmt durch:
-
Die Anzahl der Tabellen im Datenmodell;
-
Die Beziehung zwischen den Ausgabetabellen;
-
Die Anzahl der Spalten in den Ausgabetabellen
-
Die Anzahl der Datensätze in den Ausgabetabellen.
Der letzte Teil einer Datenausführung ist die Ausführung von Vorberechnungen, um das Prozessdiagramm zu beschleunigen.
-
Die Anzahl der Varianten;
-
Die Anzahl der Ereignisse.
Wenn Sie ein BPMN-Importmodell verwenden, um den Prozess anzuzeigen, wirkt sich die Komplexität des BPMN-Modells auch auf die Leistung aus. Je mehr Aktivitäten und Kanten vorhanden sind, desto langsamer sind die Berechnungen.
Verringern Sie das Datenvolumen
Um die Geschwindigkeit des Datenuploads zu verbessern, reduzieren Sie die Größe Ihrer Daten auf das erforderliche Minimum. Dieser Hinweis gilt für alle Phasen der Daten:
-
Extrahieren nur der erforderlichen Eingabedaten;
-
Nur benötigte Daten transformieren;
-
Fügen Sie dem Datenmodell nur Tabellen hinzu, wenn es für die Datenanalyse erforderlich ist.
Der einfachste Weg hierfür ist normalerweise, das Zeitfenster für die Datenextraktion zu verkleinern, da dadurch die Anzahl der Datensätze für die meisten Datentabellen von der Eingabe über die Transformation bis zur Ausgabe verringert wird.
Je früher Sie die Datengröße reduzieren können, desto effizienter:
-
Filtern Sie
sql
-Dateien so früh wie möglich in Ihren Datentransformationen oder wenn möglich in Ihrer Datenextraktion. -
Für die Entwicklung wird in der Regel ein kleineres Dataset verwendet, um Testabfragen zu beschleunigen, siehe Entwicklungs- und Produktionsdaten.
Reduzieren Sie Datentabellen und Spalten
Achten Sie außerdem darauf, nur Spalten zu laden, die tatsächlich verwendet werden. Je früher im Prozess sie weggelassen werden können, desto besser.
-
Reduzieren Sie den Satz der extrahierten Datenspalten auf das Notwendige.
-
Entfernen Sie alle
.sql
-Dateien, die für das Ausgabedatenmodell nicht erforderlich sind. -
Entfernen Sie alle unnötigen Datenspalten in den Abfragen.
-
Entfernen Sie alle unnötigen Aktivitäten aus der Reihe der Ereignisse.
Komplexität reduzieren
Je komplizierter die Berechnungen in den Datentransformationen und das Datenmodell sind, desto langsamer werden die Daten ausgeführt. Die Verringerung der Komplexität kann eine Herausforderung sein, kann jedoch große Auswirkungen auf die Datenlaufzeit haben.
-
Reduzieren Sie nach Möglichkeit die Komplexität der SQL-Anweisungen; siehe Tipps zum Schreiben von SQL .
-
Reduzieren Sie die Daten im Datenmodell auf die für die Datenanalyse erforderlichen Daten. Alle Tabellen oder Spalten, die für die Datenanalyse nicht benötigt werden, sollten entfernt werden.
-
Wenn Sie ein Import-BPMN-Modell zum Anzeigen des Prozesses verwenden, wird die Leistung verbessert, wenn Sie die Anzahl der Aktivitäten und Kanten niedrig halten.
Im Allgemeinen werden die Ladezeiten von Dashboards von der Datenmenge beeinflusst, die von den Diagrammen verwendet wird, und den berechneten Metriken.
Jedes Mal, wenn ein Dashboard in Process Mining geladen wird, werden die einzelnen Diagramme parallel berechnet. Die Geschwindigkeit zum Laden eines Diagramms wird von den folgenden Faktoren beeinflusst:
-
Die Anzahl der im Diagramm angezeigten Metriken.
-
Für jede Metrik ist die Verknüpfungsgröße wichtig, die zum Berechnen der Metrik erforderlich ist. Dies wird durch die Tabelle bestimmt, die zum Gruppieren eines Diagramms verwendet wird, in Kombination mit der Tabelle der Metrik.
-
Die Komplexität der Beziehung zwischen diesen beiden Tabellen.
-
Die Entfernung zwischen diesen beiden Tabellen im Datenmodell.
-
-
Der Datentyp der verwendeten Felder. Numerische Felder sind schneller als Textfelder.
-
Die Komplexität der Metriken selbst. Metriken können auf mehreren Feldern basieren.
Das Entfernen von Metriken, die für ein Diagramm nicht erforderlich sind, beschleunigt die Ladezeit.
-
Berücksichtigen Sie die KPIs, die in der oberen Leiste angezeigt werden;
-
Berücksichtigen Sie die in Ihren Diagrammen angezeigten Metriken. Wenn ein Diagramm mehrere Metriken anzeigt, fügt jede von ihnen zusätzliche Berechnungszeit hinzu.
Die Vereinfachung der Definition von Metriken kann auch die Ladezeit des Diagramms beschleunigen.
-
Überlegen Sie, ob Sie die Metrikdefinition vereinfachen können;
-
Erwägen Sie die Vorabberechnung von Teilen der Metrik in den Datentransformationen. Eine statische Berechnung, die bereits zuvor durchgeführt wurde, muss nicht zur Laufzeit durchgeführt werden.