Process Mining
Neuestes
False
Bannerhintergrundbild
Process Mining
Letzte Aktualisierung 17. Apr. 2024

Leistungsmerkmale

Die Reaktionszeit von Process Mining-Apps wird von vielen Faktoren bestimmt. Im Allgemeinen gilt jedoch das folgende Prinzip:

  • Weniger Daten = schnellere Ausführung

In Process Mining gibt es zwei Bereiche mit unterschiedlichen Leistungseigenschaften: Datenausführungen zum Laden der Daten und Dashboards zum Anzeigen der Daten.

Entwicklungsdaten vs. Produktionsdaten

In Process Mining hat jede App eine Entwicklungsphase und eine veröffentlichte Phase. Wenn die von Ihnen gewünschte App ein großes Dataset erfordert, wird empfohlen, ein kleineres Dataset für die Entwicklung der Datentransformationen und Dashboards zu verwenden. Wenn die App fertig ist, kann sie mit einem größeren Dataset für Endbenutzer veröffentlicht werden. Siehe Registerkarte Development.

Ein gängiges Szenario ist die Verwendung eines Datasets mit einem kürzeren Zeitrahmen für die Entwicklung, z. B. nur 100.000 Ereignisse in einem Zeitfenster von 2 Wochen. Während der Veröffentlichung kann ein größeres Dataset von beispielsweise 12 Monaten verwendet werden.

Datenausführungsleistung

Datenausführungen in Process Mining werden in den folgenden Anwendungsfällen ausgelöst:

  • Eine App wird erstellt

  • Hochladen von Daten

  • Auslösen Auf Dashboards anwenden , Alle ausführen oder Datei ausführen im Datentransformations- Editor.

  • Veröffentlichen einer App, die Änderungen bei den Datentransformationen aufweist.

Eine Datenausführung besteht in der Regel aus den folgenden Schritten, die jeweils unterschiedliche Leistungseigenschaften haben:

1. Hochladen von Daten

Beim Hochladen von Daten ist die Gesamtgröße der hochgeladenen Daten auf der Festplatte der wichtigste Faktor für die Geschwindigkeit. Siehe Laden von Daten. Folgende Faktoren beeinflussen die Leistung:

  • Die Anzahl der Tabellen;

  • Die Anzahl der Datensätze in den Tabellen;

  • Die Anzahl der Spalten in den Tabellen;

  • Die Daten in den Tabellen. Beispielsweise ist eine mehrzeilige Beschreibungsspalte langsamer als eine einfache boolesche Spalte.

2. Transformieren von Daten

Datentransformationen ändern die Eingabedaten in das Datenmodell, das für die Dashboards erforderlich ist. Siehe Datentransformationen.

Jede .sql -Datei in den Transformationen führt eine zusätzliche SQL-Abfrage aus. Die folgenden Faktoren beeinflussen die Geschwindigkeit von Datentransformationen:
  • Die Anzahl der .sql -Dateien;
  • Die Anzahl der Datensätze in jeder Tabelle;

  • Die Anzahl der Spalten in jeder Tabelle;

  • Die Komplexität der SQL-Abfrage: Join-Bedingungen, Anzahl der Common Table Expressions (CTEs), Ausdrücke in der SQL-Abfrage.

3. Datenmodell

Das Datenmodell bestimmt den Satz von Tabellen, die für die Dashboards verfügbar gemacht werden. Während einer Datenausführung werden Tests ausgeführt, um die Struktur dieser Tabellen im Datenmodell zu überprüfen. Am zeitaufwändigsten sind jedoch die Vorberechnungen, die durchgeführt werden, um die spätere Anzeige von Dashboards zu beschleunigen.

Die Gesamtgeschwindigkeit dieses Schritts wird bestimmt durch:

  • Die Anzahl der Tabellen im Datenmodell;

  • Die Beziehung zwischen den Ausgabetabellen;

  • Die Anzahl der Spalten in den Ausgabetabellen

  • Die Anzahl der Datensätze in den Ausgabetabellen.

4. Prozessmodell

Der letzte Teil einer Datenausführung ist die Ausführung von Vorberechnungen, um das Prozessdiagramm zu beschleunigen.

  • Die Anzahl der Varianten;

  • Die Anzahl der Ereignisse.

Wenn Sie ein BPMN-Importmodell verwenden, um den Prozess anzuzeigen, wirkt sich die Komplexität des BPMN-Modells auch auf die Leistung aus. Je mehr Aktivitäten und Kanten vorhanden sind, desto langsamer sind die Berechnungen.

So wird die Leistung der Datenausführung verbessert

Verringern Sie das Datenvolumen

Um die Geschwindigkeit des Datenuploads zu verbessern, reduzieren Sie die Größe Ihrer Daten auf das erforderliche Minimum. Dieser Hinweis gilt für alle Phasen der Daten:

  • Extrahieren nur der erforderlichen Eingabedaten;

  • Nur benötigte Daten transformieren;

  • Fügen Sie dem Datenmodell nur Tabellen hinzu, wenn es für die Datenanalyse erforderlich ist.

Der einfachste Weg hierfür ist normalerweise, das Zeitfenster für die Datenextraktion zu verkleinern, da dadurch die Anzahl der Datensätze für die meisten Datentabellen von der Eingabe über die Transformation bis zur Ausgabe verringert wird.

Je früher Sie die Datengröße reduzieren können, desto effizienter:

  • Filtern Sie sql -Dateien so früh wie möglich in Ihren Datentransformationen oder wenn möglich in Ihrer Datenextraktion.
  • Für die Entwicklung wird in der Regel ein kleineres Dataset verwendet, um Testabfragen zu beschleunigen, siehe Entwicklungs- und Produktionsdaten.

Reduzieren Sie Datentabellen und Spalten

Achten Sie außerdem darauf, nur Spalten zu laden, die tatsächlich verwendet werden. Je früher im Prozess sie weggelassen werden können, desto besser.

  • Reduzieren Sie den Satz der extrahierten Datenspalten auf das Notwendige.

  • Entfernen Sie alle .sql -Dateien, die für das Ausgabedatenmodell nicht erforderlich sind.
  • Entfernen Sie alle unnötigen Datenspalten in den Abfragen.

  • Entfernen Sie alle unnötigen Aktivitäten aus der Reihe der Ereignisse.

Komplexität reduzieren

Je komplizierter die Berechnungen in den Datentransformationen und das Datenmodell sind, desto langsamer werden die Daten ausgeführt. Die Verringerung der Komplexität kann eine Herausforderung sein, kann jedoch große Auswirkungen auf die Datenlaufzeit haben.

  • Reduzieren Sie nach Möglichkeit die Komplexität der SQL-Anweisungen; siehe Tipps zum Schreiben von SQL .

  • Reduzieren Sie die Daten im Datenmodell auf die für die Datenanalyse erforderlichen Daten. Alle Tabellen oder Spalten, die für die Datenanalyse nicht benötigt werden, sollten entfernt werden.

  • Wenn Sie ein Import-BPMN-Modell zum Anzeigen des Prozesses verwenden, wird die Leistung verbessert, wenn Sie die Anzahl der Aktivitäten und Kanten niedrig halten.

Dashboard-Leistung

Im Allgemeinen werden die Ladezeiten von Dashboards von der Datenmenge beeinflusst, die von den Diagrammen verwendet wird, und den berechneten Metriken.

Jedes Mal, wenn ein Dashboard in Process Mining geladen wird, werden die einzelnen Diagramme parallel berechnet. Die Geschwindigkeit zum Laden eines Diagramms wird von den folgenden Faktoren beeinflusst:

  • Die Anzahl der im Diagramm angezeigten Metriken.

  • Für jede Metrik ist die Verknüpfungsgröße wichtig, die zum Berechnen der Metrik erforderlich ist. Dies wird durch die Tabelle bestimmt, die zum Gruppieren eines Diagramms verwendet wird, in Kombination mit der Tabelle der Metrik.

    • Die Komplexität der Beziehung zwischen diesen beiden Tabellen.

    • Die Entfernung zwischen diesen beiden Tabellen im Datenmodell.

  • Der Datentyp der verwendeten Felder. Numerische Felder sind schneller als Textfelder.

  • Die Komplexität der Metriken selbst. Metriken können auf mehreren Feldern basieren.

So verbessern Sie die Dashboard-Leistung

Das Entfernen von Metriken, die für ein Diagramm nicht erforderlich sind, beschleunigt die Ladezeit.

  • Berücksichtigen Sie die KPIs, die in der oberen Leiste angezeigt werden;

  • Berücksichtigen Sie die in Ihren Diagrammen angezeigten Metriken. Wenn ein Diagramm mehrere Metriken anzeigt, fügt jede von ihnen zusätzliche Berechnungszeit hinzu.

Die Vereinfachung der Definition von Metriken kann auch die Ladezeit des Diagramms beschleunigen.

  • Überlegen Sie, ob Sie die Metrikdefinition vereinfachen können;

  • Erwägen Sie die Vorabberechnung von Teilen der Metrik in den Datentransformationen. Eine statische Berechnung, die bereits zuvor durchgeführt wurde, muss nicht zur Laufzeit durchgeführt werden.

War diese Seite hilfreich?

Hilfe erhalten
RPA lernen – Automatisierungskurse
UiPath Community-Forum
UiPath Logo weiß
Vertrauen und Sicherheit
© 2005-2024 UiPath. All rights reserved.