- Bevor Sie beginnen
- Erste Schritte
- Integrationen
- Arbeiten mit Prozess-Apps
- Arbeiten mit Dashboards und Diagrammen
- Arbeiten mit Prozessdiagrammen
- Arbeiten mit Discover-Prozessmodellen und Import BPMN-Modellen
- Anzeigen oder Ausblenden des Menüs
- Kontextinformationen
- Exportieren
- Filter
- Senden von Automatisierungsideen an den UiPath® Automation Hub
- Tags
- Fälligkeitsdaten
- Vergleichen
- Konformitätsprüfung
- Ursachenanalyse
- Simulation des Automatisierungspotenzials
- Auslösen einer Automatisierung über eine Prozess-App
- Anzeigen von Prozessdaten
- Erstellen von Apps
- Laden von Daten
- Transformieren von Daten
- Struktur von Transformationen
- Tipps zum Schreiben von SQL
- Exportieren und Importieren von Transformationen
- Anzeigen der Datenausführungsprotokolle
- Zusammenführen von Ereignisprotokollen
- Konfigurieren von Tags
- Konfigurieren von Fälligkeitsdaten
- Konfigurieren von Feldern für das Automatisierungspotenzial
- Verfügbarmachen der Transformationen in Dashboards
- Anpassen von Dashboards
- Dashboards veröffentlichen
- App-Vorlagen
- Benachrichtigungen
- Zusätzliche Ressourcen
Process Mining-Benutzerhandbuch
Einleitung
This page describes how to configure DataBridgeAgent to load data for a process app in Process Mining.
Konfigurieren des DataBridgeAgent
Führen Sie die folgenden Schritte aus, um den DataBridgeAgent zu konfigurieren.
-
Laden Sie den DataBridgeAgent herunter . Siehe Laden von Daten mit DataBridgeAgent.
-
Erstellen Sie auf dem Server einen Ordner für den DataBridgeAgent. Zum Beispiel
D:\processmining\P2P_data\.Hinweis:Im weiteren Verlauf dieses Leitfadens wird dieses Verzeichnis folgendermaßen bezeichnet:
<EXTRACTORDIR>. -
Platzieren Sie das Installationspaket im Verzeichnis
<EXTRACTORDIR>.- Klicken Sie mit der rechten Maustaste auf das Installationspaket.
- Select Extract All….
-
Klicken Sie mit der rechten Maustaste auf die
<EXTRACTORDIR>\datarun.json-Datei und wählen Sie Öffnen. -
Geben Sie einen Wert für die folgenden Einstellungen ein:
azureURLconnectorWorkspaceconnectorModuleCodeInput typeUse credential store
Generische Parameter
In der folgenden Tabelle werden die generischen Parameter für DataBridgeAgent beschrieben.
| Parameter | Beschreibung |
|---|---|
| azureURL | Die SAS-URL des Azure-Blobspeichers, in den die extrahierten Daten hochgeladen werden müssen. Siehe Hinweis: |
| endOfUploadApiUrl | Die API, die aufgerufen wird, um die Datenverarbeitung in Process Mining zu starten, sobald alle Daten hochgeladen wurden. Hinweis: |
| connectorWorkspace | Der Name des Arbeitsbereichs des Connectors, der zum Laden der Daten und zum Erstellen des Datasets verwendet wird. |
| connectorModuleCode | Der Modulcode des Connectors, der zum Laden der Daten und zum Erstellen des Datasets verwendet wird. |
| Eingabetyp | Kann entweder sein: SAP siehe SAP-Parameter * CSV siehe CSV-Parameter * ODBC siehe ODBC-Parameter Hinweis: Je nach bevorzugtem Eingabetyp müssen Sie die Einstellungen in den entsprechenden Abschnitt eingeben. |
| Anmeldeinformationsspeicher verwenden | Geben Sie an, ob ein Anmeldeinformationsspeicher für die Kennwortspeicherung verwendet wird. Hinweis: Wenn auf |
| Berichtswährung | Die Währung, in der preisbezogene Werte angezeigt werden. |
| Typ des Wechselkurses | Der Wechselkurstyp, der für die Währungsumrechnung verwendet wird. |
| Sprache | Die Sprache, in der Daten aus dem Quellsystem extrahiert werden. |
| Startdatum der Extraktion | Das Startdatum des Extraktionszeitraums der Daten. Hinweis: In Fällen, in denen nur eine Teilmenge der Daten benötigt wird, empfiehlt es sich, die Menge der geladenen Daten zu begrenzen, da sich dadurch die Ladezeiten verbessern können. |
| Enddatum der Extraktion | Das Enddatum des Extraktionszeitraums der Daten. Hinweis: In Fällen, in denen nur eine Teilmenge der Daten benötigt wird, empfiehlt es sich, die Menge der geladenen Daten zu begrenzen, da sich dadurch die Ladezeiten verbessern können. |
SAP-Parameter
In der folgenden Tabelle werden die Parameter beschrieben, die für SAP-Datenquellen verwendet werden können.
| Parameter | Beschreibung |
|---|---|
| SAP-Host | Der Hostname oder die IP-Adresse des SAP-Anwendungsservers. |
| SAP SystemNumber | Die zweistellige Zahl zwischen 00 und 99, die die angegebene Instanz identifiziert. |
| SAP-Benutzername | Der Benutzername des Kontos, das zum Anmelden bei der SAP-Instanz verwendet wird. |
| SAP-Kennwort | Das Kennwort des oben genannten Benutzers. Hinweis: Wenn Sie einen Anmeldeinformationsspeicher verwenden, müssen Sie den Kennwortbezeichner aus dem Anmeldeinformationsspeicher anstelle des Kennworts eingeben. |
| SAP-Client | Der verwendete Client. |
CSV-Parameter
In der folgenden Tabelle werden die Parameter beschrieben, die für CSV-Datenquellen verwendet werden können.
| SAP-Einstellung | Beschreibung |
|---|---|
| CSV-Datenpfad | Der Datenpfad in den Serverdaten, der auf den Ort verweist, an dem die .csv-Dateien gespeichert werden. Zum Beispiel P2P/, wenn alle Dateien in dem Ordner mit dem Namen P2P zu finden sind. |
| CSV-Suffix | Ein regulärer Ausdruck, der die Dateierweiterung der einzulesenden Datei enthält. Kann ein bis zu zweistelliges Suffix enthalten, das an den Namen der Tabelle angehängt wird. |
| CSV-Delimeter | Das Trennzeichen, das zum Abtrennen der Felder verwendet wird. |
| CSV-Anführungszeichen | Das Anführungszeichen, mit dem Felder gekennzeichnet werden, die in Anführungszeichen gesetzt sind. |
| CSV hat Header | Geben Sie an, ob die erste Zeile der .CSV-Datei ein Header ist. |
ODBC-Parameter
In der folgenden Tabelle werden die Parameter beschrieben, die für ODBC-Datenquellen verwendet werden können.
| Parameter | Beschreibung |
|---|---|
| ODBC-Treiber | Der Name des ODBC-Treibers, der für diese Verbindung verwendet werden soll. |
| ODBC-Benutzername | Benutzername, der zum Herstellen einer Verbindung mit der externen Datenquelle verwendet werden soll. |
| ODBC-Kennwort | Kennwort, das zum Herstellen einer Verbindung mit der externen Datenquelle verwendet werden soll. Hinweis: Wenn Sie einen Anmeldeinformationsspeicher verwenden, müssen Sie den Kennwortbezeichner aus dem Anmeldeinformationsspeicher anstelle des Kennworts eingeben. |
| ODBC-Verbindungsparameter | Alle anderen Parameter werden wie angegeben an den ODBC-Treiber übergeben. Verwenden Sie das Format param1=value1 (;param2=value2) |
Creating the dataset and upload it for use in Process Mining
To load the data and upload it to Azure for use in Process Mining you must run the EXTRACTORDIR\datarun.bat file.
Der Zeitaufwand für diese Aufgabe hängt stark von den geladenen Datenmengen ab.
Die Ausgabe wird mit CData Sync in die SQL Server-Datenbank hochgeladen, um sie in Process Mining lokal zu verwenden (Automation Suite). Siehe Konfigurieren von CData Sync.
Manuelles Starten der Datei
Führen Sie diesen Schritt aus, um die Datenausführung zu starten.
- Doppelklicken Sie auf die
EXTRACTORDIR\datarun.bat-Datei, um die Datenausführung zu starten.
Planen einer Aufgabe für die Datenausführung
Anstatt die Datei manuell auszuführen, können Sie mit der Aufgabenplanung von Windows eine Aufgabe planen, die das Batch-Skript für automatische Datenaktualisierungen ausführt.
Es wird empfohlen, das lokale SYSTEM-Benutzerkonto für die Ausführung der Aufgabe auszuwählen und beim Erstellen der Aufgabe in der Aufgabenplanung die Option Mit höchster Priorität ausführen im Fenster Aufgabe erstellen auszuwählen.
Die Ausgabe wird zur Verwendung in der Process Mining Automation Suite in die SQL Server-Datenbank hochgeladen.
Wenn Sie ein Intervall hinzufügen, für das keine Daten verfügbar sind, zeigen die Dashboards eine Fehlermeldung an.
Fehlersuche und ‑behebung
Die Datenausführung erstellt auch eine Protokolldatei, die bei unerwarteten Ergebnissen helfen kann oder wenn der Datenupload mit DataBridgeAgent fehlschlägt. Die Datei <EXTRACTORDIR>\datarun.txt enthält die Protokolle der letzten Datenausführung.