- Versionshinweise
- Bevor Sie beginnen
- Erste Schritte
- Integrationen
- Arbeiten mit Prozess-Apps
- Arbeiten mit Dashboards und Diagrammen
- Arbeiten mit Prozessdiagrammen
- Arbeiten mit Discover-Prozessmodellen und Import BPMN-Modellen
- Showing or hiding the menu
- Kontextinformationen
- Exportieren
- Filter
- Senden von Automatisierungsideen an den UiPath® Automation Hub
- Tags
- Fälligkeitsdaten
- Vergleichen
- Konformitätsprüfung
- Ursachenanalyse
- Simulation des Automatisierungspotenzials
- Starten eines Task Mining-Projekts über Process Mining
- Auslösen einer Automatisierung über eine Prozess-App
- Anzeigen von Prozessdaten
- Erstellen von Apps
- Laden von Daten
- Anpassen von Prozess-Apps
- Einführung in Dashboards
- Dashboards erstellen
- Dashboards
- Automatisierungsmanager
- Input data
- Definieren neuer Eingabetabellen
- Hinzufügen von Feldern
- Hinzufügen von Tabellen
- Anforderungen an das Datenmodell
- Anzeigen und Bearbeiten des Datenmodells
- Exportieren und Importieren von Transformationen
- Bearbeiten und Testen von Datentransformationen
- Structure of transformations
- Zusammenführen von Ereignisprotokollen
- Tips for writing SQL
- Prozessmanager
- Veröffentlichen von Prozess-Apps
- App-Vorlagen
- Zusätzliche Ressourcen
- Vorgefertigte Tags und Fälligkeitsdaten
- Bearbeiten von Datentransformationen in einer lokalen Umgebung
- Setting up a local test environment
- Designing an event log
- Systemanforderungen
- Konfigurieren des DataBridgeAgent
- Hinzufügen eines benutzerdefinierten Connectors zu DataBridgeAgent
- Verwenden von DataBridgeAgent mit dem SAP Connector für den Purchase-to-Pay Discovery Accelerator
- Verwenden von DataBridgeAgent mit dem SAP Connector für den Order-to-Cash Discovery Accelerator
- Erweitern des Extraktionstools SAP Ariba
- Leistungsmerkmale
Process Mining
Konfigurieren des DataBridgeAgent
Auf dieser Seite wird beschrieben, wie DataBridgeAgent so konfiguriert wird, dass Daten für eine Prozess-App in Process Mininggeladen werden.
Führen Sie die folgenden Schritte aus, um den DataBridgeAgent zu konfigurieren.
- Laden Sie den DataBridgeAgent herunter. Siehe auch Laden von Daten mit DataBridgeAgent.
- Erstellen Sie auf dem Server einen Ordner für den DataBridgeAgent. Beispiel:
D:\processmining\P2P_data\
.
<EXTRACTORDIR>
.
-
Platzieren Sie das Installationspaket im Verzeichnis
<EXTRACTORDIR>
.- Klicken Sie mit der rechten Maustaste auf das Installationspaket.
- • Wählen Sie Alle extrahieren … aus.
- Klicken Sie mit der rechten Maustaste auf die
<EXTRACTORDIR>\datarun.json
-Datei und wählen Sie Öffnen. -
Geben Sie einen Wert für die folgenden Einstellungen ein:
azureURL
connectorWorkspace
connectorModuleCode
Eingabetyp
Anmeldeinformationsspeicher verwenden
Nachfolgend finden Sie eine Übersicht über die generischen Parameter für DataBridgeAgent.
Parameter |
Beschreibung |
---|---|
azureURL |
Die SAS-URL des Azure-Blobspeichers, in den die extrahierten Daten hochgeladen werden müssen. Siehe Abrufen der Anmeldeinformationen für den Azure-Blobspeicher |
endOfUploadApiUrl | Die API, die aufgerufen wird, um die Datenverarbeitung in Process Mining zu starten, sobald alle Daten hochgeladen wurden.
Hinweis:
endOfUploadApiUrl ist nur erforderlich, wenn Sie die Datendateien mit DataBridgeAgent hochladen möchten. Wenn Sie die Dateien mit einem Extraktor hochladen möchten, konfigurieren Sie die URL für das Ende des Uploads im Extraktionsauftrag.
|
connectorWorkspace
| Der Name des Arbeitsbereichs des Connectors, der zum Laden der Daten und zum Erstellen des Datasets verwendet wird. |
connectorModuleCode | Der Modulcode des Connectors, der zum Laden der Daten und zum Erstellen des Datasets verwendet wird. |
Eingabetyp |
Kann entweder sein: •
SAP , siehe SAP-Parameter#
CSV , siehe CSV-Parameter#
ODBC , siehe ODBC-ParameterHinweis: Je nach bevorzugtem Eingabetyp müssen Sie die Einstellungen in den entsprechenden Abschnitt eingeben.
|
Anmeldeinformationsspeicher verwenden |
Geben Sie an, ob ein Anmeldeinformationsspeicher für die Kennwortspeicherung verwendet wird. Hinweis: Wenn auf
true festgelegt, geben Sie den Kennwortbezeichner im Feld SAP-Kennwort oder ODBC-Kennwort an.
|
Berichtswährung |
Die Währung, in der preisbezogene Werte angezeigt werden. |
Typ des Wechselkurses |
Der Wechselkurstyp, der für die Währungsumrechnung verwendet wird. |
Sprache |
Die Sprache, in der Daten aus dem Quellsystem extrahiert werden. |
Startdatum der Extraktion |
Das Startdatum des Extraktionszeitraums der Daten. Hinweis: In Fällen, in denen nur eine Teilmenge der Daten benötigt wird, empfiehlt es sich, die Menge der geladenen Daten zu begrenzen, da sich dadurch die Ladezeiten verbessern können.
|
Enddatum der Extraktion |
Das Enddatum des Extraktionszeitraums der Daten. Hinweis: In Fällen, in denen nur eine Teilmenge der Daten benötigt wird, empfiehlt es sich, die Menge der geladenen Daten zu begrenzen, da sich dadurch die Ladezeiten verbessern können.
|
Nachfolgend finden Sie eine Übersicht über die Parameter, die für SAP-Datenquellen verwendet werden können.
Parameter |
Beschreibung |
---|---|
SAP-Host |
Der Hostname oder die IP-Adresse des SAP-Anwendungsservers. |
SAP SystemNumber |
Die zweistellige Zahl zwischen 00 und 99, die die angegebene Instanz identifiziert. |
SAP-Benutzername |
Der Benutzername des Kontos, das zum Anmelden bei der SAP-Instanz verwendet wird. |
SAP-Kennwort |
Das Kennwort des oben genannten Benutzers. Hinweis: Wenn Sie einen Anmeldeinformationsspeicher verwenden, müssen Sie den Kennwortbezeichner aus dem Anmeldeinformationsspeicher anstelle des Kennworts eingeben.
|
SAP-Client |
Der verwendete Client. |
Nachfolgend finden Sie eine Übersicht über die Parameter, die für CSV-Datenquellen verwendet werden können.
SAP-Einstellung |
Beschreibung |
---|---|
CSV-Datenpfad |
Der Datenpfad in den Serverdaten, der auf den Ort verweist, an dem die
.csv -Dateien gespeichert werden. Zum Beispiel P2P/ , wenn alle Dateien in dem Ordner mit dem Namen P2P zu finden sind.
|
CSV-Suffix |
Ein regulärer Ausdruck, der die Dateierweiterung der einzulesenden Datei enthält. Kann ein bis zu zweistelliges Suffix enthalten, das an den Namen der Tabelle angehängt wird. |
CSV-Delimeter |
Das Trennzeichen, das zum Abtrennen der Felder verwendet wird. |
CSV-Anführungszeichen |
Das Anführungszeichen, mit dem Felder gekennzeichnet werden, die in Anführungszeichen gesetzt sind. |
CSV hat Header |
Geben Sie an, ob die erste Zeile der
.CSV -Datei ein Header ist.
|
Nachfolgend finden Sie eine Übersicht über die Parameter, die für ODBC-Datenquellen verwendet werden können.
Parameter |
Beschreibung |
---|---|
ODBC-Treiber |
Der Name des ODBC-Treibers, der für diese Verbindung verwendet werden soll. |
ODBC-Benutzername |
Benutzername, der zum Herstellen einer Verbindung mit der externen Datenquelle verwendet werden soll. |
ODBC-Kennwort |
Kennwort, das zum Herstellen einer Verbindung mit der externen Datenquelle verwendet werden soll. Hinweis: Wenn Sie einen Anmeldeinformationsspeicher verwenden, müssen Sie den Kennwortbezeichner aus dem Anmeldeinformationsspeicher anstelle des Kennworts eingeben.
|
ODBC-Verbindungsparameter |
Alle anderen Parameter werden wie angegeben an den ODBC-Treiber übergeben. Verwenden Sie das Format
param1=value1 (;param2=value2) . |
EXTRACTORDIR\datarun.bat
-Datei ausführen.
Der Zeitaufwand für diese Aufgabe hängt stark von den geladenen Datenmengen ab.
Die Ausgabe wird in den Blobspeicher hochgeladen, der die Verarbeitung in Snowflake auslöst.
Führen Sie diesen Schritt aus, um die Datenausführung zu starten.
- Doppelklicken Sie auf die
EXTRACTORDIR\datarun.bat
-Datei, um die Datenausführung zu starten.
Anstatt die Datei manuell auszuführen, können Sie mit der Aufgabenplanung von Windows eine Aufgabe planen, die das Batch-Skript für automatische Datenaktualisierungen ausführt.
Die Ausgabe wird in den Blobspeicher hochgeladen, der die Verarbeitung in Snowflake auslöst.