Process Mining
Neuestes
False
Bannerhintergrundbild
Process Mining
Letzte Aktualisierung 17. Apr. 2024

Konfigurieren des DataBridgeAgent

Einleitung

Auf dieser Seite wird beschrieben, wie DataBridgeAgent so konfiguriert wird, dass Daten für eine Prozess-App in Process Mininggeladen werden.

Konfigurieren des DataBridgeAgent

Führen Sie die folgenden Schritte aus, um den DataBridgeAgent zu konfigurieren.

  1. Laden Sie den DataBridgeAgent herunter. Siehe auch Laden von Daten mit DataBridgeAgent.
  2. Erstellen Sie auf dem Server einen Ordner für den DataBridgeAgent. Beispiel: D:\processmining\P2P_data\.
Hinweis: Im weiteren Verlauf dieses Leitfadens wird dieses Verzeichnis folgendermaßen bezeichnet: <EXTRACTORDIR>.
  1. Platzieren Sie das Installationspaket im Verzeichnis <EXTRACTORDIR>.
    • Klicken Sie mit der rechten Maustaste auf das Installationspaket.
    • • Wählen Sie Alle extrahieren … aus.
  2. Klicken Sie mit der rechten Maustaste auf die <EXTRACTORDIR>\datarun.json-Datei und wählen Sie Öffnen.
  3. Geben Sie einen Wert für die folgenden Einstellungen ein:

    • azureURL
    • connectorWorkspace
    • connectorModuleCode
    • Input type
    • Use credential store

Generische Parameter

Nachfolgend finden Sie eine Übersicht über die generischen Parameter für DataBridgeAgent.

Parameter

Beschreibung

azureURL

Die SAS-URL des Azure-Blobspeichers, in den die extrahierten Daten hochgeladen werden müssen. Siehe Abrufen der Anmeldeinformationen für den Azure-Blobspeicher

endOfUploadApiUrl

Die API, die aufgerufen wird, um die Datenverarbeitung in Process Mining zu starten, sobald alle Daten hochgeladen wurden.
Hinweis:
endOfUploadApiUrl ist nur erforderlich, wenn Sie die Datendateien mit DataBridgeAgent hochladen möchten. Wenn Sie die Dateien mit einem Extraktor hochladen möchten, konfigurieren Sie die URL für das Ende des Uploads im Extraktionsauftrag.

connectorWorkspace
Der Name des Arbeitsbereichs des Connectors, der zum Laden der Daten und zum Erstellen des Datasets verwendet wird.

connectorModuleCode

Der Modulcode des Connectors, der zum Laden der Daten und zum Erstellen des Datasets verwendet wird.

Eingabetyp

Kann entweder sein:

SAP see SAP parameters
CSV see CSV parameters
ODBC see ODBC parameters
Hinweis: Je nach bevorzugtem Eingabetyp müssen Sie die Einstellungen in den entsprechenden Abschnitt eingeben.

Anmeldeinformationsspeicher verwenden

Geben Sie an, ob ein Anmeldeinformationsspeicher für die Kennwortspeicherung verwendet wird.

Hinweis: Wenn auf true festgelegt, geben Sie den Kennwortbezeichner im Feld SAP-Kennwort oder ODBC-Kennwort an.

Berichtswährung

Die Währung, in der preisbezogene Werte angezeigt werden.

Typ des Wechselkurses

Der Wechselkurstyp, der für die Währungsumrechnung verwendet wird.

Sprache

Die Sprache, in der Daten aus dem Quellsystem extrahiert werden.

Startdatum der Extraktion

Das Startdatum des Extraktionszeitraums der Daten.

Hinweis: In Fällen, in denen nur eine Teilmenge der Daten benötigt wird, empfiehlt es sich, die Menge der geladenen Daten zu begrenzen, da sich dadurch die Ladezeiten verbessern können.

Enddatum der Extraktion

Das Enddatum des Extraktionszeitraums der Daten.

Hinweis: In Fällen, in denen nur eine Teilmenge der Daten benötigt wird, empfiehlt es sich, die Menge der geladenen Daten zu begrenzen, da sich dadurch die Ladezeiten verbessern können.

SAP-Parameter

Nachfolgend finden Sie eine Übersicht über die Parameter, die für SAP-Datenquellen verwendet werden können.

Parameter

Beschreibung

SAP-Host

Der Hostname oder die IP-Adresse des SAP-Anwendungsservers.

SAP SystemNumber

Die zweistellige Zahl zwischen 00 und 99, die die angegebene Instanz identifiziert.

SAP-Benutzername

Der Benutzername des Kontos, das zum Anmelden bei der SAP-Instanz verwendet wird.

SAP-Kennwort

Das Kennwort des oben genannten Benutzers.

Hinweis: Wenn Sie einen Anmeldeinformationsspeicher verwenden, müssen Sie den Kennwortbezeichner aus dem Anmeldeinformationsspeicher anstelle des Kennworts eingeben.

SAP-Client

Der verwendete Client.

CSV-Parameter

Nachfolgend finden Sie eine Übersicht über die Parameter, die für CSV-Datenquellen verwendet werden können.

SAP-Einstellung

Beschreibung

CSV-Datenpfad

Der Datenpfad in den Serverdaten, der auf den Ort verweist, an dem die .csv-Dateien gespeichert werden. Zum Beispiel P2P/, wenn alle Dateien in dem Ordner mit dem Namen P2P zu finden sind.

CSV-Suffix

Ein regulärer Ausdruck, der die Dateierweiterung der einzulesenden Datei enthält. Kann ein bis zu zweistelliges Suffix enthalten, das an den Namen der Tabelle angehängt wird.

CSV-Delimeter

Das Trennzeichen, das zum Abtrennen der Felder verwendet wird.

CSV-Anführungszeichen

Das Anführungszeichen, mit dem Felder gekennzeichnet werden, die in Anführungszeichen gesetzt sind.

CSV hat Header

Geben Sie an, ob die erste Zeile der .CSV-Datei ein Header ist.

ODBC-Parameter

Nachfolgend finden Sie eine Übersicht über die Parameter, die für ODBC-Datenquellen verwendet werden können.

Parameter

Beschreibung

ODBC-Treiber

Der Name des ODBC-Treibers, der für diese Verbindung verwendet werden soll.

ODBC-Benutzername

Benutzername, der zum Herstellen einer Verbindung mit der externen Datenquelle verwendet werden soll.

ODBC-Kennwort

Kennwort, das zum Herstellen einer Verbindung mit der externen Datenquelle verwendet werden soll.

Hinweis: Wenn Sie einen Anmeldeinformationsspeicher verwenden, müssen Sie den Kennwortbezeichner aus dem Anmeldeinformationsspeicher anstelle des Kennworts eingeben.

ODBC-Verbindungsparameter

Alle anderen Parameter werden wie angegeben an den ODBC-Treiber übergeben. Verwenden Sie das Format param1=value1 (;param2=value2)

Creating the dataset and upload it for use in Process Mining

Um die Daten zu laden und sie zur Verwendung in Process Mining bei Azure hochzuladen, müssen Sie die EXTRACTORDIR\datarun.bat-Datei ausführen.

Der Zeitaufwand für diese Aufgabe hängt stark von den geladenen Datenmengen ab.

Die Ausgabe wird in den Blobspeicher hochgeladen, der die Verarbeitung in Snowflake auslöst.

Manuelles Starten der Datei

Führen Sie diesen Schritt aus, um die Datenausführung zu starten.

  1. Doppelklicken Sie auf die EXTRACTORDIR\datarun.bat-Datei, um die Datenausführung zu starten.

Planen einer Aufgabe für die Datenausführung

Anstatt die Datei manuell auszuführen, können Sie mit der Aufgabenplanung von Windows eine Aufgabe planen, die das Batch-Skript für automatische Datenaktualisierungen ausführt.

Hinweis: Es wird empfohlen, das lokale SYSTEM-Benutzerkonto für die Ausführung der Aufgabe auszuwählen und beim Erstellen der Aufgabe in der Aufgabenplanung die Option Mit höchster Priorität ausführen im Fenster Aufgabe erstellen auszuwählen.

Die Ausgabe wird in den Blobspeicher hochgeladen, der die Verarbeitung in Snowflake auslöst.

Wichtig: Wenn Sie ein Intervall hinzufügen, für das keine Daten verfügbar sind, zeigen die Dashboards eine Fehlermeldung an.

Fehlersuche und ‑behebung

Die Datenausführung erstellt auch eine Protokolldatei, die bei unerwarteten Ergebnissen helfen kann oder wenn der Datenupload mit DataBridgeAgent fehlschlägt. Die Datei <EXTRACTORDIR>\datarun.txt enthält die Protokolle der letzten Datenausführung.

War diese Seite hilfreich?

Hilfe erhalten
RPA lernen – Automatisierungskurse
UiPath Community-Forum
UiPath Logo weiß
Vertrauen und Sicherheit
© 2005-2024 UiPath. All rights reserved.