process-mining
latest
false
Important :
Veuillez noter que ce contenu a été localisé en partie à l’aide de la traduction automatique.
Process Mining
Automation CloudAutomation Cloud Public SectorAutomation SuiteStandalone
Last updated 15 oct. 2024

Configurer DataBridgeAgent

Introduction

Cette page explique comment configurer DataBridgeAgent pour charger les données d'une application de processus dans Process Mining.

Configurer DataBridgeAgent

Suivez ces étapes pour configurer DataBridgeAgent.

  1. Télécharger DataBridgeAgent. Voir Charger des données avec DataBridgeAgent.
  2. Sur le serveur, créez un dossier pour DataBridgeAgent. Par exemple, D:\processmining\P2P_data\.
Remarque : Pour la suite de ce guide, nous nommerons ce répertoire <EXTRACTORDIR>.
  1. Placez le package d'installation dans le dossier <EXTRACTORDIR>.
    • Cliquez avec le bouton droit sur le package d'installation.
    • Sélectionnez Extraire tout… (Extract All…).
  2. Cliquez droit sur le fichier <EXTRACTORDIR>\datarun.json et sélectionnez Ouvrir (Open).
  3. Saisissez une valeur pour les paramètres suivants :

    • azureURL
    • connectorWorkspace
    • connectorModuleCode
    • Type d'entrée
    • Utiliser le magasin d'identifiants

Paramètres génériques

Vous trouverez ci-dessous un aperçu des paramètres génériques de DataBridgeAgent.

Paramètre

Description

azureURL

L'URL SAS du stockage d'objets blob Azure sur lequel les données extraites doivent être chargées. Voir Récupération des informations d'identification pour le stockage d'objets blob Azure

endOfUploadApiUrl

API appelée pour démarrer le traitement des données dans Process Mining, une fois toutes les données téléchargées.
Remarque :
Le endOfUploadApiUrl n'est requis que si vous souhaitez télécharger les fichiers de données en utilisant DataBridgeAgent. Si vous souhaitez télécharger les fichiers à l'aide d'un extracteur, vous devez configurer l'URL de fin de téléchargement dans la tâche d'extraction.

connectorWorkspace
Le nom de l'espace de travail du connecteur utilisé pour charger les données et créer l'ensemble de données.

connectorModuleCode

Le code de module du connecteur utilisé pour charger les données et créer le jeu de données.

Type d'entrée

L'une des options suivantes :

SAP voir Paramètres SAP
Remarque : en fonction du type d'entrée choisi, vous devez saisir les paramètres dans la section correspondante.

Utiliser le magasin d'identifiants

Indiquez si un magasin d'identifiants est utilisé ou non pour le stockage des mots de passe.

Remarque : si défini sur true, l'identifiant du mot de passe doit être saisi dans le champ Mot de passe SAP ou Mot de passe ODBC.

Monnaie de présentation

La devise dans laquelle les valeurs relatives aux tarifs sont affichées.

Type de taux de change

Le type de taux de change utilisé pour la conversion des devises.

Langue

La langue dans laquelle les données sont extraites du système source.

Date de début d'extraction

La date de début de la période d'extraction des données.

Remarque : Pour les cas où seul un sous-ensemble de données est nécessaire, il est recommandé de limiter la quantité de données chargées car cela peut améliorer la durée de chargement.

Date de fin d'extraction

La date de fin de la période d'extraction des données.

Remarque : Pour les cas où seul un sous-ensemble de données est nécessaire, il est recommandé de limiter la quantité de données chargées car cela peut améliorer la durée de chargement.

Paramètres SAP

Vous trouverez ci-dessous un aperçu des paramètres pouvant être utilisés pour les sources de données SAP.

Paramètre

Description

Hôte SAP

Le nom d'hôte ou l'adresse IP du serveur d'applications SAP.

SystemNumber SAP

Le nombre à deux chiffres situé entre 00 et 99 qui identifie l'instance désignée.

Nom d'utilisateur SAP

Le nom d'utilisateur du compte utilisé pour se connecter à l'instance SAP.

Mot de passe SAP

Le mot de passe de l’utilisateur ci-dessus.

Remarque : Si vous utilisez un magasin d'identifiants, vous devez saisir l'identifiant du mot de passe du magasin d'identifiants, et non le mot de passe.

Client SAP

Le client utilisé.

Paramètres CSV

Vous trouverez ci-dessous un aperçu des paramètres pouvant être utilisés pour les sources de données CSV.

Paramètres SAP

Description

Chemin des données CSV

Le chemin de données des Données du serveur qui renvoie vers l'endroit où les fichiers .csv sont stockés. Par exemple P2P/ si tous les fichiers se trouvent dans le dossier nommé P2P.

Suffixe CSV

Une expression régulière contenant l'extension de fichier du fichier à lire. Peut contenir un suffixe de 2 chiffres maximum ajoutés au nom de la table.

Délimiteur CSV

Le caractère délimiteur utilisé pour séparer les champs.

Guillemets de citation CSV

Le guillemet utilisé pour identifier les champs entourés de guillemets.

CSV a un en-tête

Indiquer si la première ligne du fichier .CSV est une ligne d'en-tête.

Paramètres ODBC

Vous trouverez ci-dessous un aperçu des paramètres pouvant être utilisés pour les sources de données ODBC.

Paramètre

Description

Pilote ODBC

Nom du pilote ODBC à utiliser pour cette connexion.

Nom d'utilisateur ODBC

Nom d'utilisateur à utiliser pour se connecter à la source de données externe.

Mot de passe ODBC

Le mot de passe à utiliser pour se connecter à la source de données externe.

Remarque : Si vous utilisez un magasin d'identifiants, vous devez saisir l'identifiant du mot de passe du magasin d'identifiants, et non le mot de passe.

Paramètres de connexion ODBC

Tous les autres paramètres sont définis tels que spécifiés au pilote ODBC. Utilisez le format param1=value1 (;param2=value2)

Creating the dataset and upload it for use in Process Mining

Pour charger les données et les télécharger sur Azure afin de les utiliser dans Process Mining, vous devez exécuter le fichier EXTRACTORDIR\datarun.bat.

Le temps nécessaire pour cette tâche dépendra fortement du volume de données chargés.

La sortie est chargée sur le stockage d'objets blob qui déclenche le traitement dans Snowflake.

Démarrage manuel du fichier

Suivez cette étape pour démarrer l'analyse des données.

  1. Double-cliquez sur le fichier EXTRACTORDIR\datarun.bat pour démarrer l'analyse des données.

Planifier une tâche pour l'analyse des données

Au lieu d'exécuter le fichier manuellement, vous pouvez utiliser le Planificateur de tâches Windows et planifier une tâche exécutant le script batch pour les actualisations de données automatisées.

Remarque: Il est recommandé de sélectionner le compte d'utilisateur SYSTEM local pour exécuter la tâche, et de sélectionner l'option Exécuter avec la priorité la plus élevée dans la fenêtre Créer une tâche lors de la création de la tâche dans le planificateur de tâches Windows.

La sortie est chargée sur le stockage d'objets blob qui déclenche le traitement dans Snowflake.

Important: Si vous ajoutez un intervalle pour lequel aucune donnée n'est disponible, les tableaux de bord afficheront un message d'erreur.

Résolution des problèmes

L'analyse des données va également créer un fichier journal qui peut être utile en cas de résultats inattendus, ou bien si le téléchargement des données via DataBridgeAgent échoue. Le fichier <EXTRACTORDIR>\datarun.txt contient les journaux de la dernière analyse des données.

Cette page vous a-t-elle été utile ?

Obtenez l'aide dont vous avez besoin
Formation RPA - Cours d'automatisation
Forum de la communauté UiPath
Uipath Logo White
Confiance et sécurité
© 2005-2024 UiPath Tous droits réservés.