- Notes de publication
- Avant de commencer
- Démarrage
- Intégrations
- Travailler avec des applications de processus
- Travailler avec des tableaux de bord et des graphiques
- Travailler avec des graphiques de processus
- Travailler avec des modèles de processus Découvrir et importer des modèles BPMN
- Showing or hiding the menu
- Informations contextuelles
- Exporter (Export)
- Filtres
- Envoi d’idées d’automatisation au Automation Hub d’UiPath®
- Balises
- Dates d’échéance
- Comparer
- Vérification de la conformité
- Analyse des causes profondes
- Simulation du potentiel d’automatisation
- Triggering an automation from a process app
- Afficher les données de processus
- Création d'applications
- Chargement des données
- Personnaliser les applications de processus
- Introduction aux tableaux de bord
- Travailler avec l'éditeur de tableau de bord
- Créer des tableaux de bord
- Tableaux de bord
- Gestionnaire de l’automatisation
- Définition de nouvelles tables d'entrée
- Ajout de champs
- Ajouter des tables
- Configuration requise pour le modèle de données
- Affichage et modification du modèle de données
- Exportation et importation de transformations
- Afficher le journal des transformations
- Modification et test des transformations de données
- Structure of transformations
- Tips for writing SQL
- Fusion des journaux d'événements
- Gestionnaire de processus
- Modèles d'applications
- Ressources supplémentaires
- Balises et dates d'échéance prêtes à l'emploi
- Modification des transformations de données dans un environnement local
- Setting up a local test environment
- Designing an event log
- DataBridgeAgent
- Configuration système requise
- Configurer DataBridgeAgent
- Ajouter un connecteur personnalisé à DataBridgeAgent
- Utiliser DataBridgeAgent avec le connecteur SAP pour l'accélérateur de découverte Purchase-to-Pay
- Utiliser DataBridgeAgent avec le connecteur SAP pour l'accélérateur de découverte Order-to-Cash
- Extension de l’outil d’extraction SAP Ariba
- Caractéristiques de performances
- Comment annuler une exécution de données à partir de la base de données
- Comment ajouter une règle de table d'adresse IP pour utiliser le port SQL Server 1433
- Lors de la création d'une application de processus, le statut reste dans Créer une application (Creating app)
- Configuration de Dapr avec Redis en mode cluster
- Transformations de données
- Charger des données
- Synchronisation des données C

Process Mining
Les transformations d'une application de processus consistent en un projet dbt . Vous trouverez ci-dessous une description du contenu d'un dossier de projet dbt .
|
Dossier/Fichier |
Contient |
|---|---|
|
|
le package
pm_utils et ses macros.
|
|
|
journaux créés lors de l’exécution de dbt. |
|
|
macros personnalisées. |
|
|
.sql qui définissent les transformations.
|
|
|
.yml qui définissent les tests sur les données.
|
|
|
.csv avec les paramètres de configuration.
|
|
|
les paramètres du projet dbt. |
Voir illustration ci-dessous.
.sql dans le répertoire models\ . Les transformations de données sont organisées dans un ensemble standard de sous-répertoires :
1_input,2_objects,3_events,4_event_logs,5_business_logic.
Consultez Structure des transformations.
.sql sont écrits en Jinja SQL, ce qui vous permet d'insérer des instructions Jinja dans des requêtes SQL simples. Lorsque dbt exécute tous les .sql fichiers, chaque fichier .sql génère une nouvelle vue ou une nouvelle table dans la base de données.
.sql ont la structure suivante :
-
Instruction With: une ou plusieurs instructions with pour inclure les sous-tables requises.
{{ ref(‘My_table) }}fait référence à une table définie par un autre fichier .sql fichier.{{ source(var("schema_sources"), 'My_table') }}fait référence à une table d'entrée.
- Requête principale: la requête qui définit la nouvelle table.
-
Requête finale: une requête telle que
Select * from tableest généralement utilisée à la fin. Cela facilite la réalisation de sous-sélections lors du débogage.
Pour plus de conseils sur l'écriture efficace des transformations, consultez Conseils pour l'écriture de SQL
Adding source tables
models\schema\sources.yml. De cette façon, d'autres modèles peuvent s'y référer en utilisant {{ source(var("schema_sources"), 'My_table') }}. L'illustration suivante montre un exemple.
sources.yml .
Pour des informations plus détaillées, consultez la documentation officielle de dbt sur les sources.
Data output
Les transformations de données doivent générer le modèle de données requis par l'application correspondante ; chaque table et chaque champ attendus doivent être présents.
Si vous souhaitez ajouter de nouveaux champs à votre application de processus, vous pouvez ajouter ces champs dans les transformations.
Les macros facilitent la réutilisation des constructions SQL courantes. Pour des informations détaillées, consultez la documentation officielle de dbt sur les macros jinja.
pm_utils
pm-utils contient un ensemble de macros généralement utilisées dans les transformations Process Mining. Pour plus d'informations sur les macros pm_utils , consultez ProcessMining-pm-utils.
pm_utils.optional() .
csv utilisés pour ajouter des tables de données à vos transformations. Pour des informations détaillées, consultez la documentation officielle de dbt sur les importations jinja.
Dans Process Mining, cela est généralement utilisé pour faciliter la configuration des mappages dans vos transformations.
Après avoir modifié les fichiers de référence, exécutez le fichier en sélectionnant Exécuter le fichier (Run file) ou Exécuter tout (Run all) pour mettre à jour la table de données correspondante.
Consultez la section Configuration de l'activité et découvrez des exemples d'utilisation de fichiers de référence.
Activity configuration
activity_configuration.csv est utilisé pour définir des champs supplémentaires liés aux activités. activity_order est utilisé comme briseur de lien lorsque deux événements se produisent sur le même horodatage. L'illustration suivante montre un exemple de fichier activity_configuration.csv .
models\schema\ contient un ensemble de fichiers .yml qui définissent les tests. Ceux-ci valident la structure et le contenu des données attendues. Pour des informations détaillées, consultez la documentation officielle de dbt sur les tests.
sources.yml sont exécutés à chaque ingestion de données. Cela permet de vérifier si les données d'entrée sont correctement formatées.
Les transformations de données sont utilisées pour transformer les données d'entrée en données adaptées à Process Mining. Les transformations dans Process Mining sont écrites en tant que projets dbt .
Cette page donne une introduction à dbt. Pour des informations plus détaillées, consultez la documentation officielle de dbt.
pm-utils package
Les modèles d'application Process Mining sont fournis avec un package dbt appelépm_utils. Ce package pm-utils contient des fonctions utilitaires et des macros pour les projets dbt Process Mining. Pour plus d'informations sur le pm_utils , consultez ProcessMining-pm-utils.
Mise à jour de la version pm-utils utilisée pour votre modèle d'application
pm-utils en ajoutant de nouvelles fonctions.
pm-utils est publiée, il est conseillé de mettre à jour la version utilisée dans vos transformations, pour vous assurer que vous utilisez les dernières fonctions et macros du paquet pm-utils .
pm-utils dans le panneau Versions ( Releases ) du ProcessMining-pm-utils.
pm-utils dans vos transformations.
-
Téléchargez le code source (zip) à partir de la version
pm-utils. -
Extrayez le fichier
zipet renommez le dossier en pm_utils. -
Exportez les transformations à partir de l'éditeur de transformations de données intégré et extrayez les fichiers.
-
Remplacez le dossier pm_utils des transformations exportées par le nouveau dossier pm_utils .
-
Compressez à nouveau le contenu des transformations et importez-les dans l' éditeur de transformations de données .