Communications Mining
Plus récente (Latest)
False
- Démarrage
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- General fields (previously Entities)
- Libellés (prédictions, niveaux de confiance, hiérarchie, etc.)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages examinés et non examinés
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Administration
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Créer un nouveau jeu de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modifier les paramètres d’un jeu de données
- Supprimer des messages via l'interface utilisateur
- Supprimer un jeu de données
- Exporter un jeu de données
- Utilisation des intégrations Exchange
- Préparation des données en vue du téléchargement du fichier .CSV
- Entraînement et maintenance du modèle
- Understanding labels, general fields and metadata
- Hiérarchie des libellés et bonnes pratiques
- Définition de vos objectifs de taxonomie
- Cas d'utilisation d'analyse vs d'automatisation
- Transformer vos objectifs en libellés
- Construire votre structure de taxonomie
- Meilleures pratiques de conception de taxonomie
- Importation de votre taxonomie
- Présentation du processus d'entraînement du modèle
- Annotation générative (New)
- Comprendre le statut de votre jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Réduction et réorganisation de votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation ?
- Comprendre et améliorer les performances du modèle
- Pourquoi un libellé peut-il avoir une précision moyenne faible ?
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Defining and setting up your general fields
- Understanding general fields
- Which pre-trained general fields are available?
- Enabling, disabling, updating and creating general fields
- General field filtering
- Reviewing and applying general fields
- Validation for general fields
- Improving general field performance
- Building custom regex general fields
- Extraction générative
- Utilisation des analyses et de la surveillance
- Automatisations et Communications Mining
- FAQ et plus encore
Génération de vos extractions
![](https://docs.uipath.com/_next/static/media/grid.05ebd128.png?w=3840&q=100)
Guide de l'utilisateur de Communications Mining
Last updated 2 juil. 2024
Génération de vos extractions
Remarque : Pre-requisites. Pick a label that has no performance indicators/warnings and is at a precision/recall level that’s appropriate for your use case.
- The Extraction validation process is required to understand the performance of these extractions via Validation.
Decide on the extraction that you want to train out. We use Report > Statement of Accounts as an example of a schema we want to train out.
To automate this process, extract the following data points to input into a downstream system:
Note: This is only applicable if you are training in Explore. In Train, clicking into an extraction training batch pre-loads the extractions.Use this training mode as required, to boost the number of training examples for each extraction (i.e., a set of fields assigned to a label) to at least 25, allowing the model to accurately estimate the performance of the extraction.
- Go to Explore then Label, and select the label you want to generate extractions on.
- Select Predict extractions. Predict extractions generates extractions on a per page basis in Explore (i.e.- this applies predictions on all the comments on a given page).
Note: Each time you go to the next page, you need to select Predict extractions again.
You can also generate extractions on an individual comment level. Select Annotate Fields, then Predict extractions icon.
- The model uses generative models and maps each of the data points that you previously defined (in our extraction schema), to relate to them to an intent (label).
- It extracts and returns them in a structured schema, for an SME to go through and confirm.
- The structured schema is intended to enable more complex automations, and is structured in JSON format in the API for consumption by any downstream automations.
- After making the extraction predictions, if the model picked up field extractions on the comment, it highlights the relevant span in the text (if applicable). The model displays the extracted value on the right-hand side. Check the Validating and annotating extractions page to learn how to validate the predicted values.