- Introduction
- Configuration de votre compte
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux
- Libellés (prédictions, niveaux de confiance, hiérarchie des libellés et sentiment des libellés)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages annotés et non annotés
- Extraction des champs
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Contrôle et administration de l'accès
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer ou supprimer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Préparation des données en vue du téléchargement du fichier .CSV
- Création d'un ensemble de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modification des paramètres du jeu de données
- Supprimer un message
- Supprimer un jeu de données
- Exporter un ensemble de données
- Utilisation d'intégrations Exchange
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie de libellés et meilleures pratiques
- Comparer les cas d’utilisation des analyses et des automatisations
- Transformer vos objectifs en libellés
- Présentation du processus d'entraînement du modèle
- Annotation générative
- Statut du jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Entraînement des données de chat et d'appels
- Comprendre les exigences de données
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Affiner et réorganiser votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation
- Comprendre et améliorer les performances du modèle
- Raisons de la faible précision moyenne des libellés
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Utilisation de champs généraux
- Extraction générative
- Vue d'ensemble (Overview)
- Configurer des champs
- Filtrage par type de champ d’extraction
- Génération de vos extractions
- Validation et annotation des extractions générées
- Meilleures pratiques et considérations
- Comprendre la validation des extractions et des performances d'extraction
- Questions fréquemment posées (FAQ)
- Utilisation des analyses et de la surveillance
- Automations et Communications Mining™
- Développeur
- Charger des données
- Téléchargement de données
- Intégration avec l'authentification d'application Azure
- Intégration d’Exchange avec l’authentification et le graphique d’application Azure
- Récupérer des données pour Tableau avec Python
- Intégration d'Elasticsearch
- Intégration avec Exchange auto-hébergée
- Infrastructure d’automatisation UiPath®
- Activités UiPath® Marketplace
- Activités officielles UiPath®
- Comment les machines apprennent à comprendre les mots : guide d'intégration dans NLP
- Apprentissage basé sur des invites avec des Transformers
- Efficient Transformers II : Dilarisation des connaissances et affinement
- Transformateurs efficaces I : mécanismes d'attention
- Modélisation de l'intention hiérarchique profonde non supervisée : obtenir de la valeur sans données d'entraînement
- Correction des biais d’annotation avec Communications Mining™
- Apprentissage actif : de meilleurs modèles d'ML en moins de temps
- Tout est dans les chiffres : évaluer les performances du modèle avec des métriques
- Pourquoi la validation du modèle est importante
- Comparaison de Communications Mining™ et de Google AutoML pour l’information sur des données conversationnelles
- Licences
- FAQ et plus encore

Guide de l’utilisateur de Communications Mining
La page Explorer (Explore) propose différents modes d'entraînement, et cette phase se concentre principalement sur trois d'entre eux :
- Shuffle - Shows a random selection of messages for users to annotate. Make sure you complete a significant chunk of training in Shuffle, in order to create a training set of examples that is representative of the wider dataset.
- Teach - Used for for unreviewed messages. As soon as the platform makes some reasonable predictions for a label, you can improve the ability of predicting the label for more varied examples by reviewing messages in the default Teach mode, which is for unreviewed messages. This will show you messages where the platform is unsure whether the selected label applies or not.
- Low Confidence - Shows you messages that are not well covered by informative label predictions. These messages will have either no predictions or very low confidence predictions for labels that the platform understands to be informative.
This section will also cover training using Search in Explore, similar to training using Search in Discover.
Teach, for reviewed messages, is another training mode in Explore. For more details, check Refining models and using Validation.
The layout from the previously shown image is explained in the following table:
1 | Adjust the date range or period of messages shown. |
2 | Add various other filters based on the metadata of the messages, e.g. score or sender. |
3 | Add a general field filter. |
4 | Toggle from all messages to either reviewed or unreviewed messages, also adjusts pinned vs predicted label counts. |
5 | Add a label filter. |
6 | Search for specific labels within your taxonomy. |
7 | Add additional labels. |
8 | Expand message's metadata. |
9 | Refresh the current query. |
10 | Switch between different training modes such as recent, shuffle, teach and low confidence, and select label to sort by. |
11 | Search the dataset for messages containing specific words or phrases. |
12 | Download all of the messages on this page or export the dataset with applied filters as a CSV file. |
Le nombre d'exemples requis pour prédire avec précision chaque libellé peut varier beaucoup en fonction de l'étendue ou de la spécificité d'un concept de libellé.
Il est possible qu'un libellé soit généralement associé à des mots, des phrases ou des intentions très spécifiques et facilement identifiables, et que la plate-forme soit capable de le prédire de manière cohérente avec relativement peu d'exemples d'entraînement. Il est possible qu'une étiquette capture un sujet général avec de nombreuses variations de langue différentes qui lui seraient associées, auquel cas, cela pourrait nécessiter beaucoup plus d'exemples d'entraînement pour permettre à la plate-forme d'identifier systématiquement les instances auxquelles l'étiquette doit s'appliquer.
The platform can often start making predictions for a label with as little as five examples, though in order to accurately estimate the performance of a label, that is, how well the platform is able to predict it, each label requires at least 25 examples.
When annotating in Explore, the little red dials next to each label indicate whether more examples are needed to accurately estimate the performance of the label. The dial starts to disappear as you provide more training examples and will disappear completely once you reach 25.
This does not mean that with 25 examples the platform will be able to accurately predict every label, but it will at least be able to validate how well it can predict each label and alert you if additional training is required.
During the Explore phase, make sure that you have provided at least 25 examples for all of the labels that you are interested in, using a combination of the steps mentioned previously, that is, mostly Shuffle, and Teach and Unreviewed.
During the Refine phase it may become clear that more training is required for certain labels to improve their performance. For more details, check Refining models and using Validation.
In Explore, once you reach 25 pinned examples for a label, you may notice one of the following label performance indicators in place of the training dial:
- Grey is an indicator that the platform is calculating the performance of that label. This means that it will update to either disappear, or an amber or red circle once calculated.
- Amber is an indicator that the label has slightly less than satisfactory performance and could be improved.
- Red is an indicator that the label is performing poorly and needs additional training or corrective actions to improve it.
- If there is no circle, the label is performing at a satisfactory level, though it may still need improving depending on the use case and desired accuracy levels.
- To understand more about label performance and how to improve it, check Understanding and improving model performance.
If you select the tick icon, as shown in the following images, at the top of the label filter bar to filter to reviewed messages, you will be shown the number of reviewed messages that have that label applied.
If you select the computer icon to filter to unreviewed messages, you will be shown the total number of predictions for that label, which includes the number of reviewed examples too.
Dans Explorer ( Explore), lorsque ni Révisé (Reviewed) ni Non révisé (Unreviewed) n'est sélectionné, la plate-forme affiche le nombre total de messages épinglés pour un libellé par défaut. Dans Rapports(Reports), la valeur par défaut est d'afficher le total prédit.
- The model can make predictions with only a few annotated messages, though for it to make reliable predictions, you should annotate at a minimum of 25 messages per label. Some will require more than this, it will depend on the complexity of the data, the label and the consistency with which the labels have been applied
- In Explore, you should also try and find messages where the model has predicted a label incorrectly. You should remove incorrect labels and apply correct ones. This process helps to prevent the model from making a similar incorrect prediction in future