- Introduction
- Configuration de votre compte
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux
- Libellés (prédictions, niveaux de confiance, hiérarchie des libellés et sentiment des libellés)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages annotés et non annotés
- Extraction des champs
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Contrôle et administration de l'accès
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer ou supprimer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Préparation des données en vue du téléchargement du fichier .CSV
- Création d'un ensemble de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modification des paramètres du jeu de données
- Supprimer un message
- Supprimer un jeu de données
- Exporter un ensemble de données
- Utilisation d'intégrations Exchange
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie de libellés et meilleures pratiques
- Comparer les cas d’utilisation des analyses et des automatisations
- Transformer vos objectifs en libellés
- Présentation du processus d'entraînement du modèle
- Annotation générative
- Statut du jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Entraînement des données de chat et d'appels
- Comprendre les exigences de données
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Affiner et réorganiser votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation
- Comprendre et améliorer les performances du modèle
- Raisons de la faible précision moyenne des libellés
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Utilisation de champs généraux
- Extraction générative
- Vue d'ensemble (Overview)
- Configurer des champs
- Filtrage par type de champ d’extraction
- Génération de vos extractions
- Validation et annotation des extractions générées
- Meilleures pratiques et considérations
- Comprendre la validation des extractions et des performances d'extraction
- Questions fréquemment posées (FAQ)
- Utilisation des analyses et de la surveillance
- Automations et Communications Mining™
- Développeur
- Charger des données
- Téléchargement de données
- Intégration avec l'utilisateur du service Azure
- Intégration avec l'authentification d'application Azure
- Intégration d’Exchange avec l’authentification et le graphique d’application Azure
- Récupérer des données pour Tableau avec Python
- Intégration d'Elasticsearch
- Extraction de champ général
- Intégration avec Exchange auto-hébergée
- Infrastructure d’automatisation UiPath®
- Activités officielles UiPath®
- Comment les machines apprennent à comprendre les mots : guide d'intégration dans NLP
- Apprentissage basé sur des invites avec des Transformers
- Efficient Transformers II : Dilarisation des connaissances et affinement
- Transformateurs efficaces I : mécanismes d'attention
- Modélisation de l'intention hiérarchique profonde non supervisée : obtenir de la valeur sans données d'entraînement
- Correction des biais d’annotation avec Communications Mining™
- Apprentissage actif : de meilleurs modèles d'ML en moins de temps
- Tout est dans les chiffres : évaluer les performances du modèle avec des métriques
- Pourquoi la validation du modèle est importante
- Comparaison de Communications Mining™ et de Google AutoML pour l’information sur des données conversationnelles
- Licences
- FAQ et plus encore

Guide de l’utilisateur de Communications Mining
Introduction
L'utilisation des modes d'entraînement Vérifier le libellé et Libellé manquant fait partie de la phase Affiner où vous essayez d'identifier les incohérences ou les libellés manquants dans les messages qui ont déjà été examinés. Il s'agit d'une étape différente de l'étape Apprendre au libellé , qui se concentre sur les messages non examinés dont les prédictions sont faites par la plate-forme, plutôt que sur des libellés attribués.
Vérifier le libellé affiche les messages pour lesquels la plate-forme suppose que le libellé sélectionné a peut-être été mal appliqué, c’est-à-dire qu’il n’ aurait potentiellement pas dû être appliqué.
Libellé manquant affiche des messages qui, selon la plate-forme, peuvent manquer le libellé sélectionné, c'est-à-dire qu'il aurait potentiellement dû être appliqué, mais pas. Dans ce cas, le libellé sélectionné apparaîtra généralement sous forme de suggestion, comme illustré dans l'image suivante.
Les suggestions de la plate-forme dans l'un ou l'autre mode ne sont pas nécessairement correctes, il s'agit uniquement des cas où la plate-forme est incertaine en fonction de l'entraînement terminé jusqu'à présent. Vous pouvez choisir de les ignorer si vous n'êtes pas d'accord avec les suggestions de la plate-forme après les avoir examinées.
L'utilisation de ces modes d'entraînement est un moyen très efficace de trouver des occurrences où l'utilisateur n'a peut-être pas été cohérent dans l'application des libellés. En les utilisant, vous êtes en mesure de corriger ces occasions et donc d’améliorer les performances de l’étiquette.
Quand utiliser le libellé Vérifier et le libellé Manqué
The simplest answer of when to use either training mode is when they are one of the recommended actions in the Model Rating section or specific label view in the Validation page. For more details, check Understanding and improving model performance.
En règle générale, tout libellé disposant d'un nombre important d'exemples épinglés mais ayant une précision moyenne faible, ce qui peut être indiqué par des avertissements de libellé rouge sur la page Validation ou dans les barres de filtre de libellé, bénéficiera probablement d'un entraînement corrective dans l'un ou l'autre des processus Vérifiez le libellé et le mode de libellé Manqué .
Lors de la validation des performances d'un modèle, la plate-forme déterminera si un libellé a souvent été appliqué de manière incorrecte, ou l'endroit où il pensez qu'il a été régulièrement omis, et hiérarchise l'action corrective qui selon elle serait la plus utile afin d'améliorer les performances d'un libellé.
Missed label is also a very useful tool if you have added a new label to an existing taxonomy with lots of reviewed examples. Once you've provided some initial examples for the new label concept, Missed label can quickly help you identify any examples in the previously reviewed messages where it should also apply. For more details, check Adding new labels to existing taxonomies.
Utilisation du libellé Vérifier et du libellé Manqué
Pour atteindre l'un de ces modes d'entraînement, il existe les options principales suivantes :
-
If it is a recommended action in Validation for a label, the action card acts as a link that takes you directly to that training mode for the selected label.
- Vous pouvez également sélectionner l'un des deux modes d'entraînement dans le menu déroulant en haut de la page d'Exploration, puis sélectionner un libellé à trier. Vous pouvez trouver un exemple dans l'image précédente.
Dans chaque mode, la plate-forme vous montrera jusqu’à 20 exemples par page de messages examinés pour lesquels elle suppose que le libellé sélectionné a peut-être été appliqué de manière incorrecte, Vérifier le libellé, ou peut être manquant le libellé sélectionné, Libellé manquant.
Vérifier le libellé
Libellé manquant
Dans Libellé manquant, examinez chacun des exemples de la page pour voir si le libellé sélectionné a bien été manquant. Si c'est le cas, sélectionnez la suggestion de libellé, comme illustré dans l'image précédente, pour appliquer le libellé. Si ce n'est pas le cas, ignorez la suggestion et passez à autre chose.
Ce n’est pas parce que la plate-forme suggère un libellé sur un message examiné que le modèle la considère comme une prédiction, ni qu’il prendra en compte les statistiques relatives au nombre de libellés d’un ensemble de données. Si une suggestion est erronée, vous pouvez simplement l’ignorer.
L'ajout d'étiquettes qui ont été oubliées peut donc avoir un impact majeur sur les performances d'une étiquette, en garantissant que le modèle dispose d'exemples corrects et cohérents à partir desquels réaliser des prédictions pour cette étiquette.