- Démarrage
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux (anciennement entités)
- Libellés (prédictions, niveaux de confiance, hiérarchie, etc.)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages examinés et non examinés
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Administration
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Create or delete a data source in the GUI
- Téléchargement d’un fichier CSV dans une source
- Préparation des données en vue du téléchargement du fichier .CSV
- Créer un nouveau jeu de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modifier les paramètres d’un jeu de données
- Supprimer des messages via l'interface utilisateur
- Supprimer un jeu de données
- Exporter un jeu de données
- Utilisation des intégrations Exchange
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie des libellés et bonnes pratiques
- Définition de vos objectifs de taxonomie
- Cas d'utilisation d'analyse vs d'automatisation
- Transformer vos objectifs en libellés
- Construire votre structure de taxonomie
- Meilleures pratiques de conception de taxonomie
- Importation de votre taxonomie
- Présentation du processus d'entraînement du modèle
- Annotation générative (New)
- Statut du jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Comprendre les exigences de données
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Réduction et réorganisation de votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation ?
- Comprendre et améliorer les performances du modèle
- Pourquoi un libellé peut-il avoir une précision moyenne faible ?
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Utilisation de champs généraux
- Extraction générative
- Utilisation des analyses et de la surveillance
- Automatisations et Communications Mining
- Informations de licence
- FAQ et plus encore
Guide de l'utilisateur de Communications Mining
Entraînement à l'aide de l'option Enseigner le libellé (Explore)
Autorisations utilisateur requises : « Afficher les sources » ET « Réviser et annoter ».
Introduction à l'utilisation de « Ensemble des libellés »
« Ensemble » est la deuxième étape de la phase d' exploration et son objectif est d'afficher des prédictions pour un libellé où le modèle est le plus confus, qu'il s'applique ou non. Comme les étapes précédentes, nous devons confirmer si la prédiction est correcte ou incorrecte, et ce faisant, fournissez au modèle des messages d'entraînement puissants. Il s'agit du mode d'entraînement spécifique au libellé le plus important.
Étapes clés
- Sélectionnez Apprenez-en davantage dans le menu déroulant en haut à gauche tel qu'indiqué.
- Sélectionnez le libellé que vous souhaitez entraîner - la sélection par défaut en mode Apprentissage permet d'afficher les messages non examinés
- Une sélection de messages s'affichera où le modèle est le plus confondant, que le libellé sélectionné soit appliqué ou non. Examinez les prédictions et appliquez le libellé si elles sont correctes, ou appliquez d'autres libellés si elles sont incorrectes
- Les prévisions s'étendront entre environ 50 % pour les données sans sentiment et 66 % pour les données avec sentiment activé
- N'oubliez pas d'appliquer tous les autres libellés qui s'appliquent ainsi que le libellé spécifique sur lequel vous vous concentrez
Vous devez utiliser ce mode d'entraînement le cas échéant pour augmenter le nombre d'exemples d'entraînement pour chaque libellé à plus de 25, afin que la plate-forme puisse ensuite estimer avec précision les performances du libellé.
Le nombre d'exemples nécessaires pour que chaque libellé fonctionne correctement dépendra d'un certain nombre de facteurs. Dans la phase « Affinage », nous couvrons comment comprendre et améliorer les performances de chaque libellé.
La plate-forme recommande régulièrement l'utilisation de « Teach Label » comme moyen d'améliorer les performances de libellés spécifiques en fournissant des exemples d'entraînement plus divers qu'il peut utiliser pour identifier d'autres instances de votre ensemble de données auxquelles le libellé doit s'appliquer.
Que faire lorsque le nombre d'exemples d'apprentissage (Teach) est insuffisant ?
Nous pouvons constater après Découvrir et Mélanger que certains libellés ont encore très peu d'exemples, et où le mode « Ensemble des libellés » ne présente pas d'exemples d'entraînement utiles. Dans ce cas, nous suggérons d'utiliser les modes d'entraînement suivants pour fournir à la plate-forme plus d'exemples à partir desquels apprendre :
Option 1 : « Rechercher »
La recherche de termes ou de phrases dans Explorer fonctionne de la même manière que dans Découvrir. L’une des deux différences clés est que dans Explorer (Explore), vous devez examiner et annoter les résultats de recherche individuellement, plutôt qu’en bloc. Vous pouvez effectuer une recherche dans Parcourir en tapant simplement vos termes de recherche dans le champ de recherche en haut à gauche de la page.
Cependant, trop de Recherche peut fausser votre modèle, ce que nous voulons éviter. Ajoutez pas plus de 10 exemples par libellé dans ce mode d'apprentissage pour éviter les biais d'annotation. Il est également important de laisser le temps à la plate-forme de se réentraîner avant de revenir au mode « Apprentissage ».
Pour plus d'informations sur l'utilisation de la fonction de recherche dans l'exploration, cliquez ici.
Option 2 : « Libellé »
Bien que l'entraînement à l'aide de « Label » ne soit pas l'une des étapes principales décrites dans la phase Explorer (Explore), il peut toujours être utile dans cette phase d'entraînement. En mode Libellé (Label), la plate-forme vous affiche des messages où ce libellé est prédit par ordre décroissant de confiance (c'est-à-dire avec les prédictions les plus fiables en premier et les moins fiables en bas).
Cependant, il n'est utile que pour examiner les prédictions qui ne sont pas de haute confiance (90 %+). En effet, lorsque le modèle est très fiable (c’est-à-dire supérieure à 90 %), alors en confirmant la prédiction que vous n'indiquez pas de nouvelles informations au modèle, il est déjà sûr que l'étiquette s'applique. Recherchez des exemples moins fiables plus bas sur la page si nécessaire. Bien que, si les prédictions ont des confiances élevées et sont erronées, il est alors important d'appliquer la ou les bonnes étiquettes, rejetant ainsi la ou les prédictions incorrectes.
Conseils utiles
- S'il existe plusieurs façons de dire la même chose pour un libellé (par ex. A, B ou C), assurez-vous de donner des exemples d'entraînement de la plate-forme pour chaque façon de le dire. Si vous lui donnez 30 exemples de A, et seulement quelques exemples de B et C, le modèle aura du mal à choisir les futurs exemples de B ou C pour cette étiquette.
- L'ajout d'un nouveau libellé à une taxonomie adulte peut signifier qu'elle n'a pas été appliquée aux messages précédemment examinés. Cela nécessite ensuite de revenir en arrière et d'entraîner le modèle sur de nouveaux libellés, à l'aide de la fonction « Libellé manquant » (Missed label). Voir ici pour savoir comment.