- Démarrage
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux (anciennement entités)
- Libellés (prédictions, niveaux de confiance, hiérarchie, etc.)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages examinés et non examinés
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Administration
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Créer un nouveau jeu de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modifier les paramètres d’un jeu de données
- Supprimer des messages via l'interface utilisateur
- Supprimer un jeu de données
- Supprimer une source
- Exporter un jeu de données
- Utilisation des intégrations Exchange
- Préparation des données en vue du téléchargement du fichier .CSV
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie des libellés et bonnes pratiques
- Définition de vos objectifs de taxonomie
- Cas d'utilisation d'analyse vs d'automatisation
- Transformer vos objectifs en libellés
- Construire votre structure de taxonomie
- Meilleures pratiques de conception de taxonomie
- Importation de votre taxonomie
- Présentation du processus d'entraînement du modèle
- Annotation générative (New)
- Comprendre le statut de votre jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Réduction et réorganisation de votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation ?
- Comprendre et améliorer les performances du modèle
- Pourquoi un libellé peut-il avoir une précision moyenne faible ?
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Épingler et baliser une version de modèle
- Suppression d'un modèle épinglé
- Ajout de nouveaux libellés aux taxonomies existantes
- Maintenir un modèle en production
- Restauration du modèle
- Utilisation de champs généraux
- Extraction générative
- Utilisation des analyses et de la surveillance
- Automatisations et Communications Mining
- Informations de licence
- FAQ et plus encore
Ajout de nouveaux libellés aux taxonomies existantes
Autorisations utilisateur requises : « Afficher les sources » ET « Réviser et annoter ».
Si vous avez une taxonomie mature préexistante avec de nombreux messages révisés, l'ajout d'un nouveau libellé nécessite un entraînement supplémentaire pour l'aligner sur le reste des libellés de la taxonomie.
Lors de l'ajout d'un nouveau libellé à une taxonomie bien entraînée, vous devez vous assurer de l'appliquer aux messages précédemment examinés si le libellé est pertinent pour eux.
Si vous ne le faites pas, le modèle aura efficacement appris que le nouveau libellé ne doit pas leur être appliqué et aura du mal à prédire le nouveau libellé en toute confiance.
Plus les exemples sont révisés dans l'ensemble de données, plus l'entraînement nécessitera d'entraînement lors de l'ajout d'un nouveau libellé (sauf s'il s'agit d'un tout nouveau concept que vous ne trouverez pas dans les données anciennes, mais que vous trouverez dans des données beaucoup plus récentes).
Étapes clés :
Créez la nouvelle étiquette lorsque vous trouvez un exemple où elle doit s'appliquer
Trouvez d'autres exemples où elle devrait s'appliquer en utilisant quelques méthodes différentes :
- Vous pouvez rechercher des termes ou des phrases clés à l'aide de la fonction de recherche dans Découvrir pour trouver des instances similaires. De cette façon, vous appliquez le libellé en bloc s'il y a de nombreux exemples similaires dans les résultats de la recherche
- ou vous pouvez rechercher des termes ou des phrases clés dans Explorer – c’est potentiellement une meilleure méthode, car vous pouvez filtrer les messages « Révisé », et la recherche dans Explorer renvoie un nombre approximatif du nombre de messages qui correspondent à vos termes de recherche
- Vous pouvez également sélectionner des étiquettes qui, selon vous, apparaissent souvent à côté de votre nouvelle étiquette et examiner les exemples épinglés pour cette étiquette pour trouver des exemples où votre nouvelle étiquette doit être appliquée
- Une fois que vous avez quelques exemples épinglés, voyez s'il commence à être prédit en mode «Libellé » (Label). Si c'est le cas, ajoutez d'autres exemples en utilisant ce mode.
- Enfin, si vous annotez un ensemble de données où les sentiments sont activés et que votre nouveau libellé est généralement positif ou négatif, vous pouvez également choisir entre les sentiments positifs et négatifs en examinant les exemples commentés (mais à l'heure actuelle, vous ne pouvez pas combiner la « recherche de texte » avec les un filtre « révisé » (reviewed) ET un filtre de sentiment)
Utilisez ensuite« Libellé manquant » (Missed label) pour trouver d'autres messages auxquels la plate-forme suppose que le nouveau libellé aurait dû être appliqué :
- Une fois que vous avez annoté de nombreux exemples à l'aide des méthodes ci-dessus et que le modèle a eu le temps de se réentraîner, utilisez la fonctionnalité « Libellé manquant » (Missed label) dans Explorer en sélectionnant votre libellé, puis sélectionnez « Libellé manquant » (Missed label) dans le menu déroulant
- Cela vous affichera les messages examinés où le modèle suppose que le libellé sélectionné a peut-être été omis dans les exemples précédemment examinés
- Dans ces cas, le modèle affichera le libellé comme une suggestion (comme illustré dans l'exemple ci-dessous)
- Appliquer le libellé à tous les messages pour lesquels le modèle suppose correctement que le libellé aurait dû être appliqué
- Continuez à vous entraîner sur cette page jusqu'à ce que vous ayez annoté tous les bons exemples, et ce mode ne vous montre plus d'exemples où l'étiquette devrait réellement s'appliquer
Vérifiez ensuite les performances de la nouvelle étiquette dans la page Validation (une fois que le modèle a eu le temps de se réentraîner et de calculer les nouvelles statistiques de validation) et voyez si un entraînement supplémentaire est nécessaire.