- Démarrage
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux (anciennement entités)
- Libellés (prédictions, niveaux de confiance, hiérarchie, etc.)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages examinés et non examinés
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Administration
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Create or delete a data source in the GUI
- Téléchargement d’un fichier CSV dans une source
- Préparation des données en vue du téléchargement du fichier .CSV
- Créer un nouveau jeu de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modifier les paramètres d’un jeu de données
- Supprimer des messages via l'interface utilisateur
- Supprimer un jeu de données
- Exporter un jeu de données
- Utilisation des intégrations Exchange
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie des libellés et bonnes pratiques
- Définition de vos objectifs de taxonomie
- Cas d'utilisation d'analyse vs d'automatisation
- Transformer vos objectifs en libellés
- Construire votre structure de taxonomie
- Meilleures pratiques de conception de taxonomie
- Importation de votre taxonomie
- Présentation du processus d'entraînement du modèle
- Annotation générative (New)
- Statut du jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Comprendre les exigences de données
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Réduction et réorganisation de votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation ?
- Comprendre et améliorer les performances du modèle
- Pourquoi un libellé peut-il avoir une précision moyenne faible ?
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Utilisation de champs généraux
- Extraction générative
- Utilisation des analyses et de la surveillance
- Automatisations et Communications Mining
- Informations de licence
- FAQ et plus encore
Guide de l'utilisateur de Communications Mining
Examen des prédictions de libellé
Autorisations utilisateur requises : « Afficher les sources » ET « Réviser et annoter ».
Après la phase Découvrir (Discover), le modèle commencera à faire des prédictions pour de nombreux libellés de votre taxonomie.
L'objectif de la phase Explorer (Explore) est d'examiner les prédictions pour chaque libellé, de confirmer si elles sont correctes et de les corriger là où elles ne le sont pas, fournissant ainsi de nombreux exemples d'entraînement pour le modèle.
Il y a deux actions clés lors de l'examen des prédictions de libellé :
- Lorsque les prédictions sont correctes, vous devez les confirmer/accepter en cliquant simplement dessus
- Lorsqu'elles sont incorrectes, vous devez soit les ignorer/les ignorer, soit ajouter le ou les libellés corrects qui s'appliquent. Pour ajouter un libellé différent, cliquez sur le bouton « + » et saisissez-le. C'est la façon de corriger les erreurs de prédiction en ajoutant la bonne et en ne cliquant pas sur les libellés mal prédits
Les images ci-dessous montrent à quoi ressemblent les prédictions dans Communications Mining pour les données avec et sans sentiment. Le survol du libellé avec votre souris affichera également la confiance du modèle selon laquelle le libellé spécifique s’applique.
La transparence du libellé prédit fournit un indicateur visuel de la confiance du modèle. Plus la couleur est foncée, plus la confiance est élevée et vice versa :
Pour supprimer un libellé que vous avez appliqué par erreur, vous pouvez le survoler avec votre curseur et un « X » apparaîtra. Cliquez sur cette option pour supprimer l'étiquette.