- Démarrage
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux (anciennement entités)
- Libellés (prédictions, niveaux de confiance, hiérarchie, etc.)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages examinés et non examinés
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Administration
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Create or delete a data source in the GUI
- Téléchargement d’un fichier CSV dans une source
- Préparation des données en vue du téléchargement du fichier .CSV
- Créer un nouveau jeu de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modifier les paramètres d’un jeu de données
- Supprimer des messages via l'interface utilisateur
- Supprimer un jeu de données
- Exporter un jeu de données
- Utilisation des intégrations Exchange
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie des libellés et bonnes pratiques
- Définition de vos objectifs de taxonomie
- Cas d'utilisation d'analyse vs d'automatisation
- Transformer vos objectifs en libellés
- Construire votre structure de taxonomie
- Meilleures pratiques de conception de taxonomie
- Importation de votre taxonomie
- Présentation du processus d'entraînement du modèle
- Annotation générative (New)
- Statut du jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Comprendre les exigences de données
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Réduction et réorganisation de votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation ?
- Comprendre et améliorer les performances du modèle
- Pourquoi un libellé peut-il avoir une précision moyenne faible ?
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Utilisation de champs généraux
- Extraction générative
- Utilisation des analyses et de la surveillance
- Automatisations et Communications Mining
- Informations de licence
- FAQ et plus encore
Guide de l'utilisateur de Communications Mining
Validation
La page Validation (Validation) affiche aux utilisateurs des informations détaillées sur les performances de leur modèle, pour les libellés et les champs généraux.
Dans l'onglet «Libellés », les utilisateurs peuvent voir leur évaluation globale de modèle d'étiquette, y compris une répartition détaillée des facteurs qui composent leur évaluation, ainsi que d'autres métriques sur leur ensemble de données et les performances des étiquettes individuelles.
Dans l'onglet Champs généraux (General fields), les utilisateurs peuvent voir les statistiques sur les performances des prédictions de champ général pour tous les champs généraux activés dans l'ensemble de données.
Libellés
L'onglet 'Facteurs ' (tel qu'indiqué ci-dessus) affiche :
- Les quatre facteurs clés qui contribuent à l'évaluation du modèle : équilibre, couverture, performances moyennes des libellés et performances des libellés les plus performants
- Pour chaque facteur, il fournit un score et une ventilation des contributeurs au score du facteur
- Cliquable avec les meilleures actions recommandées pour améliorer le score de chaque facteur
L'onglet 'Metrics' (tel qu'indiqué ci-dessous) affiche :
- La taille de l'ensemble d'entraînement (training set size) : c'est-à-dire le nombre de messages sur lesquels le modèle a été entraîné
- La taille de l'ensemble de tests, c'est-à-dire le nombre de messages pour lesquels le modèle a été évalué
- Nombre de libellés (Number of labels) : correspond au nombre total de libellés dans votre taxonomie
- Précision moyenne au rappel : un graphique montrant la précision moyenne à une valeur de rappel donnée sur tous les libellés
- Précision moyenne (Medium method) : une statistique montrant la précision moyenne sur tous les libellés
- Un graphique montrant, pour tous les libellés, la précision moyenne par libellé par rapport à la taille de l'ensemble d'apprentissage
La page Validation (Validation) permet également aux utilisateurs de sélectionner des libellés individuels dans leur taxonomie pour explorer leurs performances.
Après avoir sélectionné un libellé, les utilisateurs peuvent voir la précision moyenne de ce libellé, ainsi que la précision par rapport au rappel de ce libellé en fonction d'un seuil de confiance donné (que les utilisateurs peuvent ajuster eux-mêmes).
Pour en savoir plus sur le fonctionnement réel de la validation des libellés et comment l'utiliser, consultez cette page.
Champs généraux
L'onglet Champs généraux (General Fields) (comme indiqué ci-dessus) affiche :
- Le nombre de champs généraux dans l'ensemble d'entraînement – c'est-à-dire le nombre de champs généraux annotés sur lesquels le modèle de validation a été formé
- Le nombre de champs généraux dans l'ensemble de tests – c'est-à-dire le nombre de champs généraux annotés sur lesquels le modèle de validation a été évalué
- Le nombre de messages dans l'ensemble d'entraînement – c'est-à-dire le nombre de messages qui ont des champs généraux annotés dans l'ensemble d'entraînement
- Le nombre de messages dans l’ensemble de tests – c’est-à-dire le nombre de messages qui ont des champs généraux annotés dans l’ensemble de tests
- Précision moyenne ( Average confidence ) : le score de précision moyen dans tous les champs généraux
- Rappel moyen - le score de rappel moyen dans tous les champs généraux
- Score F1 moyen ( Average F1 score ) : le score F1 moyen dans tous les champs généraux (le score F1 est la moyenne arrondie de la précision et du rappel, et les pondère de manière égale)
- Les mêmes statistiques, mais pour chaque champ général
Pour en savoir plus sur le fonctionnement réel de la Validation des champs généraux et son utilisation, reportez-vous ici.