- Démarrage
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Entités (Entities)
- Libellés (prédictions, niveaux de confiance, hiérarchie, etc.)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages examinés et non examinés
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Administration
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Créer un nouveau jeu de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modifier les paramètres d’un jeu de données
- Supprimer des messages via l'interface utilisateur
- Supprimer un jeu de données
- Exporter un jeu de données
- Utilisation des intégrations Exchange
- Préparation des données en vue du téléchargement .CSV
- Entraînement et maintenance du modèle
- Comprendre les libellés, les entités et les métadonnées
- Hiérarchie des libellés et bonnes pratiques
- Définition de vos objectifs de taxonomie
- Cas d'utilisation d'analyse vs d'automatisation
- Transformer vos objectifs en libellés
- Construire votre structure de taxonomie
- Meilleures pratiques de conception de taxonomie
- Importation de votre taxonomie
- Présentation du processus d'entraînement du modèle
- Annotation générative (New)
- Comprendre le statut de votre jeu de données
- Meilleures pratiques d'entraînement et de labellisation des modèles
- Entraînement avec l'analyse des sentiments des libellés activée
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de « Mélanger »
- Entraînement à l'aide d'« Ensemble des libellés » (Explore)
- Entraînement à l'aide de l'option 'Faible confiance'
- Entraînement à l'aide de la recherche (Explorer)
- Réduction et réorganisation de votre taxonomie
- Introduction à 'Raffiner'
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation ?
- Comprendre et améliorer les performances du modèle
- Pourquoi un libellé peut-il avoir une précision moyenne faible ?
- Entraînement à l'aide de « Vérifier le libellé » et « Libellé manquant »
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation de « Rééquilibrer »
- Quand arrêter l'entraînement de votre modèle
- Définition et configuration de vos entités
- Comprendre les entités
- Quelles sont les entités pré-entraînées disponibles ?
- Activation, désactivation, mise à jour et création d'entités
- Filtrage des entités
- Examiner et appliquer des entités
- Validation pour les entités
- Amélioration des performances de l'entité
- Création d'entités Regex personnalisées
- Utilisation des analyses de surveillance &
- Automatisations et Communications Mining
- FAQ et plus
Validation
La page Validation (Validation) affiche aux utilisateurs des informations détaillées sur les performances de leur modèle, pour les libellés et les entités.
Dans l'onglet «Libellés », les utilisateurs peuvent voir leur évaluation globale de modèle d'étiquette, y compris une répartition détaillée des facteurs qui composent leur évaluation, ainsi que d'autres métriques sur leur ensemble de données et les performances des étiquettes individuelles.
Dans l'onglet «Entités », les utilisateurs peuvent voir les statistiques sur les performances des prédictions d'entité pour toutes les entités activées dans l'ensemble de données.
Libellés
L'onglet 'Facteurs ' (tel qu'indiqué ci-dessus) affiche :
- Les quatre facteurs clés qui contribuent à l'évaluation du modèle : équilibre, couverture, performances moyennes des libellés et performances des libellés les plus performants
- Pour chaque facteur, il fournit un score et une ventilation des contributeurs au score du facteur
- Cliquable avec les meilleures actions recommandées pour améliorer le score de chaque facteur
L'onglet 'Metrics' (tel qu'indiqué ci-dessous) affiche :
- La taille de l'ensemble d'entraînement (training set size) : c'est-à-dire le nombre de messages sur lesquels le modèle a été entraîné
- La taille de l'ensemble de tests, c'est-à-dire le nombre de messages pour lesquels le modèle a été évalué
- Nombre de libellés (Number of labels) : correspond au nombre total de libellés dans votre taxonomie
- Précision moyenne au rappel : un graphique montrant la précision moyenne à une valeur de rappel donnée sur tous les libellés
- Précision moyenne (Medium method) : une statistique montrant la précision moyenne sur tous les libellés
- Un graphique montrant, pour tous les libellés, la précision moyenne par libellé par rapport à la taille de l'ensemble d'apprentissage
La page Validation (Validation) permet également aux utilisateurs de sélectionner des libellés individuels dans leur taxonomie pour explorer leurs performances.
Après avoir sélectionné un libellé, les utilisateurs peuvent voir la précision moyenne de ce libellé, ainsi que la précision par rapport au rappel de ce libellé en fonction d'un seuil de confiance donné (que les utilisateurs peuvent ajuster eux-mêmes).
Pour en savoir plus sur le fonctionnement réel de la validation des libellés et comment l'utiliser, consultez cette page.
Entités (Entities)
L'onglet 'Entités' (tel qu'indiqué ci-dessus) affiche les éléments suivants :
- Le nombre d'entités dans l'ensemble d'entraînement – c'est-à-dire le nombre d'entités annotées sur lesquelles le modèle de validation a été formé
- Le nombre d'entités dans l'ensemble de tests – c'est-à-dire le nombre d'entités annotées sur lesquelles le modèle de validation a été évalué
- Le nombre de messages dans l'ensemble d'entraînement – c'est-à-dire le nombre de messages qui ont des entités annotées dans l'ensemble d'entraînement
- Le nombre de messages dans l'ensemble de tests – c'est-à-dire le nombre de messages qui ont des entités annotées dans l'ensemble de tests
- Précision moyenne ( Average confidence ) : le score de précision moyen sur toutes les entités
- Rappel moyen ( Average Rappel ) : le score de rappel moyen sur toutes les entités
- Score F1 moyen ( Average F1 score ) : le score F1 moyen pour toutes les entités (le score F1 est le moyen arrondi de précision et de rappel, et les pondère de manière égale)
- Les mêmes statistiques, mais pour chaque entité individuelle
Pour en savoir plus sur le fonctionnement réel de la Validation des entités et comment l'utiliser, reportez-vous ici.