- Démarrage
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Entités (Entities)
- Libellés (prédictions, niveaux de confiance, hiérarchie, etc.)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages examinés et non examinés
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Administration
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Créer un nouveau jeu de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modifier les paramètres d’un jeu de données
- Supprimer des messages via l'interface utilisateur
- Supprimer un jeu de données
- Exporter un jeu de données
- Utilisation des intégrations Exchange
- Préparation des données en vue du téléchargement .CSV
- Entraînement et maintenance du modèle
- Comprendre les libellés, les entités et les métadonnées
- Hiérarchie des libellés et bonnes pratiques
- Définition de vos objectifs de taxonomie
- Cas d'utilisation d'analyse vs d'automatisation
- Transformer vos objectifs en libellés
- Construire votre structure de taxonomie
- Meilleures pratiques de conception de taxonomie
- Importation de votre taxonomie
- Présentation du processus d'entraînement du modèle
- Annotation générative (New)
- Comprendre le statut de votre jeu de données
- Meilleures pratiques d'entraînement et de labellisation des modèles
- Entraînement avec l'analyse des sentiments des libellés activée
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de « Mélanger »
- Entraînement à l'aide d'« Ensemble des libellés » (Explore)
- Entraînement à l'aide de l'option 'Faible confiance'
- Entraînement à l'aide de la recherche (Explorer)
- Réduction et réorganisation de votre taxonomie
- Introduction à 'Raffiner'
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation ?
- Comprendre et améliorer les performances du modèle
- Pourquoi un libellé peut-il avoir une précision moyenne faible ?
- Entraînement à l'aide de « Vérifier le libellé » et « Libellé manquant »
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation de « Rééquilibrer »
- Quand arrêter l'entraînement de votre modèle
- Définition et configuration de vos entités
- Comprendre les entités
- Quelles sont les entités pré-entraînées disponibles ?
- Activation, désactivation, mise à jour et création d'entités
- Filtrage des entités
- Examiner et appliquer des entités
- Validation pour les entités
- Amélioration des performances de l'entité
- Création d'entités Regex personnalisées
- Utilisation des analyses de surveillance &
- Automatisations et Communications Mining
- FAQ et plus
Précision
La précision mesure la proportion de prédictions effectuées par le modèle qui étaient réellement correctes. C'est-à-dire, sur toutes les prédictions positives faites par le modèle, quelle est la proportion de vrais positifs.
Précision = vrais positifs /(vrai positifs + faux positifs)
Par exemple, pour tous les 100 messages d'un ensemble de données prédit comme ayant le libellé « Demande d'informations », la précision est le pourcentage de fois où la « Demande d'informations » a été correctement prédite par rapport au nombre total de fois où elle a été prédite.
Une précision de 95 % signifierait que pour tous les 100 messages prédits comme ayant une étiquette spécifique, 95 seraient correctement étiquetés, et 5 seraient incorrectement étiquetés (c'est-à-dire qu'ils n'aurait pas dû être labellisé avec cette étiquette).
Pour une explication plus détaillée sur la façon dont fonctionne la précision, veuillez consulter ici.
Précision moyenne (AP)
Le score de précision (AP) moyen d'une étiquette individuelle est calculé comme la moyenne de tous les scores de précision à chaque valeur de rappel (entre 0 et 100 %) pour cette étiquette.
Fondamentalement, la précision moyenne mesure les performances du modèle sur tous les seuils de confiance pour cette étiquette.
Précision moyenne (MAP)
La précision moyenne (MAP) est l’une des mesures les plus utiles des performances globales du modèle et constitue un moyen simple de comparer différentes versions de modèles les unes par rapport aux autres.
Le score MAP prend la moyenne du score de précision moyen pour chaque libellé de votre taxonomie qui a au moins 20 exemples dans l'ensemble d'apprentissage utilisé dans la validation.
En règle générale, plus le score MAP est élevé, plus le modèle fonctionne globalement, bien que ce ne soit pas le seul facteur à prendre en compte pour connaître la santé d’un modèle. Il est également important de savoir que votre modèle n'est pas biaisé et dispose d'une haute couverture.
Précision moyenne au moment du rappel