- Démarrage
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux (anciennement entités)
- Libellés (prédictions, niveaux de confiance, hiérarchie, etc.)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages examinés et non examinés
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Administration
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Créer un nouveau jeu de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modifier les paramètres d’un jeu de données
- Supprimer des messages via l'interface utilisateur
- Supprimer un jeu de données
- Supprimer une source
- Exporter un jeu de données
- Utilisation des intégrations Exchange
- Préparation des données en vue du téléchargement du fichier .CSV
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie des libellés et bonnes pratiques
- Définition de vos objectifs de taxonomie
- Cas d'utilisation d'analyse vs d'automatisation
- Transformer vos objectifs en libellés
- Construire votre structure de taxonomie
- Meilleures pratiques de conception de taxonomie
- Importation de votre taxonomie
- Présentation du processus d'entraînement du modèle
- Annotation générative (New)
- Statut du jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Réduction et réorganisation de votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation ?
- Comprendre et améliorer les performances du modèle
- Pourquoi un libellé peut-il avoir une précision moyenne faible ?
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Utilisation de champs généraux
- Extraction générative
- Utilisation des analyses et de la surveillance
- Automatisations et Communications Mining
- Informations de licence
- FAQ et plus encore
Entraînement à l'aide de la classification par glisser-déposer
Autorisation utilisateur requise : « Afficher les sources » ET « Révision et libellé ».
« Masquer » est la première étape d' Exploration et son objectif est de fournir aux utilisateurs une sélection aléatoire de messages à examiner. En mode aléatoire, la plate-forme vous affichera des messages contenant des prédictions couvrant tous les libellés (et là où il n'y en a pas), de sorte que l'étape Mélanger (Should) diffère des autres dans Explorer (Explore) car elle ne se concentre pas sur un libellé spécifique à entraîner, mais les couvre tous .
Pourquoi l'entraînement en mode « Masquage » est-il si important ?
Il est très important d'utiliser le mode Mélange pour vous assurer que vous fournissez à votre modèle suffisamment d'exemples d'entraînement représentatifs de l'ensemble de données dans son ensemble, et non biaisés en vous concentrant uniquement sur des zones très spécifiques des données.
Globalement, au moins 10 % de l'entraînement que vous effectuez dans votre ensemble de données doit être en mode aléatoire.
L'annotation en mode Mélange permet essentiellement de s'assurer que votre taxonomie couvre bien les données de votre ensemble de données et vous empêche de créer un modèle capable de faire des prédictions avec une grande précision uniquement sur une petite fraction des données de l'ensemble de données.
Regarder à travers les messages en mode Mélange est donc un moyen simple d’avoir une idée de la façon dont se comporte le modèle global, et peut être consulté tout au long du processus d’entraînement. Dans une taxonomie bien entraînée, vous devriez être en mesure de parcourir tous les messages non examinés sur Mélanger (Then) et simplement accepter les prédictions pour entraîner davantage le modèle. Si vous trouvez que beaucoup de prédictions sont incorrectes, vous pouvez voir quels libellés nécessitent plus d'entraînement.
Parcourir plusieurs pages sur Mélanger (Short) plus tard dans le processus de formation est également un bon moyen de vérifier s'il existe des intentions ou des concepts qui n'ont pas été capturés par votre taxonomie et qui auraient dû l'être. Vous pouvez ensuite ajouter des libellés existants le cas échéant, ou en créer de nouveaux si nécessaire.
- Sélectionnez « Mélanger » dans le menu déroulant pour présenter 20 messages aléatoires
- Filtrer sur messages non vérifiés
- Examiner chaque message et toutes les prédictions associées
- Si il y a des prédictions, vous devez les confirmer ou les rejeter. Confirmez en cliquant sur celles qui s'appliquent
- N'oubliez pas que vous devez également ajouter tous les autres libellés supplémentaires qui s'appliquent
- Si vous rejetez la ou les prédictions, vous devez appliquer tout le ou les bons libellés (ne laissez pas le message sans libellé appliqué)
- Vous pouvez également appuyer sur le bouton Actualiser (Refresh) pour obtenir un nouvel ensemble de messages, ou cliquer sur la page suivante (en bas)
Nous recommandons d'annoter au moins 10 pages de messages dans Mélanger (Short). Dans les ensembles de données volumineux contenant de nombreux exemples d'entraînement, cela pourrait être beaucoup plus important.
Vous devez essayer d'effectuer environ 10 % ou plus de tous les entraînements en mode Mélange.