- Démarrage
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux (anciennement entités)
- Libellés (prédictions, niveaux de confiance, hiérarchie, etc.)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages examinés et non examinés
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Administration
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Créer un nouveau jeu de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modifier les paramètres d’un jeu de données
- Supprimer des messages via l'interface utilisateur
- Supprimer un jeu de données
- Supprimer une source
- Exporter un jeu de données
- Utilisation des intégrations Exchange
- Préparation des données en vue du téléchargement du fichier .CSV
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie des libellés et bonnes pratiques
- Définition de vos objectifs de taxonomie
- Cas d'utilisation d'analyse vs d'automatisation
- Transformer vos objectifs en libellés
- Construire votre structure de taxonomie
- Meilleures pratiques de conception de taxonomie
- Importation de votre taxonomie
- Présentation du processus d'entraînement du modèle
- Annotation générative (New)
- Statut du jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Réduction et réorganisation de votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation ?
- Comprendre et améliorer les performances du modèle
- Pourquoi un libellé peut-il avoir une précision moyenne faible ?
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Utilisation de champs généraux
- Extraction générative
- Utilisation des analyses et de la surveillance
- Automatisations et Communications Mining
- Informations de licence
- FAQ et plus encore
Entraînement à l'aide du libellé En savoir plus (Affiner)
Autorisations utilisateur requises : « Afficher les sources » ET « Réviser et annoter »
Pour plus de détails, consultez les pages Vérifier le libellé (Check label) et Libellé manquant (Missed label ).
Si vous avez un libellé qui a du mal à prédire avec précision et que vous êtes satisfait de la cohérence des exemples déjà épinglés (comme mentionné dans l'article précédent), il est probable que vous deviez fournir au modèle des exemples plus diversifiés (et cohérent) des exemples de formation.
La plate-forme suggérera généralement ce mode comme action recommandée pour les libellés qui en bénéficieraient le plus sous les facteurs de notation du modèle, ainsi que dans les actions recommandées pour les libellés spécifiques que vous pouvez sélectionner dans Validation.
La meilleure méthode pour entraîner la plate-forme sur les instances où elle a du mal à prédire si une étiquette s'applique ou non, utilise «Ensemble » pour les messages non examinés.
Comme ce mode vous montre des prédictions pour un libellé avec des scores de confiance allant de 50 % (ou 66 % dans le cas d'un ensemble de données basé sur les sentiments), accepter ou corriger ces prédictions envoie des messages d'entraînement beaucoup plus puissants au modèle que si vous étiez pour accepter des prédictions avec des scores de confiance de 90% ou plus. De cette façon, vous pouvez rapidement améliorer les performances d'un libellé en fournissant divers exemples d'entraînement dont la plateforme n'était auparavant pas sécurisée.
Le processus réel d'annotation dans ce mode est expliqué dans la phase Explorer (Explore).