- Introduction
- Configuration de votre compte
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux
- Libellés (prédictions, niveaux de confiance, hiérarchie des libellés et sentiment des libellés)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages annotés et non annotés
- Extraction des champs
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Contrôle et administration de l'accès
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer ou supprimer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Préparation des données en vue du téléchargement du fichier .CSV
- Création d'un ensemble de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modification des paramètres du jeu de données
- Supprimer un message
- Supprimer un jeu de données
- Exporter un ensemble de données
- Utilisation d'intégrations Exchange
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie de libellés et meilleures pratiques
- Comparer les cas d’utilisation des analyses et des automatisations
- Transformer vos objectifs en libellés
- Présentation du processus d'entraînement du modèle
- Annotation générative
- Statut du jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Comprendre les exigences de données
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Affiner et réorganiser votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation
- Comprendre et améliorer les performances du modèle
- Raisons de la faible précision moyenne des libellés
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Épingler et baliser une version de modèle
- Suppression d'un modèle épinglé
- Ajout de nouveaux libellés aux taxonomies existantes
- Maintenir un modèle en production
- Restauration du modèle
- Utilisation de champs généraux
- Extraction générative
- Vue d'ensemble (Overview)
- Configurer des champs
- Filtrage par type de champ d’extraction
- Génération de vos extractions
- Validation et annotation des extractions générées
- Meilleures pratiques et considérations
- Comprendre la validation des extractions et des performances d'extraction
- Questions fréquemment posées (FAQ)
- Utilisation des analyses et de la surveillance
- Automations et Communications Mining™
- Développeur
- Charger des données
- Téléchargement de données
- Intégration avec l'utilisateur du service Azure
- Intégration avec l'authentification d'application Azure
- Intégration d’Exchange avec l’authentification et le graphique d’application Azure
- Récupérer des données pour Tableau avec Python
- Intégration d'Elasticsearch
- Extraction de champ général
- Intégration avec Exchange auto-hébergée
- Infrastructure d’automatisation UiPath®
- Activités officielles UiPath®
- Comment les machines apprennent à comprendre les mots : guide d'intégration dans NLP
- Apprentissage basé sur des invites avec des Transformers
- Efficient Transformers II : Dilarisation des connaissances et affinement
- Transformateurs efficaces I : mécanismes d'attention
- Modélisation de l'intention hiérarchique profonde non supervisée : obtenir de la valeur sans données d'entraînement
- Correction des biais d’annotation avec Communications Mining™
- Apprentissage actif : de meilleurs modèles d'ML en moins de temps
- Tout est dans les chiffres : évaluer les performances du modèle avec des métriques
- Pourquoi la validation du modèle est importante
- Comparaison de Communications Mining™ et de Google AutoML pour l’information sur des données conversationnelles
- Licences
- FAQ et plus encore

Guide de l’utilisateur de Communications Mining
Si vous avez une taxonomie mature préexistante avec de nombreux messages révisés, l'ajout d'un nouveau libellé nécessite un entraînement supplémentaire pour l'aligner sur le reste des libellés de la taxonomie.
Lorsque vous ajoutez un nouveau libellé à une taxonomie bien entraînée, assurez-vous de l'appliquer aux messages précédemment examinés si le libellé est pertinent pour eux. Sinon, le modèle aura efficacement appris que le nouveau libellé ne doit pas s'appliquer à lui et aura des difficultés à prévoir le nouveau libellé de façon fiable.
Plus il y aura d'exemples examinés dans l'ensemble de données, plus cela nécessitera un entraînement lors de l'ajout d'un nouveau libellé. C'est à moins qu'il ne s'agisse d'un tout nouveau concept que vous ne trouverez pas dans les anciennes données, mais que vous le trouverez dans des données beaucoup plus récentes.
- Créez le nouveau libellé lorsque vous trouvez un exemple où il doit s'appliquer.
-
Sélectionnez Libellé manquant pour trouver d’autres messages pour lesquels la plate-forme détermine si le nouveau libellé doit être appliqué. Pour plus de détails, consultez la section Rechercher des messages avec un libellé Manquant.
- Une fois que le modèle a eu le temps de s'entraîner et de calculer les nouvelles statistiques de validation, vérifiez les performances du nouveau libellé sur la page Validation .
- Vérifiez si une formation supplémentaire est nécessaire.
- Recherchez des termes ou des phrases clés à l'aide de la fonction de recherche dans Découvrir pour trouver des instances similaires. De cette façon, vous appliquez le libellé de façon groupée s'il existe de nombreux exemples similaires dans les résultats de la recherche.
- Alternativement à la première étape, recherchez des termes ou des phrases clés dans Explorer. C'est potentiellement une meilleure méthode, car vous pouvez filtrer vers Messages examinés , et la recherche dans Explorer renvoie un nombre approximatif du nombre de messages qui correspondent à vos termes de recherche.
- Sélectionnez les libellés qui, selon vous, pourraient souvent apparaître à côté de votre nouveau libellé, et passez en revue les exemples épinglés pour ce libellé afin de trouver des exemples où votre nouveau libellé doit être appliqué.
- Une fois que vous avez quelques exemples épinglés, vérifiez s'il commence à être prédit en mode Libellé . Si c'est le cas, ajoutez plus d'exemples en utilisant ce mode.
- Si vous annotez dans un ensemble de données activé par les sentiments et que votre nouveau libellé est positif ou négatif, vous pouvez également choisir entre un sentiment positif et négatif lors de la vérification des exemples examinés. Cependant, vous ne pouvez pas combiner la recherche de texte avec le filtre Révisé et Sentiment .
- Une fois que vous avez annoté de nombreux exemples à l’aide des méthodes précédentes et que le modèle a eu le temps de se réentraîner, utilisez la fonctionnalité Libellé manquant dans Explore en sélectionnant votre libellé, puis sélectionnez Libellé manquant dans le menu déroulant.
- Cela vous montrera les messages examinés pour lesquels le modèle détermine que le libellé sélectionné peut avoir été omis dans les exemples examinés précédemment.
- Dans ces instances, le modèle affichera le libellé comme une suggestion, comme illustré dans l'exemple de l'image.
- Appliquez le libellé à tous les messages auxquels le modèle suppose correctement que le libellé aurait dû être appliqué.
- Continuez à vous entraîner sur cette page jusqu’à ce que vous ayez annoté tous les exemples corrects, et ce mode ne vous montre plus les exemples où le libellé devrait réellement s’appliquer.