- Introduction
- Configuration de votre compte
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux
- Libellés (prédictions, niveaux de confiance, hiérarchie des libellés et sentiment des libellés)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages annotés et non annotés
- Extraction des champs
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Contrôle et administration des accès
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer ou supprimer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Préparation des données en vue du téléchargement du fichier .CSV
- Création d'un ensemble de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modification des paramètres du jeu de données
- Supprimer un message
- Supprimer un jeu de données
- Exporter un ensemble de données
- Utilisation d'intégrations Exchange
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie de libellés et meilleures pratiques
- Comparer les cas d’utilisation des analyses et des automatisations
- Transformer vos objectifs en libellés
- Présentation du processus d'entraînement du modèle
- Annotation générative
- Statut du jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Entraînement des données de chat et d'appels
- Comprendre les exigences de données
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Affiner et réorganiser votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation
- Comprendre et améliorer les performances du modèle
- Raisons de la faible précision moyenne des libellés
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Utilisation de champs généraux
- Extraction générative
- Vue d'ensemble (Overview)
- Configurer des champs
- Filtrage par type de champ d’extraction
- Génération de vos extractions
- Validation et annotation des extractions générées
- Meilleures pratiques et considérations
- Comprendre la validation des extractions et des performances d'extraction
- Questions fréquemment posées (FAQ)
- Utilisation des analyses et de la surveillance
- Automations et Communications Mining™
- Développeur
- Intégration avec l'utilisateur du service Azure
- Intégration avec l'authentification d'application Azure
- Intégration d’Exchange avec l’authentification et le graphique d’application Azure
- Récupérer des données pour Tableau avec Python
- Intégration d'Elasticsearch
- Intégration avec Exchange auto-hébergée
- Infrastructure d’automatisation UiPath®
- Activités UiPath® Marketplace
- Activités officielles UiPath®
- Comment les machines apprennent à comprendre les mots : guide d'intégration dans NLP
- Apprentissage basé sur des invites avec des Transformers
- Efficient Transformers II : Dilarisation des connaissances et affinement
- Transformateurs efficaces I : mécanismes d'attention
- Modélisation de l'intention hiérarchique profonde non supervisée : obtenir de la valeur sans données d'entraînement
- Correction des biais d’annotation avec Communications Mining™
- Apprentissage actif : de meilleurs modèles d'ML en moins de temps
- Tout est dans les chiffres : évaluer les performances du modèle avec des métriques
- Pourquoi la validation du modèle est importante
- Comparaison de Communications Mining™ et de Google AutoML pour l’information sur des données conversationnelles
- Licences
- FAQ et plus encore

Guide de l’utilisateur de Communications Mining
Apprendre est la deuxième étape de la phase d'exploration et son objectif est d'afficher les prédictions d'un libellé où le modèle est le plus confondu, qu'il s'applique ou non. Comme pour les étapes précédentes, nous devons confirmer si la prédiction est correcte ou incorrecte, et ce faisant, fournissez les solides indicateurs d’entraînement du modèle. Il s'agit du mode d'entraînement spécifique au libellé le plus important.
Apprendre à un libellé est un mode d’entraînement conçu exclusivement pour annoter les messages non examinés. Par conséquent, le filtre examiné est désactivé dans ce mode.
- Sélectionnez Apprendre au libellé dans le menu déroulant, comme indiqué dans l'image suivante.
- Sélectionnez le libellé que vous souhaitez entraîner, où la sélection par défaut en mode Apprendre est d'afficher les messages non examinés.
- Vous verrez une sélection de messages dans lesquels le modèle a le plus à tromper, quant à l’application ou non du libellé sélectionné. Cela signifie que vous devez examiner les prédictions et appliquer le libellé si elles sont correctes, ou appliquer d’autres libellés si elles sont incorrectes.
Remarque :
- Les prédictions s’étendront entre environ 50 % pour les données sans sentiment et 66 % pour les données où le sentiment est activé.
- Assurez-vous d'appliquer tous les autres libellés qui s'appliquent ainsi que le libellé spécifique sur lequel vous vous concentrez.
Vous devez utiliser ce mode d'entraînement comme nécessaire pour augmenter le nombre d'exemples d'entraînement pour chaque libellé au-dessus de 25, afin que la plate-forme puisse ensuite estimer avec précision les performances du libellé.
Le nombre d'exemples requis pour que chaque libellé fonctionne correctement dépendra d'un certain nombre de facteurs. Dans la phase d'affinage, nous couvrons la façon de comprendre et d'améliorer les performances de chaque libellé.
La plate-forme recommande régulièrement l'utilisation de l'option Apprendre au libellé pour améliorer les performances de libellés spécifiques, en fournissant des exemples d'entraînement plus variés qu'il peut utiliser pour identifier d'autres instances de votre ensemble de données auxquelles le libellé doit s'appliquer.
Vous pouvez constater après Découvrir et Mélanger que certains libellés n’ont encore que très peu d’exemples, et où le mode Apprendre au libellé ne propose pas d’exemples d’entraînement utiles. Dans ce cas, il est recommandé d'utiliser les modes d'entraînement suivants pour fournir à la plate-forme plus d'exemples sur lesquels apprendre :
La recherche de termes ou de phrases dans Explorer fonctionne de la même manière que la recherche dans Découvrir. L’une des deux différences clés est que dans Explorer, vous devez examiner et annoter les résultats de recherche individuellement, plutôt qu’en bloc. Vous pouvez effectuer une recherche dans Explorer en tapant simplement votre terme de recherche dans le champ de recherche en haut à gauche de la page.
Cependant, une trop grande recherche peut biaiser votre modèle, ce que nous voulons éviter. N'ajoutez pas plus de 10 exemples par libellé dans ce mode d'entraînement pour éviter les biais d'annotation. Assurez-vous également de prévoir le temps de réentraînement de la plateforme avant de revenir au mode d'apprentissage .
For more details, check Training using Search in the Explore tab.
Option 2 : libellé
Bien que l'entraînement à l'aide de libellés ne soit pas l'une des principales étapes décrites dans la phase d'Exploration , il peut néanmoins être utile dans cette phase d'entraînement. En mode Libellé , la plate-forme vous affiche les messages pour lesquels ce libellé est prédit par ordre décroissant de confiance, c'est-à-dire avec les prédictions les plus fiables en premier et les moins fiables en bas.
Cependant, il n’est utile d’examiner que des prédictions qui ne sont pas de haut niveau de confiance, supérieures à 90 %. En effet, lorsque le modèle est très fiable, c'est-à-dire plus de 90 %, alors qu'en confirmant la prédiction, vous n'indiquez aucune nouvelle information au modèle, il est déjà convaincu que le libellé s'applique. Recherchez des exemples moins fiables plus bas sur la page si nécessaire. Cependant, si les prédictions ont des niveaux de confiance élevés et sont erronées, assurez-vous d'appliquer les bons libellés, ainsi que les prédictions incorrectes.
- Si pour un libellé, il existe plusieurs façons différentes de parler de la même chose, par exemple A, B ou C, assurez-vous de donner des exemples d'entraînement à la plate-forme pour chaque façon de parler. Si vous lui donnez 30 exemples de A, et seulement quelques exemples de B et C, le modèle aura du mal à récupérer les futurs exemples de B ou C pour ce libellé.
- L'ajout d'un nouveau libellé à une taxonomie expérimentée peut signifier qu'il n'a pas été appliqué aux messages précédemment examinés. Cela nécessite alors de revenir en arrière et d'expliquer le modèle sur les nouveaux libellés, à l'aide de la fonction Libellé manquant .