- Introduction
- Configuration de votre compte
 - Équilibre
 - Clusters
 - Dérive de concept
 - Couverture
 - Jeux de données
 - Champs généraux
 - Libellés (prédictions, niveaux de confiance, hiérarchie des libellés et sentiment des libellés)
 - Modèles
 - Flux
 - Évaluation du modèle
 - Projets
 - Précision
 - Rappel
 - Messages annotés et non annotés
 - Extraction des champs
 - Sources
 - Taxonomies
 - Apprentissage
 - Prédictions positives et négatives vraies et fausses
 - Validation
 - Messages
 
 - Contrôle et administration de l'accès
 - Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
 - Créer ou supprimer une source de données dans l'interface graphique
 - Téléchargement d’un fichier CSV dans une source
 - Préparation des données en vue du téléchargement du fichier .CSV
 - Création d'un ensemble de données
 - Sources et jeux de données multilingues
 - Activation des sentiments sur un ensemble de données
 - Modification des paramètres du jeu de données
 - Supprimer un message
 - Supprimer un jeu de données
 - Exporter un ensemble de données
 - Utilisation d'intégrations Exchange
 
 - Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
 - Hiérarchie de libellés et meilleures pratiques
 - Comparer les cas d’utilisation des analyses et des automatisations
 - Transformer vos objectifs en libellés
 - Présentation du processus d'entraînement du modèle
 - Annotation générative
 - Statut du jeu de données
 - Entraînement des modèles et annotation des meilleures pratiques
 - Entraînement avec l'analyse des sentiments des libellés activée
 
- Comprendre les exigences de données
 - Entraîner
 - Vue d'ensemble (Overview)
 - Examen des prédictions de libellé
 - Entraînement à l'aide de la classification par glisser-déposer
 - Entraînement à l'aide de l'option Enseigner le libellé (Explore)
 - Entraînement à l'aide d'une confiance faible
 - Entraînement à l'aide de la recherche (Explorer)
 - Affiner et réorganiser votre taxonomie
 
- Introduction à affiner
 - Précision et rappel expliqués
 - Précision et rappel
 - Comment fonctionne la validation
 - Comprendre et améliorer les performances du modèle
 - Raisons de la faible précision moyenne des libellés
 - Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
 - Entraînement à l'aide du libellé En savoir plus (Affiner)
 - Entraînement à l'aide de la recherche (affiner)
 - Comprendre et augmenter la couverture
 - Amélioration de l'équilibre et utilisation du rééquilibrage
 - Quand arrêter l'entraînement de votre modèle
 
- Utilisation de champs généraux
 
 - Extraction générative
- Vue d'ensemble (Overview)
 - Configurer des champs
 - Filtrage par type de champ d’extraction
 - Génération de vos extractions
 - Validation et annotation des extractions générées
 - Meilleures pratiques et considérations
 - Comprendre la validation des extractions et des performances d'extraction
 - Questions fréquemment posées (FAQ)
 
 - Utilisation des analyses et de la surveillance
 - Automations et Communications Mining™
 - Développeur
- Charger des données
 - Téléchargement de données
 - Intégration avec l'utilisateur du service Azure
 - Intégration avec l'authentification d'application Azure
 - Intégration d’Exchange avec l’authentification et le graphique d’application Azure
 - Récupérer des données pour Tableau avec Python
 - Intégration d'Elasticsearch
 - Extraction de champ général
 - Intégration avec Exchange auto-hébergée
 - Infrastructure d’automatisation UiPath®
 - Activités officielles UiPath®
 
- Comment les machines apprennent à comprendre les mots : guide d'intégration dans NLP
 - Apprentissage basé sur des invites avec des Transformers
 - Efficient Transformers II : Dilarisation des connaissances et affinement
 - Transformateurs efficaces I : mécanismes d'attention
 - Modélisation de l'intention hiérarchique profonde non supervisée : obtenir de la valeur sans données d'entraînement
 - Correction des biais d’annotation avec Communications Mining™
 - Apprentissage actif : de meilleurs modèles d'ML en moins de temps
 - Tout est dans les chiffres : évaluer les performances du modèle avec des métriques
 - Pourquoi la validation du modèle est importante
 - Comparaison de Communications Mining™ et de Google AutoML pour l’information sur des données conversationnelles
 
 - Licences
 - FAQ et plus encore
 

Guide de l’utilisateur de Communications Mining
Pour répondre à vos objectifs métier, il est important de savoir comment créer votre taxonomie avant de commencer à entraîner votre modèle. Cela inclut la façon de nommer et de structurer vos libellés, ainsi que leur contenu. Pour plus de détails, consultez Créer votre structure de taxonomie (Building your taxonomy structure).
La fonctionnalité d'annotation générative utilise des noms de libellé et des descriptions comme entrée d'entraînement. Par conséquent, il est important d'utiliser des noms de libellés clairs, distincts et descriptifs. Les noms et les descriptions de libellé fournissent au modèle les meilleures entrées d'entraînement lorsqu'il génère automatiquement des prédictions.
Vous pouvez renommer les libellés et ajouter des niveaux de hiérarchie à tout moment. Cela vous permet d'affiner les libellés et les descriptions de libellés afin d'améliorer les prédictions générées automatiquement avant d'annoter les messages avec des libellés.
>, pour capturer lorsqu'un concept de libellé est un sous-ensemble d'un concept parent plus large.
            Exemples de structure de libellés :
- [Libellé du parent]
 - [Libellé du parent] > [Libellé des enfants]
 - [Libellé parent] > [Libellé de la branche] > [Libellé des enfants]
 
Vous pouvez ajouter plus de trois niveaux de hiérarchie, mais nous vous déconseillons de le faire souvent, car l'entraînement du modèle devient complexe. Pour ajouter des niveaux de hiérarchie supplémentaires, vous pouvez renommer vos libellés ultérieurement dans le processus d'entraînement du modèle.
> lorsque vous spécifiez le nom du libellé.
            Pour comprendre le fonctionnement des hiérarchies, tenez compte du Libellé enfant X du diagramme dans la section Hiérarchies de libellés .
Lorsque le modèle prévoit que le libellé enfant X s’applique à un message, il prévoit également le libellé de la branche C et le libellé 1 en même temps. En effet, Label enfant X est un sous-ensemble des deux.
Chaque niveau de hiérarchie ajoute un niveau croissant de spécificité. Cependant, le modèle est souvent plus fiable pour attribuer un libellé parent ou de branche qu'un libellé enfant plus spécifique. Cela signifie que le modèle peut attribuer différentes probabilités à différentes prédictions de libellé au sein de la même hiérarchie.
À titre d'exemple, pour un message particulier, le modèle peut être :
- Confiance à 99 % que le Libellé parent 1 s'applique.
 - Confiance à 88 % que le libellé de branche C s'applique.
 - Confiance à 75 % que le libellé enfant X s'applique.
 
Le modèle prévoit chaque libellé indépendamment. Il est donc important que les libellés parents représentent des sujets ou des concepts véritables au lieu de sujets ou de concepts abstraites.
Par exemple, il est inefficace d'utiliser Processus (Process) comme libellé parent s'il regroupe des processus spécifiques, car le modèle est trop abstraite pour pouvoir le prévoir. Au lieu de cela, un nom de processus spécifique du texte du message fonctionne mieux en tant que libellé parent, avec des libellés de branche et d'enfant qui représentent des sous-processus pertinents.
Parfois, vous devrez peut-être faire des choix difficiles concernant la structure de votre taxonomie. Par exemple, il peut être difficile de choisir si un libellé doit être un libellé parent ou un libellé enfant. Cela peut se produire parce que le libellé pourrait logiquement servir de large catégorie parente avec ses propres sous-catégories, ou qu'il pourrait s'agir d'une sous-catégorie spécifique d'une autre catégorie parente plus large.
Par exemple, imaginons un ensemble de données d'avis d'avis d'hôtel. De nombreux avis peuvent inclure la tarification de divers aspects des vacances et de l'hébergement tels que le restaurant, le bar, les salles, les activités, etc.
Choisissez un des choix suivants :
- Vous pouvez avoir la Tarification (Pricing) comme libellé parent, et chaque aspect spécifique de la tarification (c'est-à-dire restaurant) comme libellés enfants.
 - Cependant, vous pouvez également avoir des libellés parents liés à des aspects spécifiques tels que les restaurations et les salles, et avoir une tarification en tant qu'étiquette enfant sous chacun.
 
Lorsque vous décidez, assurez-vous de prendre en compte les éléments suivants :
- Souhaitez-vous inclure un nombre important d’autres concepts liés à ce sujet plus large ? Si oui, il doit s'agir d'un libellé parent.
 - Quel est l’élément le plus important à suivre du point de vue de la gestion des informations ou des rapports ? Pour reprendre notre exemple, il est utile d’identifier clairement dans les analyses de Communications Mining™ exactement combien de personnes mentionnent la tarification et ses sous-catégories, ou est-il plus utile d’afficher les statistiques globales sur les salles, les restaurations, les activités et alors, la tarification n’étant qu’un seul aspect de ces éléments ?
 
Il n’y a pas toujours de réponse claire ou erronée dans ces situations, et cela dépend en fin de compte de ce qui vous importe le plus et de votre entreprise.
Jusqu'à présent, nous avons expliqué comment nommer les libellés et les structurer en hiérarchies. Cependant, vous vous demandez peut-être ce qu'un libellé doit capturer exactement.
Il est important de se souvenir que Communications Mining™ est un outil de traitement automatique des langues (NLP). La plate-forme lit et interprète chaque message auquel un libellé est attribué, et commence à comprendre comment identifier ce concept de libellé basé principalement sur le texte qu'il contient.
Au fur et à mesure que vous ajoutez des exemples plus variés et cohérents pour chaque libellé, le modèle améliore sa compréhension de ce concept de libellé. Une fois qu'un libellé fonctionne bien, évitez d'en ajouter d'autres, car le processus entraînerait des résultats décroissants. Évitez également d'accepter un grand nombre de prédictions à haute confiance pour un libellé, car cela ne fournit pas au modèle de nouvelles informations.
Étant donné que Communications Mining utilise la langue du message pour comprendre et identifier ce qui constitue les concepts de libellé, le libellé doit être clairement identifiable à partir du texte des messages auxquels il est appliqué. Dans le cas d'un e-mail, cela inclut à la fois l'objet et le corps de l'e-mail.
Cancellation > Confirmation > Termination appliqué :
            Vous pouvez clairement déduire le nom du libellé à partir de l'objet et du corps de l'e-mail.
Bien que le modèle puisse prendre en compte certaines propriétés de métadonnées, telles que les scores NPS, lorsqu'il s'entraîne sur des ensembles de données de commentaires client pour aider à comprendre le sentiment, le texte du message reste les données les plus importantes pour les modèles Communications Mining.
Cela signifie que chaque libellé doit être spécifique dans ce qu'il vise à capturer. Sinon, le modèle aura du mal à identifier les tendances et les modèles dans la langue nécessaire pour prédire avec précision le concept de libellé.
Des libellés extrêmement larges tels que Requête générale (General Query) ou Tout le reste (Everyone) peuvent être peu utiles si vous les utilisez pour regrouper plusieurs sujets différents et qu’il n’y a pas de modèle clair ou de similitude entre les exemples fournis au modèle.
Pour que le modèle puisse prédire avec précision un libellé, il nécessite plusieurs exemples similaires des différentes expressions de chaque concept capturé par le libellé. Par conséquent, des libellés extrêmement larges nécessitent un très grand nombre d'exemples pour être prédits efficacement.
Il est préférable de diviser les libellés étendus en libellés distincts, même si vous avez Tout le reste > [Libellés enfants différents].
Si le modèle peut mieux identifier un libellé enfant parce qu’il est plus spécifique et plus clairement identifiable, par rapport à une catégorie parente très large, il pourra également améliorer considérablement sa capacité à prédire le libellé parent.
La fonctionnalité d’ annotation générative utilise des descriptions de libellés et des noms de libellés pour entraîner automatiquement un modèle spécialisé. Par conséquent, il est important d'ajouter des descriptions descriptives, claires et informatives à chaque libellé afin que le modèle puisse générer des prédictions précises.
Le modèle d’IA générative utilise des descriptions comme entrées pour pré-annoter les messages en arrière-plan. Cela réduit le temps et les efforts que vous passez à l'annotation manuelle des exemples.
Vous pouvez ajouter des descriptions de libellé une fois que le processus Créer un ensemble de données (Create Dataset) les a créées, ou vous pouvez les ajouter ou les modifier à partir de la page Taxonomy dans Paramètres de l'ensemble de données (Dataset Settings).
Un moyen efficace de maintenir la cohérence des libellés tout au long du processus de création de modèle consiste à ajouter des descriptions à chaque libellé. Cette option est utile si plusieurs utilisateurs entraînent votre modèle, car cela garantit que tous les utilisateurs ont la même compréhension d'un libellé donné et de son concept associé. Un autre avantage du maintien de la cohérence des libellés est qu'il rend le processus de transfert plus efficace si vous devez transférer le modèle à un autre utilisateur.