- Introduction
- Configuration de votre compte
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux
- Libellés (prédictions, niveaux de confiance, hiérarchie des libellés et sentiment des libellés)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages annotés et non annotés
- Extraction des champs
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Contrôle et administration de l'accès
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer ou supprimer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Préparation des données en vue du téléchargement du fichier .CSV
- Création d'un ensemble de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modification des paramètres du jeu de données
- Supprimer un message
- Supprimer un jeu de données
- Exporter un ensemble de données
- Utilisation d'intégrations Exchange
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie de libellés et meilleures pratiques
- Comparer les cas d’utilisation des analyses et des automatisations
- Transformer vos objectifs en libellés
- Présentation du processus d'entraînement du modèle
- Annotation générative
- Statut du jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Comprendre les exigences de données
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Affiner et réorganiser votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation
- Comprendre et améliorer les performances du modèle
- Raisons de la faible précision moyenne des libellés
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Utilisation de champs généraux
- Extraction générative
- Vue d'ensemble (Overview)
- Configurer des champs
- Filtrage par type de champ d’extraction
- Génération de vos extractions
- Validation et annotation des extractions générées
- Meilleures pratiques et considérations
- Comprendre la validation des extractions et des performances d'extraction
- Questions fréquemment posées (FAQ)
- Utilisation des analyses et de la surveillance
- Automations et Communications Mining™
- Développeur
- Charger des données
- Téléchargement de données
- Intégration avec l'utilisateur du service Azure
- Intégration avec l'authentification d'application Azure
- Intégration d’Exchange avec l’authentification et le graphique d’application Azure
- Récupérer des données pour Tableau avec Python
- Intégration d'Elasticsearch
- Extraction de champ général
- Intégration avec Exchange auto-hébergée
- Infrastructure d’automatisation UiPath®
- Activités officielles UiPath®
- Comment les machines apprennent à comprendre les mots : guide d'intégration dans NLP
- Apprentissage basé sur des invites avec des Transformers
- Efficient Transformers II : Dilarisation des connaissances et affinement
- Transformateurs efficaces I : mécanismes d'attention
- Modélisation de l'intention hiérarchique profonde non supervisée : obtenir de la valeur sans données d'entraînement
- Correction des biais d’annotation avec Communications Mining™
- Apprentissage actif : de meilleurs modèles d'ML en moins de temps
- Tout est dans les chiffres : évaluer les performances du modèle avec des métriques
- Pourquoi la validation du modèle est importante
- Comparaison de Communications Mining™ et de Google AutoML pour l’information sur des données conversationnelles
- Licences
- FAQ et plus encore

Guide de l’utilisateur de Communications Mining
La page Explorer (Explore) propose différents modes d'entraînement, et cette phase se concentre principalement sur trois d'entre eux :
- Mélanger : affiche une sélection aléatoire de messages à annoter par les utilisateurs. Assurez-vous de terminer un bloc important d'entraînement dans Mélanger, afin de créer un ensemble d'entraînement d'exemples représentatif de l'ensemble de données plus étendu.
- Apprendre : utilisé pour les messages non examinés. Dès que la plate-forme fait des prédictions raisonnables pour un libellé, vous pouvez améliorer la capacité de prédiction du libellé pour des exemples plus variés en examinant les messages en mode d'apprentissage par défaut, qui s'applique aux messages non examinés. Cela vous affichera les messages pour lesquels la plate-forme ne sait pas si le libellé sélectionné s'applique ou non.
- Confiance faible : affiche les messages qui ne sont pas bien couverts par les prédictions de libellés informatives. Ces messages n'auront soit aucune prédiction, soit des prédictions très peu fiables pour les libellés que la plate-forme comprend être informatifs.
Cette section couvrira également l'entraînement à l'aide de la fonction Rechercher dans Explorer, similaire à l'entraînement à l'aide de la fonction Rechercher dans Découvrir.
Apprendre à, pour les messages examinés, est un autre mode d'entraînement dans Explore. Pour de plus amples informations, consultez Affiner les modèles et utiliser la validation.
La mise en page de l'image affichée précédemment est expliquée dans le tableau suivant :
| 1 | Ajustez la plage de dates ou la période des messages affichés. |
| 2 | Ajoutez d'autres filtres en fonction des métadonnées des messages, par exemple score ou de l’expéditeur. |
| 3 | Ajoutez un filtre de champ général. |
| 4 | Basculez depuis tous les messages vers les messages examinés ou non examinés et ajustez également le nombre de libellés épinglés par rapport aux nombres de libellés prévus. |
| 5 | Ajoutez un filtre de libellé. |
| 6 | Recherchez des libellés spécifiques dans votre taxonomie. |
| 7 | Ajoutez des libellés supplémentaires. |
| 8 | Développez les métadonnées du message. |
| 9 | Actualisez la requête actuelle. |
| 10 | Basculez entre différents modes d'entraînement tels que récent, Mélanger, Apprendre et Niveau de confiance faible, puis sélectionnez un libellé à trier. |
| 11 | Recherchez dans l'ensemble de données des messages contenant des mots ou des phrases spécifiques. |
| 12 | Téléchargez tous les messages de cette page ou exportez l’ensemble de données avec les filtres appliqués sous forme de fichier CSV. |
Le nombre d'exemples requis pour prédire avec précision chaque libellé peut varier beaucoup en fonction de l'étendue ou de la spécificité d'un concept de libellé.
Il est possible qu'un libellé soit généralement associé à des mots, des phrases ou des intentions très spécifiques et facilement identifiables, et que la plate-forme soit capable de le prédire de manière cohérente avec relativement peu d'exemples d'entraînement. Il est possible qu'une étiquette capture un sujet général avec de nombreuses variations de langue différentes qui lui seraient associées, auquel cas, cela pourrait nécessiter beaucoup plus d'exemples d'entraînement pour permettre à la plate-forme d'identifier systématiquement les instances auxquelles l'étiquette doit s'appliquer.
La plate-forme peut souvent commencer à faire des prédictions pour un libellé avec moins de cinq exemples, bien que afin d’estimer avec précision les performances d’un libellé, c’est-à-dire la capacité de la plate-forme à le prédire, chaque libellé nécessite au moins 25 exemples.
Lors de l'annotation dans Explorer, les petits disques rouges à côté de chaque libellé indiquent si d'autres exemples sont nécessaires afin d'estimer avec précision les performances du libellé. Le dialogue commence à disparaître au fur et à mesure que vous fournissez plus d'exemples de formation et disparaîtra complètement une fois que vous atteignez 25.
Cela ne signifie pas qu'à l'aide de 25 exemples, la plate-forme sera en mesure de prédire avec précision chaque libellé, mais qu'elle sera au moins en mesure de valider la façon dont elle peut prédire chaque libellé et vous avertir si une formation supplémentaire est requise.
Pendant la phase d'exploration, assurez-vous d'avoir fourni au moins 25 exemples pour tous les libellés qui vous intéressent, en utilisant une combinaison des étapes mentionnées précédemment, c'est-à-dire principalement Mélanger et Non révisé.
Pendant la phase d'affinage, il peut être évident qu'un entraînement supplémentaire est nécessaire pour certains libellés afin d'améliorer leurs performances. Pour de plus amples informations, consultez Affiner les modèles et utiliser la validation.
Dans Explorer, une fois que vous atteignez 25 exemples épinglés pour un libellé, vous remarquerez peut-être l'un des indicateurs de performance du libellé suivants à la place du dialogue d'entraînement :
- Le gris est un indicateur que la plate-forme calcule les performances de ce libellé. Cela signifie qu'il sera mis à jour pour disparaître ou pour disparaître un cercle ou un cercle rouge une fois calculé.
- Amber est un indicateur que le libellé a des performances légèrement inférieures à des performances suffisantes et qui pourrait être amélioré.
- Rouge est un indicateur que le libellé fonctionne mal et qu’il nécessite un entraînement ou des mesures correctives supplémentaires pour l’améliorer.
- S'il n'y a pas de cercle, le libellé fonctionne à un niveau satisfaisant, bien qu'il puisse encore nécessiter des améliorations en fonction du cas d'utilisation et des niveaux de précision souhaités.
- Pour en savoir plus sur les performances des libellés et comment les améliorer, consultez Comprendre et améliorer les performances du modèle.
Si vous sélectionnez l'icône d'action, comme illustré dans les images suivantes, en haut de la barre de filtre de libellé pour filtrer les messages examinés, vous verrez le nombre de messages examinés auxquels ce libellé est appliqué.
Si vous sélectionnez l'icône d'ordinateur pour filtrer les messages non examinés, le nombre total de prédictions pour ce libellé sera affiché, qui comprend également le nombre d'exemples examinés.
Dans Explorer ( Explore), lorsque ni Révisé (Reviewed) ni Non révisé (Unreviewed) n'est sélectionné, la plate-forme affiche le nombre total de messages épinglés pour un libellé par défaut. Dans Rapports(Reports), la valeur par défaut est d'afficher le total prédit.
- Le modèle peut effectuer des prédictions avec seulement quelques messages annotés, mais pour qu'il puisse faire des prédictions fiables, vous devez annoter au moins 25 messages par libellé. Certains nécessiteront plus que cela, cela dépendra de la complexité des données, du libellé et de la cohérence avec laquelle les libellés ont été appliqués
- Dans Explorer, vous devez également essayer et trouver des messages pour lesquels le modèle a prédit un libellé de manière incorrecte. Vous devez supprimer les libellés incorrects et appliquer les bons libellés. Ce processus permet d’éviter que le modèle ne fasse une prédiction incorrecte similaire à l’avenir