- Introduction
- Configuration de votre compte
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux
- Libellés (prédictions, niveaux de confiance, hiérarchie des libellés et sentiment des libellés)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages annotés et non annotés
- Extraction des champs
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Contrôle et administration de l'accès
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer ou supprimer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Préparation des données en vue du téléchargement du fichier .CSV
- Création d'un ensemble de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modification des paramètres du jeu de données
- Supprimer un message
- Supprimer un jeu de données
- Exporter un ensemble de données
- Utilisation d'intégrations Exchange
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie de libellés et meilleures pratiques
- Comparer les cas d’utilisation des analyses et des automatisations
- Transformer vos objectifs en libellés
- Présentation du processus d'entraînement du modèle
- Annotation générative
- Statut du jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Comprendre les exigences de données
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Affiner et réorganiser votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation
- Comprendre et améliorer les performances du modèle
- Raisons de la faible précision moyenne des libellés
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Utilisation de champs généraux
- Extraction générative
- Vue d'ensemble (Overview)
- Configurer des champs
- Filtrage par type de champ d’extraction
- Génération de vos extractions
- Validation et annotation des extractions générées
- Meilleures pratiques et considérations
- Comprendre la validation des extractions et des performances d'extraction
- Questions fréquemment posées (FAQ)
- Utilisation des analyses et de la surveillance
- Automations et Communications Mining™
- Développeur
- Charger des données
- Téléchargement de données
- Intégration avec l'utilisateur du service Azure
- Intégration avec l'authentification d'application Azure
- Intégration d’Exchange avec l’authentification et le graphique d’application Azure
- Récupérer des données pour Tableau avec Python
- Intégration d'Elasticsearch
- Extraction de champ général
- Intégration avec Exchange auto-hébergée
- Infrastructure d’automatisation UiPath®
- Activités officielles UiPath®
- Comment les machines apprennent à comprendre les mots : guide d'intégration dans NLP
- Apprentissage basé sur des invites avec des Transformers
- Efficient Transformers II : Dilarisation des connaissances et affinement
- Transformateurs efficaces I : mécanismes d'attention
- Modélisation de l'intention hiérarchique profonde non supervisée : obtenir de la valeur sans données d'entraînement
- Correction des biais d’annotation avec Communications Mining™
- Apprentissage actif : de meilleurs modèles d'ML en moins de temps
- Tout est dans les chiffres : évaluer les performances du modèle avec des métriques
- Pourquoi la validation du modèle est importante
- Comparaison de Communications Mining™ et de Google AutoML pour l’information sur des données conversationnelles
- Licences
- FAQ et plus encore

Guide de l’utilisateur de Communications Mining
Cette section explique comment valider les prédictions de champ pour vos extractions.
Les extractions peuvent être des types suivants :
- Extractions générées : le modèle prévoit les extractions en fonction de l'entrée que vous avez fournie, c'est-à-dire des libellés et des annotations, lorsque vous sélectionnez Prévoir les extractions.
- Extractions créées manuellement : vous pouvez créer des champs d’extraction pour un libellé spécifique, si le modèle ne l’a pas déjà prédit.
Assurez-vous de fournir suffisamment d'exemples pour que le modèle puisse renvoyer des statistiques de validation. Les statistiques de validation vous aident à comprendre les performances de vos extractions. Par ailleurs, elle vous permet d’affiner vos extractions.
Le peaufinage vous permet d'utiliser les annotations rassemblées pour améliorer les performances du modèle d'extraction. Il vous permet également d'utiliser le modèle prêt à l'emploi et d'améliorer les performances pour vos cas d'utilisation.
- Vous pouvez décider quand arrêter l'entraînement des libellés
- Les extractions ont des exigences de performance différentes en fonction du cas d'utilisation.
Examinez les résultats de l'extraction et, selon le cas, vous pouvez choisir parmi les actions suivantes :
- Acceptez les extractions si elles sont toutes correctes.
- Corrigez les extractions en cas de prédictions incorrectes.
- Marquez les extractions comme manquantes si elles ne sont pas présentes dans le message.
- Configurez tous les champs supplémentaires requis pour activer l'automatisation de bout en bout.
Vue d'ensemble (Overview)
| # | Description |
| 1 | Si toutes les prédictions de champ sont correctes, sélectionnez Confirmer tout pour valider en bloc que les annotations sont correctes. |
| 2 | Pour ajouter de nouveaux champs d’extraction, sélectionnez le bouton Plus, à côté de Champs généraux (General Fields) ou à côté de l’un des champs d’extraction. Pour modifier les champs existants, sélectionnez l’ellipse verticale à côté des champs généraux ou à côté de l’un des champs d’extraction. |
| 3 | Dans le panneau latéral, si vous cochez la case en regard des extractions prévues, vous confirmez qu’une annotation de champ est correcte, au niveau de l’extraction. |
| 4 | Sous chaque champ, vous pouvez trouver le point de données prédit par le modèle.
Si la prédiction est incorrecte, sélectionnez le bouton x pour ajuster le champ avec la bonne prédiction. |
| 5 | Les points de données prévus sont marqués dans le message d'origine.
|
| 6 | Pour ajouter ou modifier des champs, pointez à côté du bouton + , sur la section de champ général ou de champ d’extraction respective. |
| 7 | Afin de développer les champs affichés pour les champs généraux ou des champs d’extraction spécifiques, sélectionnez le bouton déroulant. |
Validation des extractions
- Sélectionnez Explorer (Explore) à côté d'un ensemble de données pour accéder à cet ensemble de données particulier.
- Sous l'onglet Parcourir (Explore) , sélectionnez Annoter les champs (Annotate fields).
- Dans le panneau latéral, sélectionnez le bouton Prévoir les extractions (Predict extractions) .
- Dans le même panneau latéral, les indicateurs correspondants marqués par un cercle rouge ou vert sont affichés à côté des prédictions du modèle.
Remarque : les indicateurs de correspondance indiquent si les prédictions du modèle correspondent aux annotations que vous avez effectuées pour les champs d’extraction. Les indicateurs sont marqués dans l’interface utilisateur par un cercle rouge ou vert au niveau du champ et des niveaux d’extraction. Si les valeurs ne correspondent pas, les valeurs ne correspondent pas ou sont manquantes. Vous pouvez réexécuter les dernières prédictions du modèle pour confirmer si elles correspondent aux annotations fournies.Les états qui peuvent être renvoyés par les indicateurs correspondants sont :
- Vert : les prédictions correspondent aux annotations. N’est visible au niveau de l’extraction que si tous les champs d’extraction ont des indicateurs vert.
- Rouge : soit les prédictions ne correspondent pas aux annotations, soit une prédiction ne contient pas d'annotation. Est visible au niveau de l'extraction si l'un des champs de l'extraction a un indicateur rouge.
Extraction d’état non confirmée
L'image suivante montre à quoi ressemble une extraction dans son état non confirmé . Dans le volet de droite, l'extraction est marquée comme non confirmée et la mise en surbrillance du texte lui-même est d'une couleur plus claire.
Extraction de l’état confirmée
L'image suivante montre à quoi ressemblent les champs dans leur état confirmé . Dans le volet de droite, l'extraction est marquée comme Confirmée (Confirmed) et la mise en surbrillance sur le texte lui-même a une couleur plus foncée.
Vous validez les extractions sous l'expérience de l'onglet Entraîner (Train) de la même manière que dans l'onglet Explorer (Explore) .
Pour valider vos extractions, appliquez les étapes suivantes :
- Sélectionnez Entraîner à côté d'un ensemble de données pour accéder à cet ensemble de données particulier.
- Sous l'onglet Entraîner (Train) , sélectionnez Extractions (Extractions).
- Sélectionnez l'extraction de libellés que vous souhaitez valider.
- Confirmez si le message affiché est un exemple applicable du libellé.
- Une fois que vous avez appliqué tous les libellés applicables, sélectionnez Suivant : Annoter les champs.
- Sur la page qui suit, les indicateurs correspondants marqués par un cercle rouge ou vert sont affichés à côté des prédictions du modèle.
Remarque : les indicateurs de correspondance indiquent si les prédictions du modèle correspondent aux annotations que vous avez effectuées pour les champs d’extraction. Les indicateurs sont marqués dans l’interface utilisateur par un cercle rouge ou vert au niveau du champ et des niveaux d’extraction. Si les valeurs ne correspondent pas, vous remarquerez que les valeurs ne correspondent pas ou sont manquantes. Vous pouvez réexécuter les dernières prédictions du modèle pour confirmer si elles correspondent aux annotations fournies.Les états qui peuvent être renvoyés par les indicateurs correspondants sont :
- Vert : les prédictions correspondent aux annotations. N’est visible au niveau de l’extraction que si tous les champs d’extraction ont des indicateurs vert.
- Rouge : soit les prédictions ne correspondent pas aux annotations, soit une prédiction ne contient pas d'annotation. Est visible au niveau de l'extraction si l'un des champs de l'extraction a un indicateur rouge.
- Sélectionnez Confirmer tout et suivant (Confirm all and next) pour afficher le message suivant à annoter automatiquement.