- Introduction
- Configuration de votre compte
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux
- Libellés (prédictions, niveaux de confiance, hiérarchie des libellés et sentiment des libellés)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages annotés et non annotés
- Extraction des champs
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Contrôle et administration de l'accès
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer ou supprimer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Préparation des données en vue du téléchargement du fichier .CSV
- Création d'un ensemble de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modification des paramètres du jeu de données
- Supprimer un message
- Supprimer un jeu de données
- Exporter un ensemble de données
- Utilisation d'intégrations Exchange
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie de libellés et meilleures pratiques
- Comparer les cas d’utilisation des analyses et des automatisations
- Transformer vos objectifs en libellés
- Présentation du processus d'entraînement du modèle
- Annotation générative
- Statut du jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Comprendre les exigences de données
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Affiner et réorganiser votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation
- Comprendre et améliorer les performances du modèle
- Raisons de la faible précision moyenne des libellés
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Utilisation de champs généraux
- Extraction générative
- Vue d'ensemble (Overview)
- Configurer des champs
- Filtrage par type de champ d’extraction
- Génération de vos extractions
- Validation et annotation des extractions générées
- Meilleures pratiques et considérations
- Comprendre la validation des extractions et des performances d'extraction
- Questions fréquemment posées (FAQ)
- Utilisation des analyses et de la surveillance
- Automations et Communications Mining™
- Développeur
- Charger des données
- Téléchargement de données
- Intégration avec l'utilisateur du service Azure
- Intégration avec l'authentification d'application Azure
- Intégration d’Exchange avec l’authentification et le graphique d’application Azure
- Récupérer des données pour Tableau avec Python
- Intégration d'Elasticsearch
- Extraction de champ général
- Intégration avec Exchange auto-hébergée
- Infrastructure d’automatisation UiPath®
- Activités officielles UiPath®
- Comment les machines apprennent à comprendre les mots : guide d'intégration dans NLP
- Apprentissage basé sur des invites avec des Transformers
- Efficient Transformers II : Dilarisation des connaissances et affinement
- Transformateurs efficaces I : mécanismes d'attention
- Modélisation de l'intention hiérarchique profonde non supervisée : obtenir de la valeur sans données d'entraînement
- Correction des biais d’annotation avec Communications Mining™
- Apprentissage actif : de meilleurs modèles d'ML en moins de temps
- Tout est dans les chiffres : évaluer les performances du modèle avec des métriques
- Pourquoi la validation du modèle est importante
- Comparaison de Communications Mining™ et de Google AutoML pour l’information sur des données conversationnelles
- Licences
- FAQ et plus encore

Guide de l’utilisateur de Communications Mining
Mélanger est la première étape de la phase Explorer et son objectif est de fournir aux utilisateurs une sélection aléatoire de messages qu'ils pourront examiner. En mode aléatoire, la plate-forme vous affichera les messages dont les prédictions couvrent tous les libellés, et là où il n'y en a pas, de sorte que l'étape Mélanger diffère des autres dans Explorer dans le fait qu'elle ne se concentre pas sur un libellé spécifique à entraîner, mais les couvre tous.
Il est très important d'utiliser le mode Mélanger pour vous assurer que vous fournissez à votre modèle des exemples d'entraînement suffisants représentatifs de l'ensemble de données dans son ensemble et qui ne sont pas biaisés en vous concentrant uniquement sur des domaines très spécifiques des données.
Au moins 10 % de l'entraînement que vous avez terminé dans votre ensemble de données doit être en mode Mélanger .
L’annotation en mode Mélanger permet de s’assurer que votre taxonomie couvre bien les données de votre ensemble de données et vous empêche de créer un modèle qui peut faire des prédictions avec précision uniquement sur une petite fraction des données de l’ensemble de données.
Regarder dans les messages en mode Mélanger est donc un moyen facile de se faire comprendre comment se comporte le modèle global et peut être consulté tout au long du processus d’entraînement. Dans une taxonomie bien entraînée, vous devriez être en mesure de parcourir tous les messages non examinés sur Mélanger et d’accepter simplement les prédictions pour entraîner davantage le modèle. Si vous constatez que beaucoup de prédictions sont incorrectes, vous pouvez voir quels libellés nécessitent davantage d'entraînement.
Parcourir plusieurs pages sur Mélanger plus tard dans le processus d'entraînement est également un bon moyen de vérifier s'il existe des intentions ou des concepts qui n'ont pas été capturés par votre taxonomie et qui auraient dû l'être. Vous pouvez ensuite ajouter des libellés existants le cas échéant, ou en créer de nouveaux si nécessaire.
- Sélectionnez Mélanger dans le menu déroulant pour voir 20 messages aléatoires.
- Filtrer sur les messages non examinés.
- Examinez chaque message et toutes les prédictions associées :
- S'il y a des prédictions, vous devez soit les confirmer, soit les rejeter. Confirmez en sélectionnant ceux qui s’appliquent.
- Vous devez également ajouter tous les autres libellés supplémentaires qui s'appliquent.
- Si vous rejetez les prédictions, vous devriez appliquer tous les libellés corrects. Assurez-vous de ne pas laisser le message sans libellé appliqué.
- Vous pouvez également appuyer sur le bouton Actualiser pour obtenir un nouvel ensemble de messages, ou passer à la page suivante en sélectionnant les numéros de page ou les flèches.
Il est recommandé d’annoter au moins 10 pages de messages dans Mélanger. Dans les ensembles de données volumineux contenant de nombreux exemples d’entraînement, cela pourrait être beaucoup plus.