- Introduction
- Configuration de votre compte
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux
- Libellés (prédictions, niveaux de confiance, hiérarchie des libellés et sentiment des libellés)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages annotés et non annotés
- Extraction des champs
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Contrôle et administration de l'accès
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer ou supprimer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Préparation des données en vue du téléchargement du fichier .CSV
- Création d'un ensemble de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modification des paramètres du jeu de données
- Supprimer un message
- Supprimer un jeu de données
- Exporter un ensemble de données
- Utilisation d'intégrations Exchange
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie de libellés et meilleures pratiques
- Comparer les cas d’utilisation des analyses et des automatisations
- Transformer vos objectifs en libellés
- Présentation du processus d'entraînement du modèle
- Annotation générative
- Statut du jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Comprendre les exigences de données
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Affiner et réorganiser votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation
- Comprendre et améliorer les performances du modèle
- Raisons de la faible précision moyenne des libellés
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Utilisation de champs généraux
- Extraction générative
- Vue d'ensemble (Overview)
- Configurer des champs
- Filtrage par type de champ d’extraction
- Génération de vos extractions
- Validation et annotation des extractions générées
- Meilleures pratiques et considérations
- Comprendre la validation des extractions et des performances d'extraction
- Questions fréquemment posées (FAQ)
- Utilisation des analyses et de la surveillance
- Automations et Communications Mining™
- Développeur
- Charger des données
- Téléchargement de données
- Intégration avec l'utilisateur du service Azure
- Intégration avec l'authentification d'application Azure
- Intégration d’Exchange avec l’authentification et le graphique d’application Azure
- Récupérer des données pour Tableau avec Python
- Intégration d'Elasticsearch
- Extraction de champ général
- Intégration avec Exchange auto-hébergée
- Infrastructure d’automatisation UiPath®
- Activités officielles UiPath®
- Comment les machines apprennent à comprendre les mots : guide d'intégration dans NLP
- Apprentissage basé sur des invites avec des Transformers
- Efficient Transformers II : Dilarisation des connaissances et affinement
- Transformateurs efficaces I : mécanismes d'attention
- Modélisation de l'intention hiérarchique profonde non supervisée : obtenir de la valeur sans données d'entraînement
- Correction des biais d’annotation avec Communications Mining™
- Apprentissage actif : de meilleurs modèles d'ML en moins de temps
- Tout est dans les chiffres : évaluer les performances du modèle avec des métriques
- Pourquoi la validation du modèle est importante
- Comparaison de Communications Mining™ et de Google AutoML pour l’information sur des données conversationnelles
- Licences
- FAQ et plus encore

Guide de l’utilisateur de Communications Mining
La dernière étape clé d’ Explorer est l'entraînement à l'aide du mode de confiance Faible , qui affiche les messages qui ne sont pas bien couverts par les prédictions de libellés informatives. Ces messages n'auront soit aucune prédiction, soit des prédictions très peu fiables pour les libellés que la plate-forme comprend être informatifs.
Les libellés informatifs sont ces libellés que la plate-forme comprend comme utiles en tant que libellés autonomes, en examinant la fréquence à laquelle ils sont attribués avec d'autres libellés.
Il s'agit d'une étape très importante pour améliorer la couverture globale de votre modèle. Si vous voyez des messages pour lesquels des libellés existants devraient être prévus, c'est un signe que vous devez effectuer davantage d'entraînement pour ces libellés. Si vous identifiez des messages pertinents pour lesquels aucun libellé actuel n'est applicable, vous souhaiterez peut-être créer de nouveaux libellés pour les capturer.
Pour accéder au mode Niveau de confiance faible , utilisez le menu déroulant de la page Explorer , comme illustré dans l'image suivante :
Le mode Niveau de confiance faible vous présentera 20 messages à la fois. Vous devriez effectuer une quantité raisonnable d'entraînement dans ce mode, en parcourant plusieurs pages de messages et en appliquant les libellés appropriés, afin d'augmenter la couverture du modèle. Pour obtenir une explication détaillée de la couverture, consultez Quand arrêter l'entraînement de votre modèle.
Le nombre total d'entraînement que vous devez effectuer dans le niveau de confiance faible dépend de plusieurs facteurs différents :
- La quantité d'entraînement que vous avez terminée dans Mélanger et Apprendre. Plus vous effectuez d'entraînement dans Mélanger et Apprendre, plus votre ensemble d'entraînement devrait être un échantillon représentatif de l'ensemble de données dans son ensemble, et moins il devrait y avoir de messages pertinents en faible confiance.
- L'objectif de l'ensemble de données. Si l'ensemble de données est destiné à être utilisé dans le cadre de l'automatisation et nécessite une couverture très élevée, vous devez effectuer une plus grande partie de l'entraînement dans un niveau de confiance faible pour identifier les différents cas limites pour chaque libellé.
Au minimum, vous devez viser à annoter cinq pages de messages dans ce mode. Plus tard, dans la phase d’affinage , lorsque vous s’assurerez de vérifier votre couverture, vous constaterez peut-être que vous devrez peut-être effectuer davantage d’entraînement dans un niveau de confiance faible afin d’améliorer davantage votre couverture.