- Introduction
- Configuration de votre compte
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux
- Libellés (prédictions, niveaux de confiance, hiérarchie des libellés et sentiment des libellés)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages annotés et non annotés
- Extraction des champs
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Contrôle et administration de l'accès
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer ou supprimer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Préparation des données en vue du téléchargement du fichier .CSV
- Création d'un ensemble de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modification des paramètres du jeu de données
- Supprimer un message
- Supprimer un jeu de données
- Exporter un ensemble de données
- Utilisation d'intégrations Exchange
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie de libellés et meilleures pratiques
- Comparer les cas d’utilisation des analyses et des automatisations
- Transformer vos objectifs en libellés
- Présentation du processus d'entraînement du modèle
- Annotation générative
- Statut du jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Entraînement des données de chat et d'appels
- Comprendre les exigences de données
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Affiner et réorganiser votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation
- Comprendre et améliorer les performances du modèle
- Raisons de la faible précision moyenne des libellés
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Utilisation de champs généraux
- Extraction générative
- Vue d'ensemble (Overview)
- Configurer des champs
- Filtrage par type de champ d’extraction
- Génération de vos extractions
- Validation et annotation des extractions générées
- Meilleures pratiques et considérations
- Comprendre la validation des extractions et des performances d'extraction
- Questions fréquemment posées (FAQ)
- Utilisation des analyses et de la surveillance
- Automations et Communications Mining™
- Développeur
- Charger des données
- Téléchargement de données
- Intégration avec l'utilisateur du service Azure
- Intégration avec l'authentification d'application Azure
- Intégration d’Exchange avec l’authentification et le graphique d’application Azure
- Récupérer des données pour Tableau avec Python
- Intégration d'Elasticsearch
- Extraction de champ général
- Intégration avec Exchange auto-hébergée
- Infrastructure d’automatisation UiPath®
- Activités officielles UiPath®
- Comment les machines apprennent à comprendre les mots : guide d'intégration dans NLP
- Apprentissage basé sur des invites avec des Transformers
- Efficient Transformers II : Dilarisation des connaissances et affinement
- Transformateurs efficaces I : mécanismes d'attention
- Modélisation de l'intention hiérarchique profonde non supervisée : obtenir de la valeur sans données d'entraînement
- Correction des biais d’annotation avec Communications Mining™
- Apprentissage actif : de meilleurs modèles d'ML en moins de temps
- Tout est dans les chiffres : évaluer les performances du modèle avec des métriques
- Pourquoi la validation du modèle est importante
- Comparaison de Communications Mining™ et de Google AutoML pour l’information sur des données conversationnelles
- Licences
- FAQ et plus encore

Guide de l’utilisateur de Communications Mining
La troisième phase, la dernière étape du processus d'entraînement, s'appelle Affiner. Le but de cette étape est de comprendre les performances de votre modèle et de l'affiner jusqu'à ce qu'il fonctionne comme prévu. Cela implique d'améliorer des libellés spécifiques qui ne fonctionnent pas comme prévu, de vous assurer que vous avez capturé tous les concepts de libellé pertinents et de vous assurer que vos données d'entraînement sont une représentation équilibrée de l'ensemble de données dans son ensemble.
La plate-forme est conçue pour être entièrement transparente pour les utilisateurs en ce qui concerne les performances du modèle, et très flexible lorsqu'il s'agit d'améliorer les performances dans les domaines qui le nécessitent. Pour tout cas d'utilisation, vous voulez être sûr que votre modèle capture une représentation précise du contenu de votre ensemble de données, et cette phase de l'entraînement permet de garantir que vous pouvez l'être.
Cette section de la Base de connaissances couvrira en détail les étapes décrites ci-dessous, mais commencera par des explications détaillées sur la précision et le rappel, le fonctionnement de la Validation et la compréhension des différents aspects des performances du modèle.
-
Examiner l'évaluation du modèle : cette étape consiste à vérifier l'évaluation de votre modèle lors de la validation et à identifier les domaines où la plateforme suppose des problèmes de performances avec votre modèle, ainsi que des conseils sur la manière de les résoudre. Cette section comprend des détails sur la compréhension et l’amélioration des performances du modèle.
-
Affiner les performances des libellés : cette étape consiste à prendre des mesures, recommandées par la plate-forme, afin d'améliorer les performances de vos libellés. Il s'agit notamment de l'utilisation des modes d'entraînement Vérifier le libellé et Manqué libellé , qui vous aide à corriger les incohérences potentielles dans votre annotation, ainsi que le mode Apprendre au libellé . Pour plus de détails, consultez Entraîner à l'aide de l'apprentissage des libellés (Explorer).
-
Augmenter la couverture : permet de garantir qu'une grande partie de votre ensemble de données est couverte par des prédictions de libellés significatives.
-
Améliorer l'équilibre : cette étape consiste à s'assurer que vos données d'entraînement sont une représentation équilibrée de l'ensemble de données dans son ensemble. L’amélioration de l’équilibre de l’ensemble de données permet de réduire les biais d’annotation et d’augmenter la fiabilité des prédictions effectuées.