- Introduction
- Configuration de votre compte
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux
- Libellés (prédictions, niveaux de confiance, hiérarchie des libellés et sentiment des libellés)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages annotés et non annotés
- Extraction des champs
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Contrôle et administration de l'accès
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer ou supprimer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Préparation des données en vue du téléchargement du fichier .CSV
- Création d'un ensemble de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modification des paramètres du jeu de données
- Supprimer un message
- Supprimer un jeu de données
- Exporter un ensemble de données
- Utilisation d'intégrations Exchange
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie de libellés et meilleures pratiques
- Comparer les cas d’utilisation des analyses et des automatisations
- Transformer vos objectifs en libellés
- Présentation du processus d'entraînement du modèle
- Annotation générative
- Statut du jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Entraînement des données de chat et d'appels
- Comprendre les exigences de données
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Affiner et réorganiser votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation
- Comprendre et améliorer les performances du modèle
- Raisons de la faible précision moyenne des libellés
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Utilisation de champs généraux
- Extraction générative
- Vue d'ensemble (Overview)
- Configurer des champs
- Filtrage par type de champ d’extraction
- Génération de vos extractions
- Validation et annotation des extractions générées
- Meilleures pratiques et considérations
- Comprendre la validation des extractions et des performances d'extraction
- Questions fréquemment posées (FAQ)
- Utilisation des analyses et de la surveillance
- Automations et Communications Mining™
- Développeur
- Charger des données
- Téléchargement de données
- Intégration avec l'utilisateur du service Azure
- Intégration avec l'authentification d'application Azure
- Intégration d’Exchange avec l’authentification et le graphique d’application Azure
- Récupérer des données pour Tableau avec Python
- Intégration d'Elasticsearch
- Extraction de champ général
- Intégration avec Exchange auto-hébergée
- Infrastructure d’automatisation UiPath®
- Activités officielles UiPath®
- Comment les machines apprennent à comprendre les mots : guide d'intégration dans NLP
- Apprentissage basé sur des invites avec des Transformers
- Efficient Transformers II : Dilarisation des connaissances et affinement
- Transformateurs efficaces I : mécanismes d'attention
- Modélisation de l'intention hiérarchique profonde non supervisée : obtenir de la valeur sans données d'entraînement
- Correction des biais d’annotation avec Communications Mining™
- Apprentissage actif : de meilleurs modèles d'ML en moins de temps
- Tout est dans les chiffres : évaluer les performances du modèle avec des métriques
- Pourquoi la validation du modèle est importante
- Comparaison de Communications Mining™ et de Google AutoML pour l’information sur des données conversationnelles
- Licences
- FAQ et plus encore

Guide de l’utilisateur de Communications Mining
Grâce aux nombreuses fonctionnalités de validation de la plateforme, notamment la fonctionnalité d’évaluation du modèle , il est désormais relativement simple de comprendre quand arrêter l’entraînement de votre modèle.
Le niveau de performances requis pour votre modèle dépendra de vous et de votre entreprise, mais la notation du modèle de la plate-forme vous donne une grande idée du niveau de performance de votre modèle et indique comment l'améliorer si nécessaire.
Un modèle avec un score de 70 ou plus est classé comme Bonne, tandis qu’un score de 90 est requis pour qu’un modèle soit classé comme Excellent.
Quel que soit le cas d'utilisation, il est recommandé de vous assurer d'appliquer les éléments suivants avant d'arrêter l'entraînement :
- Que votre modèle ait au moins un score global fournissant une note globale adéquate , car cela signifie que la plate-forme considère que le modèle est globalement sain.
- Que chacun des facteurs individuels a également une note d’au moins Bon.
- Qu'aucun de vos libellés importants ne comporte d'avertissements de performance en rouge ou en orange.
Pour un modèle axé sur l'analyse, au-delà des facteurs listés précédemment, il doit déterminer la mesure dans laquelle il souhaite optimiser les performances de son modèle. Le prérequis de performances peut dépendre de divers facteurs, notamment les objectifs du cas d’utilisation et la capacité du système d’entraînement du modèle à poursuivre l’entraînement.
Si vous créez un modèle qui est destiné à activer les automatisations, il est recommandé que votre modèle ait une note Excellente et que le modèle soit testé sur des données en direct avant d'être déployé en production.
Vérifications de performances facultatives supplémentaires
Bien que l’ évaluation du modèle soit une évaluation complète des performances, vous souhaiterez peut-être effectuer quelques vérifications supplémentaires pour vous assurer que vous êtes entièrement à l’aise avec les performances de votre modèle.
Si tel est le cas, voici quelques vérifications utiles que vous pouvez effectuer avec les actions recommandées. Il est intéressant de noter que si la plate-forme estime qu'il est important que vous effectuiez l'une de ces actions, elle les recommandons également dans Validation.
Vérifier (Check) | Processus (Process) | Actions à effectuer |
---|---|---|
L’examen des prévisions sur une période de deux jours | Examiner les prédictions sur 1 à 2 jours de données récentes : utilisez le filtre temporel et sélectionnez « récents » dans la liste déroulante pour choisir 2 jours récents de données. Examinez les prédictions et assurez-vous que chaque message a une prédiction de confiance raisonnablement élevée. En examinant les prévisions d'un à deux jours de données, elle devrait s'assurer que tous les concepts potentiels sont couverts |
S'il y a des messages sans prédictions ou avec un niveau de confiance insuffisant, annotez-les comme d'habitude Entraînez- en davantage dans les modes Stable et Faible confiance |
Mélanger | Examinez les prédictions dans Mélanger pendant au moins 5 pages. Chaque message doit avoir un libellé prédit avec un niveau de confiance raisonnablement élevé |
S'il y a des messages sans prédictions ou avec un niveau de confiance insuffisant, annotez-les comme d'habitude Entraînez- en davantage dans les modes Stable et Faible confiance |
Niveau de confiance faible | Le mode Niveau de confiance faible affiche les messages qui ne sont pas bien couverts par les prédictions de libellés informatives. Ces messages n'auront soit aucune prédiction, soit des prédictions très peu fiables pour les libellés que la plate-forme comprend être informatifs. |
* S'il y a des messages qui n'ont pas été couverts, ajoutez-leur une nouvelle étiquette et entraînez-les comme d'habitude * Lorsque vous trouvez un message pour une étiquette existante, appliquez-le comme d'habitude |
Redécouvrir | Revenir à Découvrir peut vous montrer de nouveaux clusters potentiels où la probabilité qu'un libellé soit appliqué est faible. Cette option doit être utilisée pour s'assurer que vous n'avez manqué aucun libellé potentiel ou pour fournir des libellés existants avec des exemples plus variés, à la manière de l'option Niveau de confiance faible. |
S'il y a des clusters sans prédictions (ou très bas), annotez le cluster avec une nouvelle étiquette ou une étiquette existante le cas échéant * Entraînez tout nouveau libellé comme d'habitude |
Redécouvrir
Redécouvrir est une étape qui peut être reprise à tout moment pendant le processus d'entraînement, mais qui peut également être utile pour vérifier si vous avez terminé suffisamment d'entraînement.
Cette vérification consiste essentiellement à revenir à la page Découvrir en mode Cluster et à examiner les clusters qu’elle contient pour vérifier leurs prédictions et pour voir si Découvrir a trouvé des clusters qui peuvent avoir été omis par votre entraînement.
En tant que clusters dans Discover, le réentraînement après qu'une quantité importante d'entraînement a été terminée dans la plate-forme (180 annotations) ou une quantité importante de données a été ajoutée à l'ensemble de données (1 000 messages ou 1 %, selon le plus élevé, et au moins 1 annotation ), elles doivent être régulièrement mises à jour tout au long du processus de formation.
Découvrir essaie de trouver les clusters qui ne sont pas bien couverts par les prédictions de libellé. Si certains clusters dans Discover devraient avoir certains libellés prévus, mais pas, vous savez que vous devez effectuer un entraînement supplémentaire pour ces libellés. Pour plus de détails sur l'annotation des clusters dans Découvrir, consultez Entraîner à l'aide de clusters.
Si votre modèle est bien entraîné, Découvrir aura du mal à trouver des clusters avec un niveau de confiance faible ou sans prédictions. Si vous remarquez que chacun des clusters dans Découvrir a un niveau de confiance élevé et des prédictions correctes, c'est un bon indicateur que votre modèle couvre bien l'ensemble de données.