- Introduction
- Configuration de votre compte
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux
- Libellés (prédictions, niveaux de confiance, hiérarchie des libellés et sentiment des libellés)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages annotés et non annotés
- Extraction des champs
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Contrôle et administration de l'accès
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer ou supprimer une source de données dans l'interface graphique
- Préparation des données en vue du téléchargement du fichier .CSV
- Téléchargement d’un fichier CSV dans une source
- Création d'un ensemble de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modification des paramètres du jeu de données
- Supprimer un message
- Supprimer un jeu de données
- Exporter un ensemble de données
- Utilisation d'intégrations Exchange
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie de libellés et meilleures pratiques
- Comparer les cas d’utilisation des analyses et des automatisations
- Transformer vos objectifs en libellés
- Présentation du processus d'entraînement du modèle
- Annotation générative
- Statut du jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Comprendre les exigences de données
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Affiner et réorganiser votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation
- Comprendre et améliorer les performances du modèle
- Raisons de la faible précision moyenne des libellés
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Utilisation de champs généraux
- Extraction générative
- Vue d'ensemble (Overview)
- Configurer des champs
- Filtrage par type de champ d’extraction
- Génération de vos extractions
- Validation et annotation des extractions générées
- Meilleures pratiques et considérations
- Comprendre la validation des extractions et des performances d'extraction
- Questions fréquemment posées (FAQ)
- Utilisation des analyses et de la surveillance
- Automations et Communications Mining™
- Développeur
- Charger des données
- Téléchargement de données
- Intégration avec l'utilisateur du service Azure
- Intégration avec l'authentification d'application Azure
- Intégration d’Exchange avec l’authentification et le graphique d’application Azure
- Récupérer des données pour Tableau avec Python
- Intégration d'Elasticsearch
- Extraction de champ général
- Intégration avec Exchange auto-hébergée
- Infrastructure d’automatisation UiPath®
- Activités officielles UiPath®
- Comment les machines apprennent à comprendre les mots : guide d'intégration dans NLP
- Apprentissage basé sur des invites avec des Transformers
- Efficient Transformers II : Dilarisation des connaissances et affinement
- Transformateurs efficaces I : mécanismes d'attention
- Modélisation de l'intention hiérarchique profonde non supervisée : obtenir de la valeur sans données d'entraînement
- Correction des biais d’annotation avec Communications Mining™
- Apprentissage actif : de meilleurs modèles d'ML en moins de temps
- Tout est dans les chiffres : évaluer les performances du modèle avec des métriques
- Pourquoi la validation du modèle est importante
- Comparaison de Communications Mining™ et de Google AutoML pour l’information sur des données conversationnelles
- Licences
- FAQ et plus encore

Guide de l’utilisateur de Communications Mining
Lorsque vous créez une taxonomie en annotant des données, vous créez un modèle. Ce modèle utilisera les libellés que vous avez appliqués à un ensemble de données pour identifier des concepts et des intentions similaires dans d'autres messages et prédire les libellés qui leur seront appliqués.
Ainsi, chaque libellé disposera de son propre ensemble de scores de précision et de rappel.
Par exemple, envisagez d'avoir, dans le cadre d'une taxonomie, un libellé dans la plate-forme appelé Demande d'informations. Dans ce scénario, la précision et le rappel peuvent y être liés comme suit :
- Précision : pour 100 messages prédits comme ayant le libellé « Demande d'information », il s'agit du pourcentage de fois où la « Demande d'information » a été correctement prédite par rapport au nombre total de fois où elle a été prédite. Une précision de 95 % signifierait que pour 100 messages, 95 seraient correctement annotés en tant que « Demande d’information » et 5 seraient annotés de façon incorrecte (c’est-à-dire qu’ils n’auront pas dû être annotés avec ce libellé)
- Rappel : pour 100 messages qui auraient dû être annotés en tant que « Demande d’information », combien la plate-forme a-t-elle trouvé. Un rappel de 77 % aurait pu signifier que 23 messages auraient dû être censés être appliqués comme libellé « Demande d’information », mais qu’ils ont été omis
Le rappel entre tous les libellés est directement lié à la couverture de votre modèle.
Si vous êtes sûr que votre taxonomie couvre tous les concepts pertinents dans votre ensemble de données et que vos libellés ont une précision adéquate, le rappel de ces libellés déterminera la façon dont votre ensemble de données est bien couverts par les prédictions des libellés. Si tous vos libellés ont un rappel élevé, votre modèle aura une couverture élevée.
Nous devons également comprendre le compromis entre précision et rappel dans une version de modèle particulière.
Les statistiques de précision et de rappel de chaque libellé dans une version de modèle donnée sont déterminées par un seuil de confiance (c.-à-d. quel est le niveau de confiance du modèle auquel ce libellé s’applique ?).
La plate-forme publie des statistiques de précision et de rappel en direct sur la page Validation, et les utilisateurs sont en mesure de comprendre comment différents seuils de confiance affectent les scores de précision et de rappel à l'aide du curseur personnalisable.
Lorsque vous augmentez le seuil de confiance, le modèle est plus certain qu'une étiquette s'applique et, par conséquent, la précision augmente généralement. Dans le même temps, comme le modèle doit être plus fiable pour appliquer une prédiction, il fera moins de prédictions et le rappel diminuera généralement. L'inverse est également généralement le cas lorsque vous diminuez le seuil de confiance.
Ainsi, en règle générale, lorsque vous ajustez le seuil de confiance et que la précision s'améliore, le rappel diminue généralement, et vice versa.
Au sein de la plate-forme, il est important de comprendre ce compromis et ce que cela signifie lors de la configuration des automatisations à l'aide de la plate-forme. Les utilisateurs devront définir un seuil de confiance pour le libellé qu'ils souhaitent intégrer dans le cadre de leur automatisation, et ce seuil doit être ajusté pour fournir des statistiques de précision et de rappel acceptables pour ce processus.
Certains processus peuvent accorder une valeur élevée de rappel (capture d'autant d'instances d'un événement que possible), tandis que d'autres accordent une haute précision (identification correcte des instances d'un événement).