- Introduction
- Configuration de votre compte
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux
- Libellés (prédictions, niveaux de confiance, hiérarchie des libellés et sentiment des libellés)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages annotés et non annotés
- Extraction des champs
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Contrôle et administration des accès
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer ou supprimer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Préparation des données en vue du téléchargement du fichier .CSV
- Création d'un ensemble de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modification des paramètres du jeu de données
- Supprimer un message
- Supprimer un jeu de données
- Exporter un ensemble de données
- Utilisation d'intégrations Exchange
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie de libellés et meilleures pratiques
- Comparer les cas d’utilisation des analyses et des automatisations
- Transformer vos objectifs en libellés
- Présentation du processus d'entraînement du modèle
- Annotation générative
- Statut du jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Entraînement des données de chat et d'appels
- Comprendre les exigences de données
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Affiner et réorganiser votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation
- Comprendre et améliorer les performances du modèle
- Raisons de la faible précision moyenne des libellés
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Utilisation de champs généraux
- Extraction générative
- Vue d'ensemble (Overview)
- Configurer des champs
- Filtrage par type de champ d’extraction
- Génération de vos extractions
- Validation et annotation des extractions générées
- Meilleures pratiques et considérations
- Comprendre la validation des extractions et des performances d'extraction
- Questions fréquemment posées (FAQ)
- Utilisation des analyses et de la surveillance
- Automations et Communications Mining™
- Sélection des seuils de confiance des libellés
- Création de flux
- Mise à jour ou suppression d'un flux
- Développeur
- Intégration avec l'utilisateur du service Azure
- Intégration avec l'authentification d'application Azure
- Intégration d’Exchange avec l’authentification et le graphique d’application Azure
- Récupérer des données pour Tableau avec Python
- Intégration d'Elasticsearch
- Intégration avec Exchange auto-hébergée
- Infrastructure d’automatisation UiPath®
- Activités UiPath® Marketplace
- Activités officielles UiPath®
- Comment les machines apprennent à comprendre les mots : guide d'intégration dans NLP
- Apprentissage basé sur des invites avec des Transformers
- Efficient Transformers II : Dilarisation des connaissances et affinement
- Transformateurs efficaces I : mécanismes d'attention
- Modélisation de l'intention hiérarchique profonde non supervisée : obtenir de la valeur sans données d'entraînement
- Correction des biais d’annotation avec Communications Mining™
- Apprentissage actif : de meilleurs modèles d'ML en moins de temps
- Tout est dans les chiffres : évaluer les performances du modèle avec des métriques
- Pourquoi la validation du modèle est importante
- Comparaison de Communications Mining™ et de Google AutoML pour l’information sur des données conversationnelles
- Licences
- FAQ et plus encore

Guide de l’utilisateur de Communications Mining
La plate-forme est généralement utilisée dans l'une des premières étapes d'un processus automatisé : l'ingestion, l'interprétation et la structuration d'une communication entrante, telle qu'un e-mail de client, un peu comme le ferait un humain lorsque cet e-mail est arrivé dans sa boîte de réception.
Lorsque la plate-forme prévoit quels libellés ou balises s’appliquent à une communication, elle attribue à chaque prédiction un score de confiance (%) pour indiquer dans quelle mesure le libellé s’applique.
Si ces prédictions doivent être utilisées pour classer automatiquement la communication, il doit cependant y avoir une décision binaire, en d’autres termes, si ce libellé s’applique ou non. C'est là qu'interviennent les seuils de confiance .
Un seuil de confiance est le score de confiance (%) à ou au-dessus duquel un bot RPA ou un autre service d’automatisation prendra la prédiction de la plate-forme comme binaire Oui, ce libellé s’applique, et en dessous, il prendra la prédiction comme binaire Non , ce libellé ne s'applique pas.
Assurez-vous de bien comprendre les seuils de confiance et de savoir comment sélectionner celui qui vous convient, afin d'atteindre le bon équilibre de précision et de rappel pour ce libellé.
- Pour sélectionner un seuil pour un libellé, procédez comme suit :
- Accédez à la page Validation et sélectionnez le libellé dans la barre de filtre des libellés.
- Faites glisser le curseur du seuil ou saisissez un chiffre de % dans la zone indiquée dans l’image suivante afin d’afficher les différentes statistiques de précision et de rappel qui seraient obtenues pour ce seuil
- Le graphique Précision par rapport au rappel vous donne une indication visuelle des seuils de confiance qui maximiseraient la précision ou le rappel, ou fourniraient un équilibre entre les deux :
- Dans l'image 1, le seuil de confiance sélectionné (68,7 » maximisera la précision (100 %. Autrement dit, la plate-forme ne devrait généralement se tromper sur aucune prédiction à ce seuil, mais aurait pour effet une valeur de rappel plus faible (85 %.
- Dans l’image 2, le seuil de confiance sélectionné (39,8 % ) fournit un bon équilibre entre précision et rappel (92 %.
- Dans l'image 3, le seuil de confiance sélectionné (17) maximiserait le rappel (100 %. C'est-à-dire que la plate-forme devrait identifier chaque instance pour laquelle ce libellé devrait s'appliquer, mais aurait une valeur de précision plus faible (84 %.
En fonction de votre cas d'utilisation et du libellé spécifique en question, vous souhaiterez peut-être maximiser la précision ou le rappel, ou trouver le seuil qui donne le meilleur équilibre possible entre ces deux éléments.
Lorsque vous réfléchissez au seuil requis, tenez compte des résultats potentiels, par exemple le coût potentiel ou les conséquences potentielles pour votre entreprise si un libellé est mal appliqué ou s’il est omis.
Pour chaque libellé, votre seuil doit être choisi en fonction du meilleur résultat pour l'entreprise en cas de problème - c'est-à-dire que quelque chose est mal classé ( faux positif), ou que quelque chose manque ( faux négatif).
Par exemple, si vous souhaitiez classer automatiquement les communications entrantes dans différentes catégories, mais que vous aviez également un libellé pour les demandes Urgentes ayant acheminé des demandes vers une file d'attente de travail de haute priorité, vous pouvez maximiser le rappel pour ce libellé afin de vous assurer qu'aucune demande Urgent n'est envoyée. omis et acceptez une précision inférieure en conséquence. En effet, cela peut ne pas être très décourageant pour l'entreprise d'avoir des requêtes moins urgentes placées dans la file d'attente prioritaire, mais cela pourrait être très décourageant pour l'entreprise de passer à côté d'une demande urgente qui est sensible au temps.
Autre exemple, si vous automatisiez un type de requête de bout en bout qui était une forme de transaction monétaire ou de haute valeur, vous choisiriez probablement un seuil qui maximiser la précision, afin d'automatiser uniquement de bout en bout mettre fin aux transactions sur lesquelles la plate-forme était la plus fiable. Les prédictions avec des confiances inférieures au seuil étaient alors examinées manuellement. En effet, le coût d'une prédiction erronée (faux positif) est potentiellement très élevé si une transaction est ensuite traitée de manière incorrecte.
Une fois qu'un libellé a été suffisamment entraîné, Communications Mining™ vous suggère automatiquement des seuils, qui incluent les éléments suivants :
- Rappel élevé (High Recall) : maximiser le rappel de votre libellé tout en conservant une précision raisonnable pour le modèle.
- Haute précision: maximiser la précision de votre libellé avec un minimum de compromis sur le rappel du modèle.
- Équilibré (Balanced) : trouve même un équilibre entre précision et rappel, sans avoir pour priorité l'un par rapport à l'autre.