- Introduction
- Configuration de votre compte
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux
- Libellés (prédictions, niveaux de confiance, hiérarchie des libellés et sentiment des libellés)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages annotés et non annotés
- Extraction des champs
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Contrôle et administration de l'accès
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer ou supprimer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Préparation des données en vue du téléchargement du fichier .CSV
- Création d'un ensemble de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modification des paramètres du jeu de données
- Supprimer un message
- Supprimer un jeu de données
- Exporter un ensemble de données
- Utilisation d'intégrations Exchange
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie de libellés et meilleures pratiques
- Comparer les cas d’utilisation des analyses et des automatisations
- Transformer vos objectifs en libellés
- Présentation du processus d'entraînement du modèle
- Annotation générative
- Statut du jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Entraînement des données de chat et d'appels
- Comprendre les exigences de données
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Affiner et réorganiser votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation
- Comprendre et améliorer les performances du modèle
- Raisons de la faible précision moyenne des libellés
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Utilisation de champs généraux
- Extraction générative
- Vue d'ensemble (Overview)
- Configurer des champs
- Filtrage par type de champ d’extraction
- Génération de vos extractions
- Validation et annotation des extractions générées
- Meilleures pratiques et considérations
- Comprendre la validation des extractions et des performances d'extraction
- Questions fréquemment posées (FAQ)
- Utilisation des analyses et de la surveillance
- Automations et Communications Mining™
- Développeur
- Charger des données
- Téléchargement de données
- Intégration avec l'utilisateur du service Azure
- Intégration avec l'authentification d'application Azure
- Intégration d’Exchange avec l’authentification et le graphique d’application Azure
- Récupérer des données pour Tableau avec Python
- Intégration d'Elasticsearch
- Extraction de champ général
- Intégration avec Exchange auto-hébergée
- Infrastructure d’automatisation UiPath®
- Activités officielles UiPath®
- Comment les machines apprennent à comprendre les mots : guide d'intégration dans NLP
- Apprentissage basé sur des invites avec des Transformers
- Efficient Transformers II : Dilarisation des connaissances et affinement
- Transformateurs efficaces I : mécanismes d'attention
- Modélisation de l'intention hiérarchique profonde non supervisée : obtenir de la valeur sans données d'entraînement
- Correction des biais d’annotation avec Communications Mining™
- Apprentissage actif : de meilleurs modèles d'ML en moins de temps
- Tout est dans les chiffres : évaluer les performances du modèle avec des métriques
- Pourquoi la validation du modèle est importante
- Comparaison de Communications Mining™ et de Google AutoML pour l’information sur des données conversationnelles
- Licences
- FAQ et plus encore

Guide de l’utilisateur de Communications Mining
- Entraînement général du modèle
- Apprentissage des libellés
Quel est l’objectif de l’entraînement d’un modèle ?
L'objectif de l'entraînement d'un modèle est de créer un ensemble de données d'entraînement aussi représentatif que possible de l'ensemble de données dans son ensemble, afin que la plate-forme puisse prédire avec précision et confiance les libellés et les champs généraux pertinents pour chaque message. Les libellés et les champs généraux d'un ensemble de données doivent être intrinsèquement liés aux objectifs globaux du cas d'utilisation et fournir une valeur métier significative.
Pourquoi ne puis-je rien voir dans Découvrir si je vient de télécharger des données sur la plate-forme ?
Dès que les données sont téléchargées sur la plate-forme, la plate-forme commence un processus appelé apprentissage non supervisé, par lequel elle regroupe les messages en clusters d'intention sémantique similaire. Ce processus peut prendre jusqu'à quelques heures, selon la taille de l'ensemble de données, et les clusters apparaîtront une fois qu'il sera terminé.
De quelle quantité de données historiques ai-je besoin pour entraîner un modèle ?
Pour pouvoir entraîner un modèle, vous avez besoin d'un minimum de données historiques. Elles sont utilisées comme données d'entraînement pour fournir à la plate-forme les informations nécessaires pour prédire en toute confiance chacun des concepts pertinents pour votre analyse et/ou automatisation.
La recommandation pour tout cas d'utilisation est d'au moins 12 mois de données historiques, afin de capturer correctement toute semblabilité ou anomalie dans les données, comme les processus de fin de mois et les périodes d'activité.
Dois-je enregistrer mon modèle à chaque fois que j'apporte une modification ?
Non, vous n'avez pas besoin d'enregistrer votre modèle après que des modifications ont été apportées. Chaque fois que vous entraînez la plateforme sur vos données, c'est-à-dire que vous annotez des messages, une nouvelle version de modèle est créée pour votre ensemble de données. Les statistiques de performances des anciennes versions de modèle peuvent être consultées sur la page Validation .
Comment connaître les performances du modèle ?
Consultez la page Validation de la plate-forme, qui rapporte diverses mesures de performances et fournit une évaluation globale de la santé du modèle. Cette page est mise à jour après chaque événement d'entraînement et peut être utilisée pour identifier les domaines où le modèle pourrait avoir besoin d'autres exemples d'entraînement ou de corrections de libellés afin d'assurer la cohérence.
Pour obtenir des explications complètes sur les performances du modèle et les façons de les améliorer, consultez la section Validation .
Pourquoi n'y a-t-il que 30 clusters disponibles et pouvons-nous les définir individuellement ?
Les clusters constituent un moyen utile pour vous aider à créer rapidement votre taxonomie ; mais les utilisateurs passeront la plupart du temps à s'entraîner sur la page Explorer plutôt que sur Découvrir.
Si les utilisateurs passent trop de temps à annoter via des clusters, il y a un risque de surajuster le modèle pour rechercher des messages qui ne correspondent à ces clusters que lors de la réalisation des prédictions. Plus les exemples sont divers pour chaque étiquette, plus le modèle trouvera les différentes manières d'exprimer la même intention ou concept. C'est l'une des principales raisons pour lesquelles nous n'affichons que 30 clusters à la fois.
Une fois que suffisamment de formation est terminée ou qu'un volume important de données a été ajouté à la plate-forme, cependant, Discover se réentraîne. Lorsqu'il se réentraîne, il prend en compte l'entraînement existant à ce jour et tentera de présenter de nouveaux clusters qui ne sont pas bien couverts par la taxonomie actuelle.
Pour plus de détails, consultez Découvrir.
Combien de messages y a-t-il dans chaque cluster ?
Il y a 30 clusters au total, chacun contenant 12 messages. Dans la plate-forme, vous pouvez filtrer le nombre de messages affichés sur la page par incréments entre 6 et 12 par page. Nous vous recommandons d'en annoter 6 à la fois pour vous assurer que vous réduisez le risque d'annoter partiellement les messages.
Que signifient la précision et le rappel ?
La précision et le rappel sont des métriques utilisées pour mesurer les performances d'un modèle d'apprentissage automatique. Une description détaillée de chacune de ces options est disponible dans la section Utilisation de la validation ( Using Validation ) de nos guides pratiques.
Puis-je revenir à une version antérieure de mon modèle ?
Vous pouvez accéder à la vue d’ensemble de la validation des modèles antérieurs en survolant la version du modèle sur la page Validation . Cela peut être utile pour suivre et comparer les progrès pendant que vous entraînez votre modèle.
Si vous devez restaurer votre modèle vers une version épinglée précédente, consultez Restauration du modèle pour en savoir plus.
Puis-je modifier le nom d'un libellé ultérieurement ?
Oui, c'est très facile à faire. Vous pouvez accéder aux paramètres de chaque libellé et le renommer à tout moment. Pour plus de détails, consultez la section Modification des libellés.
Comment connaître le nombre de messages que j’ai annotés ?
Les informations sur votre ensemble de données, y compris le nombre de messages qui ont été annotés, s’affichent sur la page Paramètres des ensembles de données . Pour plus de détails sur la façon d’y accéder, consultez Modifier les paramètres de l'ensemble de données.
L'un de mes libellés fonctionne mal, que puis-je faire pour l'améliorer ?
Si la page Validation indique que votre libellé fonctionne mal, il existe différentes manières d'améliorer ses performances. Pour en savoir plus, consultez Comprendre et améliorer les performances du modèle.
Qu’est-ce que le disque rouge à côté de mon libellé ou de mon champ général indique ? Comment puis-je m'en débarrasser ?
Les petits disques rouges à côté de chaque étiquette/champ général indiquent si d'autres exemples sont nécessaires à la plateforme afin d'estimer avec précision les performances de l'étiquette/du champ général. Les compteurs commencent à disparaître au fur et à mesure que vous fournissez plus d'exemples d'entraînement et disparaîtront complètement une fois que vous aurez atteint 25 exemples.
Après cela, la plate-forme sera en mesure d’évaluer efficacement les performances d’un libellé/champ général donné et pourra renvoyer un avertissement de performance si le libellé ou le champ général n’est pas sain.
Dois-je éviter d'annoter les messages vides ou non informatifs ?
La plate-forme est capable d'apprendre à partir de messages vides et de messages non informatifs tant qu'ils sont correctement annotés. Cependant, il convient de noter que les libellés non informatifs nécessiteront probablement un nombre important d'exemples d'entraînement, ainsi que d'être regroupés de façon approximative par concept, pour garantir de meilleures performances.
- Entraînement général du modèle
- Quel est l’objectif de l’entraînement d’un modèle ?
- Pourquoi ne puis-je rien voir dans Découvrir si je vient de télécharger des données sur la plate-forme ?
- De quelle quantité de données historiques ai-je besoin pour entraîner un modèle ?
- Dois-je enregistrer mon modèle à chaque fois que j'apporte une modification ?
- Comment connaître les performances du modèle ?
- Pourquoi n'y a-t-il que 30 clusters disponibles et pouvons-nous les définir individuellement ?
- Combien de messages y a-t-il dans chaque cluster ?
- Que signifient la précision et le rappel ?
- Puis-je revenir à une version antérieure de mon modèle ?
- Apprentissage des libellés
- Puis-je modifier le nom d'un libellé ultérieurement ?
- Comment connaître le nombre de messages que j’ai annotés ?
- L'un de mes libellés fonctionne mal, que puis-je faire pour l'améliorer ?
- Qu’est-ce que le disque rouge à côté de mon libellé ou de mon champ général indique ? Comment puis-je m'en débarrasser ?
- Dois-je éviter d'annoter les messages vides ou non informatifs ?