- Introduction
- Configuration de votre compte
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux
- Libellés (prédictions, niveaux de confiance, hiérarchie des libellés et sentiment des libellés)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages annotés et non annotés
- Extraction des champs
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Contrôle et administration des accès
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer ou supprimer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Préparation des données en vue du téléchargement du fichier .CSV
- Création d'un ensemble de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modification des paramètres du jeu de données
- Supprimer un message
- Supprimer un jeu de données
- Exporter un ensemble de données
- Utilisation d'intégrations Exchange
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie de libellés et meilleures pratiques
- Comparer les cas d’utilisation des analyses et des automatisations
- Transformer vos objectifs en libellés
- Présentation du processus d'entraînement du modèle
- Annotation générative
- Statut du jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Entraînement des données de chat et d'appels
- Comprendre les exigences de données
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Affiner et réorganiser votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation
- Comprendre et améliorer les performances du modèle
- Raisons de la faible précision moyenne des libellés
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Utilisation de champs généraux
- Extraction générative
- Vue d'ensemble (Overview)
- Configurer des champs
- Filtrage par type de champ d’extraction
- Génération de vos extractions
- Validation et annotation des extractions générées
- Meilleures pratiques et considérations
- Comprendre la validation des extractions et des performances d'extraction
- Questions fréquemment posées (FAQ)
- Utilisation des analyses et de la surveillance
- Automations et Communications Mining™
- Développeur
- Intégration avec l'utilisateur du service Azure
- Intégration avec l'authentification d'application Azure
- Intégration d’Exchange avec l’authentification et le graphique d’application Azure
- Récupérer des données pour Tableau avec Python
- Intégration d'Elasticsearch
- Intégration avec Exchange auto-hébergée
- Infrastructure d’automatisation UiPath®
- Activités UiPath® Marketplace
- Activités officielles UiPath®
- Comment les machines apprennent à comprendre les mots : guide d'intégration dans NLP
- Apprentissage basé sur des invites avec des Transformers
- Efficient Transformers II : Dilarisation des connaissances et affinement
- Transformateurs efficaces I : mécanismes d'attention
- Modélisation de l'intention hiérarchique profonde non supervisée : obtenir de la valeur sans données d'entraînement
- Correction des biais d’annotation avec Communications Mining™
- Apprentissage actif : de meilleurs modèles d'ML en moins de temps
- Tout est dans les chiffres : évaluer les performances du modèle avec des métriques
- Pourquoi la validation du modèle est importante
- Comparaison de Communications Mining™ et de Google AutoML pour l’information sur des données conversationnelles
- Licences
- FAQ et plus encore

Guide de l’utilisateur de Communications Mining
La création d’un modèle approprié pour être déployé dans un environnement de production nécessite un investissement de temps qui est rapidement remboursé par la valeur des analyses en continu et des économies d’efficacité grâce à l’automatisation.
Si vous ne maintenez pas efficacement un modèle au fil du temps, ses avantages peuvent diminuer, car les performances du modèle pourraient diminuer sans entraînement supplémentaire périodique.
Cela est dû à la dérive du concept, qui fait référence à la situation dans laquelle les concepts qu'un modèle essaie de prédire peuvent changer de manière imprévue au fil du temps, ce qui rend les prédictions moins et moins précises.
Cela concerne essentiellement la façon dont les choses peuvent changer dans une entreprise, au fil du temps, et la façon dont elle communique en interne, avec les autres entreprises et avec ses clients. Si les données d’entraînement de votre modèle ne sont plus représentatives du fonctionnement actuel de votre entreprise, leurs performances seront pires lorsque vous tenterez d’identifier des concepts dans vos données de communication.
La gestion d’un modèle de production est un processus simple et rapide. La majorité des efforts requis ont déjà été déployés pour créer les données d’entraînement de votre modèle avant son déploiement.
Il existe deux approches principales pour maintenir un modèle, qui garantissent toutes deux que votre modèle dispose d'exemples d'entraînement supplémentaires utiles et représentatifs :
- Exception d'apprentissage
- Utilisation du mode Rééquilibrer
1. Entraînement des exceptions
Tout modèle utilisé à des fins d'automatisation doit posséder un processus d'exception en place pour identifier les messages que la plate-forme n'a pas pu identifier de manière fiable ou correcte. Pour plus de détails, consultez la section Automatisation en temps réel.
Ceci est important car cela vous permet essentiellement de trouver et d'annoter rapidement les messages avec lesquels la plate-forme a lutté, ce qui améliore la capacité du modèle à prédire les futurs messages similaires.
Un processus d’automatisation sera configuré pour marquer automatiquement les messages avec une propriété utilisateur qui l’identifie comme une exception. Vous pouvez ensuite filtrer ces messages dans Explorer et les annoter avec les libellés appropriés, afin de vous assurer que la plate-forme puisse identifier correctement et en toute confiance les messages similaires à l’avenir.
Cela doit faire partie d'un processus régulier qui vise à améliorer constamment le modèle. Plus les exceptions sont capturées et annotées, plus un modèle fonctionnera au fil du temps, en minimisant le nombre d'exceptions futures et en maximisant les gains d'efficacité que permet un modèle centré sur l'automatisation.
2. Utilisation du mode Équilibre et rééquilibrage
La notation d'équilibre de votre modèle fait partie de sa notation de modèle. Cela reflète la similarité, c'est-à-dire que les données de rejet de votre modèle sont représentatives de l'ensemble de données.
En bibliothèque, si les données les plus récentes ajoutées à un ensemble de données au fil du temps sont considérablement différentes des données plus anciennes utilisées pour entraîner le modèle, cela entraînerait une baisse du score de similarité qui détermine la note d' équilibrage de votre modèle.
Lors de l'entraînement d'exceptions, il est important de vérifier si le score de similarité du modèle diminue. Si c'est le cas, il convient d'y remédier, car cela pourrait être une indication de la dérive du concept et cela signifiera que les performances en production diminueront.
Le moyen le plus simple de corriger une baisse du score de similarité consiste à effectuer un entraînement à l'aide du mode Rééquilibrage .
Pour vous assurer d'entraîner les données les plus récentes représentatives du type de communications reçues aujourd'hui, vous pouvez également ajouter un filtre d'horodatage lors de l'entraînement dans Rééquilibrage, soit sur les 3, soit sur les 6 derniers mois. Cela garantit que votre modèle ne s'appuie pas uniquement sur des données d'entraînement obsolètes et qu'elles peuvent ne refléter aucun changement dans votre entreprise.