- Introduction
- Configuration de votre compte
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux
- Libellés (prédictions, niveaux de confiance, hiérarchie des libellés et sentiment des libellés)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages annotés et non annotés
- Extraction des champs
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Contrôle et administration de l'accès
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer ou supprimer une source de données dans l'interface graphique
- Préparation des données en vue du téléchargement du fichier .CSV
- Téléchargement d’un fichier CSV dans une source
- Création d'un ensemble de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modification des paramètres du jeu de données
- Supprimer un message
- Supprimer un jeu de données
- Exporter un ensemble de données
- Utilisation d'intégrations Exchange
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie de libellés et meilleures pratiques
- Comparer les cas d’utilisation des analyses et des automatisations
- Transformer vos objectifs en libellés
- Présentation du processus d'entraînement du modèle
- Annotation générative
- Statut du jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Comprendre les exigences de données
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Affiner et réorganiser votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation
- Comprendre et améliorer les performances du modèle
- Raisons de la faible précision moyenne des libellés
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Utilisation de champs généraux
- Extraction générative
- Vue d'ensemble (Overview)
- Configurer des champs
- Filtrage par type de champ d’extraction
- Génération de vos extractions
- Validation et annotation des extractions générées
- Meilleures pratiques et considérations
- Comprendre la validation des extractions et des performances d'extraction
- Questions fréquemment posées (FAQ)
- Utilisation des analyses et de la surveillance
- Automations et Communications Mining™
- Développeur
- Charger des données
- Téléchargement de données
- Intégration avec l'utilisateur du service Azure
- Intégration avec l'authentification d'application Azure
- Intégration d’Exchange avec l’authentification et le graphique d’application Azure
- Guide de migration : Exchange Web Services (EWS) vers l'API Microsoft Graph
- Récupérer des données pour Tableau avec Python
- Intégration d'Elasticsearch
- Extraction de champ général
- Intégration avec Exchange auto-hébergée
- Infrastructure d’automatisation UiPath®
- Activités officielles UiPath®
- Comment les machines apprennent à comprendre les mots : guide d'intégration dans NLP
- Apprentissage basé sur des invites avec des Transformers
- Efficient Transformers II : Dilarisation des connaissances et affinement
- Transformateurs efficaces I : mécanismes d'attention
- Modélisation de l'intention hiérarchique profonde non supervisée : obtenir de la valeur sans données d'entraînement
- Correction des biais d’annotation avec Communications Mining™
- Apprentissage actif : de meilleurs modèles d'ML en moins de temps
- Tout est dans les chiffres : évaluer les performances du modèle avec des métriques
- Pourquoi la validation du modèle est importante
- Comparaison de Communications Mining™ et de Google AutoML pour l’information sur des données conversationnelles
- Licences
- FAQ et plus encore
Guide de l’utilisateur de Communications Mining
Vue d'ensemble (Overview)
L’intervention humaine dans la boucle (HITL) dans Communications Mining est conçue pour prendre en charge la prise de décision opérationnelle lorsque la confiance du modèle est insuffisante, tout en préservant l’intégrité des données d’entraînement du modèle.
Dans une automatisation de production, le modèle est utilisé pour classer les communications entrantes en temps réel. Lorsque le modèle ne peut pas prédire de manière fiable les libellés corrects, l'automatisation fait temporairement appel à un utilisateur humain pour valider ou corriger la prédiction afin que le processus métier puisse se poursuivre sans interruption.
Il est important de faire la distinction entre les éléments suivants :
- Validation opérationnelle effectuée par les utilisateurs finaux dans Action Center.
- Entraînement et maintenance des modèles que les entraîneurs de modèles effectueront ultérieurement.
La validation HITL garantit les éléments suivants :
- L'automatisation peut continuer immédiatement en utilisant des libellés corrigés.
- La communication est gérée correctement du point de vue commercial.
Cependant, la validation HITL ne réentraîne pas ou ne met pas directement à jour le modèle. Au lieu de cela, les communications qui ont requis une intervention humaine sont explicitement marquées comme exceptions, permettant aux entraîneurs de modèles de les examiner et de les annoter ultérieurement de manière contrôlée dans le cadre d’un processus de maintenance continue du modèle, c’est-à-dire l’entraînement des exceptions.
Cette séparation garantit :
- Données d’entraînement cohérentes et de haute qualité.
- Protection contre les annotations incomplètes ou biaisées.
- Amélioration continue du modèle sans impact sur les performances de l'automatisation en direct.
Workflow
- Le Robot récupère les communications du flux.
- Le Robot évalue la confiance du modèle.
- Si le niveau de confiance est inférieur au seuil, une validation est requise.
- Une tâche de validation est créée dans Action Center. Pour plus de détails, consultez la section Créer une tâche de formulaire.
- Le contenu de la communication et les libellés prévus sont présentés à un utilisateur humain.
- L'humain valide ou corrige les libellés dans Action Center.
- Ces corrections sont utilisées uniquement pour le traitement en aval, et non pour l’entraînement du modèle.
- Le Robot balise la communication comme exception via l’API. Cela signale le message qui sera examiné ultérieurement par les entraîneurs de modèle. Pour plus de détails, consultez Marquer une exception.
- Le Robot continue de traiter immédiatement. La communication n’est pas traitée par le flux.
- Les libellés corrigés sont appliqués à des fins opérationnelles, par exemple, un téléchargement vers Communications Mining ou des systèmes en aval.
- Plus tard, l’entraîneur du modèle examinera l’exception. L’entraîneur annote correctement le message dans Communications Mining. Ces annotations pourront être incluses dans les futurs cycles d’entraînement.
Les corrections de validation apportées dans Action Center ne réentraînent pas ou ne mettent pas automatiquement à jour le modèle.