- Introduction
- Configuration de votre compte
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux
- Libellés (prédictions, niveaux de confiance, hiérarchie des libellés et sentiment des libellés)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages annotés et non annotés
- Extraction des champs
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Contrôle et administration de l'accès
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer ou supprimer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Préparation des données en vue du téléchargement du fichier .CSV
- Création d'un ensemble de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modification des paramètres du jeu de données
- Supprimer un message
- Supprimer un jeu de données
- Exporter un ensemble de données
- Utilisation d'intégrations Exchange
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie de libellés et meilleures pratiques
- Comparer les cas d’utilisation des analyses et des automatisations
- Transformer vos objectifs en libellés
- Présentation du processus d'entraînement du modèle
- Annotation générative
- Statut du jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Entraînement des données de chat et d'appels
- Comprendre les exigences de données
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Affiner et réorganiser votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation
- Comprendre et améliorer les performances du modèle
- Raisons de la faible précision moyenne des libellés
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Utilisation de champs généraux
- Extraction générative
- Vue d'ensemble (Overview)
- Configurer des champs
- Filtrage par type de champ d’extraction
- Génération de vos extractions
- Validation et annotation des extractions générées
- Meilleures pratiques et considérations
- Comprendre la validation des extractions et des performances d'extraction
- Questions fréquemment posées (FAQ)
- Utilisation des analyses et de la surveillance
- Automations et Communications Mining™
- Développeur
- Charger des données
- Téléchargement de données
- Intégration avec l'utilisateur du service Azure
- Intégration avec l'authentification d'application Azure
- Intégration d’Exchange avec l’authentification et le graphique d’application Azure
- Récupérer des données pour Tableau avec Python
- Intégration d'Elasticsearch
- Extraction de champ général
- Intégration avec Exchange auto-hébergée
- Infrastructure d’automatisation UiPath®
- Activités officielles UiPath®
- Comment les machines apprennent à comprendre les mots : guide d'intégration dans NLP
- Apprentissage basé sur des invites avec des Transformers
- Efficient Transformers II : Dilarisation des connaissances et affinement
- Transformateurs efficaces I : mécanismes d'attention
- Modélisation de l'intention hiérarchique profonde non supervisée : obtenir de la valeur sans données d'entraînement
- Correction des biais d’annotation avec Communications Mining™
- Apprentissage actif : de meilleurs modèles d'ML en moins de temps
- Tout est dans les chiffres : évaluer les performances du modèle avec des métriques
- Pourquoi la validation du modèle est importante
- Comparaison de Communications Mining™ et de Google AutoML pour l’information sur des données conversationnelles
- Licences
- FAQ et plus encore

Guide de l’utilisateur de Communications Mining
Chaque fois que vous appliquez des libellés ou des champs généraux dans votre ensemble de données, votre modèle s’entraînera et une nouvelle version de modèle sera créée. Pour comprendre plus sur l'utilisation des différentes versions de modèle, consultez Épingler et baliser une version de modèle.
Lorsque le modèle se réentraîne, il prend les dernières informations qui lui ont été fournies et recalcule toutes ses prédictions sur l'ensemble de données. Ce processus commence lorsque vous commencez l’entraînement et, souvent, lorsque Communications Mining™ termine l’application des prédictions pour une version de modèle, il recalcule déjà les prédictions pour une version de modèle plus récente. Lorsque vous arrêtez l'entraînement après une période de temps, Communications Mining vous avance et appliquera les prédictions qui reflètent l'entraînement le plus récent terminé dans l'ensemble de données.
Ce processus peut prendre un certain temps, en fonction de la quantité d'entraînement terminée, de la taille de l'ensemble de données et du nombre de libellés dans la taxonomie. Communications Mining dispose d'une fonctionnalité de statut utile pour aider les utilisateurs à comprendre quand leur modèle est à jour ou s'il est en cours de réentraînement et combien de temps cela devrait prendre.
Lorsque vous êtes dans un ensemble de données, l'une des icônes suivantes indique son statut actuel :
L'ensemble de données est à jour et les prédictions de la dernière version du modèle ont été appliquées. | |
Le modèle est en cours de réentraînement et les prédictions peuvent ne pas être à jour. |
Pour afficher plus de détails sur le statut de l'ensemble de données, pointez sur l'icône avec votre souris :
- Entraînement de modèle : ce processus consiste à réentraîner la version actuelle du modèle afin d’en créer une nouvelle, en intégrant les modifications récentes telles que les mises à jour de la taxonomie ou les annotations de données. L’entraînement des modèles est généralement rapide, bien que sa durée puisse varier en fonction de plusieurs facteurs.
- Application des prédictions : ce processus se produit après l’entraînement du modèle, où la plateforme récupère et applique les prédictions de la version du modèle entraîné à chaque message. L’application des prédictions est généralement plus lente et la durée est principalement influencée par la taille et la complexité de l’ensemble de données.
- Complexité de la taxonomie des libellés et des champs
Impact : plus vous avez de libellés et de champs dans votre ensemble de données, plus le temps nécessaire pour entraîner le modèle et appliquer des prédictions à travers les messages.
- Utilisation de l’extraction générative
Impact : l'extraction générative nécessite de comprendre les relations complexes entre les libellés et les champs, ce qui nécessite un modèle plus volumineux et plus puissant, ce qui peut ralentir l'entraînement.
- Taille de votre jeu de données (données annotées et non annotées)
Impact : des volumes élevés de messages annotés augmentent les points de données que le modèle doit prendre en compte lors de l’entraînement, élargissant ainsi le processus. De même, des volumes élevés de messages non annotés peuvent prolonger le temps nécessaire à l’application des prédictions.
Remarque : les prédictions sont réaffichées dès qu'elles sont disponibles, vous n'avez donc pas besoin d'attendre qu'elles soient terminées lors de l'annotation. La plate-forme passera à l'application des prédictions de la dernière version du modèle entraîné si elle s'entraîne avant que les prédictions de la version précédente ne soient terminées. - Nombre d'ensembles de données entraînés simultanément
Impact : si plusieurs modèles s’entraînent simultanément dans votre environnement Communications Mining™, cela peut entraîner des ralentissements temporaires, car la charge de la plate-forme équilibre les services requis.
- Quand contacter le support
- Entraînement : si aucune des raisons précédentes n’attribue un entraînement lent et qu’il s’étend sur plus de 4 heures, contactez l’équipe d’assistance produit UiPath®.
- Application de prédictions : pour les ensembles de données volumineux et complexes, l'application de prédictions prendra beaucoup de temps. Contactez l’équipe de support produit uniquement si ce processus est en cours depuis plus de 24 heures pour une version de modèle unique.
Remarque : cela ne doit pas bloquer l'annotation des données, car vous bénéficierez toujours des nouvelles prédictions lorsque celles-ci seront disponibles.
Le modèle semble ne pas s’entraîner du tout
Si votre modèle ne commence pas l’entraînement dans l’heure qui suit, après avoir terminé une action qui devrait déclencher l’entraînement, telle que l’annotation des messages avec des libellés ou des champs, contactez l’équipe d’assistance produit UiPath®.
Vous pouvez vérifier si votre modèle est en cours d'entraînement en vérifiant le statut de l'ensemble de données sur n'importe quelle page d'un ensemble de données.