- Démarrage
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- Champs généraux (anciennement entités)
- Libellés (prédictions, niveaux de confiance, hiérarchie, etc.)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages examinés et non examinés
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Administration
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Créer un nouveau jeu de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modifier les paramètres d’un jeu de données
- Supprimer des messages via l'interface utilisateur
- Supprimer un jeu de données
- Supprimer une source
- Exporter un jeu de données
- Utilisation des intégrations Exchange
- Préparation des données en vue du téléchargement du fichier .CSV
- Entraînement et maintenance du modèle
- Comprendre les libellés, les champs généraux et les métadonnées
- Hiérarchie des libellés et bonnes pratiques
- Définition de vos objectifs de taxonomie
- Cas d'utilisation d'analyse vs d'automatisation
- Transformer vos objectifs en libellés
- Construire votre structure de taxonomie
- Meilleures pratiques de conception de taxonomie
- Importation de votre taxonomie
- Présentation du processus d'entraînement du modèle
- Annotation générative (New)
- Comprendre le statut de votre jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Réduction et réorganisation de votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation ?
- Comprendre et améliorer les performances du modèle
- Pourquoi un libellé peut-il avoir une précision moyenne faible ?
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Utilisation de champs généraux
- Extraction générative
- Vue d'ensemble (Overview)
- Filtrage par type de champ d’extraction
- Génération de vos extractions
- Valider et annoter les extractions générées
- Meilleures pratiques et considérations
- Comprendre la validation des extractions et des performances d'extraction
- FAQ
- Utilisation des analyses et de la surveillance
- Automatisations et Communications Mining
- Informations de licence
- FAQ et plus encore
Comprendre la validation des extractions et des performances d'extraction
La page Validation affiche un aperçu des performances des extractions et vous aide à explorer les performances individuelles de chaque extraction.
Vous pouvez accéder à la page de validation à partir de l’onglet Extractions dans Validation et n’est disponible que si vous avez des champs d’extraction définis sur votre ensemble de données.
La page par défaut de la page Validation des extractions (Extractions Validation) est la page de vue d'ensemble « Tout », qui fournit les statistiques récapitulatives suivantes sur les performances globales des extractions dans l'ensemble de données :
- Score F1 moyen des extractions
- Précision moyenne des extractions
- Rappel moyen des extractions
Cliquez sur dans les libellés individuels pour voir les performances des extractions individuelles, c'est-à-dire le libellé et ses champs d'extraction associés.
Pour chaque extraction, vous pouvez voir les valeurs suivantes :
- Score F1
- Précision
- Rappel
Pour tous les champs d'extraction du libellé, vous pouvez voir les valeurs suivantes :
- Score F1 moyen
- Précision moyenne
- Rappel moyen
Pour chaque champ d'extraction individuel, vous pouvez voir les valeurs suivantes :
- Score F1
- Précision
- Rappel
Le fonctionnement des niveaux de confiance varie en fonction du modèle LLM sous-jacent que vous utilisez.
L'aperçu LLM n'a pas de niveaux de confiance sur ses prédictions. L' Aperçu LLM renvoie si une étiquette ou un champ est une prédiction (Oui = 1), ou non (Non = 0).
Par conséquent, il n'existe aucun concept de seuils de confiance différents.
Si vous utilisez CommPath LLM, le modèle utilise ses capacités de validation pour prédire les libellés à appliquer à une communication. Le modèle attribue à chaque prédiction un score de confiance (%). Cela vous montre à quel point le modèle appliqué par l'étiquette est fiable.
Cette section décrit les sorties de l'activité get stream results . Consultez la page Infrastructure du répartiteur Communications Mining pour plus de détails.
Pour automatiser avec l'extraction générative, il est important de comprendre le contenu des sorties de vos extractions.
Confiance d' occurrence (Occurrence confidence) : fait référence à la confiance du modèle par rapport au nombre d'instances où une requête peut se produire sur un message (c'est-à-dire, combien de fois une extraction peut se produire).
Par exemple : pour traiter un relevé de comptes dans un système en aval, vous avez toujours besoin d'un ID de compte, d'un numéro de bon de commande, du montant du paiement et de la date d'échéance.
Consultez ci-dessous l'exemple de confiance d'occurrence . Il montre comment le modèle peut identifier en toute confiance qu'il existe 2 occurrences potentielles où vous devez faciliter ce processus en aval.
La confiance d'extraction est la confiance du modèle concernant ses prédictions. Cela inclut sa précision lors de la prédiction de l'instance d'une étiquette et de ses champs associés. Il inclut également la confiance du modèle dans la prédiction correcte si un champ est manquant.
Retenez le même exemple qu'auparavant. Pour traiter un relevé de comptes dans un système en aval, vous avez toujours besoin d'un ID de compte, d'un numéro de bon de commande, du montant du paiement et de la date d'échéance.
Cependant, cette fois, le numéro de bon de commande n'est pas présent sur le message, ni la date d'échéance (uniquement la date de début).
La confiance d'extraction de cet exemple est la confiance du modèle permettant d'identifier si les valeurs de chaque champ associé à l'étiquette sont présentes. Il inclut également la confiance du modèle dans la prédiction correcte si un champ est manquant.
Dans ce cas ici, vous n'avez pas tous les champs nécessaires pour pouvoir extraire complètement tous les champs requis.
Consultez ci-dessous un exemple de sortie de ce que renvoie l'activité get stream response.
Le flux fait référence au seuil que vous définissez dans Communications Mining, et si le message dépasse ce seuil.
Au lieu de filtrer les prédictions en fonction des seuils, cet itinéraire renvoie la confiance de prédiction qui respecte les seuils.
En d’autres termes, si vos seuils ont été atteints, le flux est renvoyé. Sinon, cette valeur est vide.
De plus, en cas d'extractions multiples, il est conditionnel aux extractions qui précèdent.
Pour les libellés sans champs d'extraction, la confiance d'occurrence équivaut à la confiance d'étiquette que vous pouvez voir dans l'interface utilisateur.