- Démarrage
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- General fields (previously Entities)
- Libellés (prédictions, niveaux de confiance, hiérarchie, etc.)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages examinés et non examinés
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Administration
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Créer un nouveau jeu de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modifier les paramètres d’un jeu de données
- Supprimer des messages via l'interface utilisateur
- Supprimer un jeu de données
- Exporter un jeu de données
- Utilisation des intégrations Exchange
- Préparation des données en vue du téléchargement du fichier .CSV
- Entraînement et maintenance du modèle
- Understanding labels, general fields and metadata
- Hiérarchie des libellés et bonnes pratiques
- Définition de vos objectifs de taxonomie
- Cas d'utilisation d'analyse vs d'automatisation
- Transformer vos objectifs en libellés
- Construire votre structure de taxonomie
- Meilleures pratiques de conception de taxonomie
- Importation de votre taxonomie
- Présentation du processus d'entraînement du modèle
- Annotation générative (New)
- Comprendre le statut de votre jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Réduction et réorganisation de votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation ?
- Comprendre et améliorer les performances du modèle
- Pourquoi un libellé peut-il avoir une précision moyenne faible ?
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Defining and setting up your general fields
- Understanding general fields
- Which pre-trained general fields are available?
- Enabling, disabling, updating and creating general fields
- General field filtering
- Reviewing and applying general fields
- Validation for general fields
- Improving general field performance
- Building custom regex general fields
- Extraction générative
- Utilisation des analyses et de la surveillance
- Automatisations et Communications Mining
- FAQ et plus encore
![](https://docs.uipath.com/_next/static/media/grid.05ebd128.png?w=3840&q=100)
Meilleures pratiques et considérations
The highlighted general field should cover the entire word (or several) in question, not just part of it. Don't include additional spaces at the end of the field.
Similar to labels, don't partially review your general and extraction fields.
- General fields are reviewed at the paragraph level, not the entire message level. When you review a paragraph for fields, review all the fields in the paragraph.
Not confirming a field in a paragraph where you have labelled other fields, tells the model that you don't consider it a genuine example of the predicted field. This is reflected in the validation scores and the general field performance.
- Extraction fields are reviewed at the message level, not just the paragraph level. When you review an entire message for fields, review all the fields in the message.
Not confirming a field in a message where you have labelled other fields, tells the model that you don’t consider it a genuine example of the predicted field. This is reflected in the validation scores and extraction field performance.
- Global fields cannot overlap with each other, or with another example of itself.
- Global fields and extraction fields can overlap with each other.
- You can use the same span of text as many times as needed by different extraction fields.
- There is currently no general field normalization preview in Communications Mining. Fields that should be normalized will get normalized in the downstream response. Normalization in Communications Mining will be available in the model in the future.
- If a child label has extractions on it, its parent doesn’t inherit the extraction examples automatically. For labels, its parent automatically inherits the extraction examples.
- Providing additional extraction examples does not improve the performance of a label. To improve the performance of a label, focus on label-specific training.
- Improving label performance allows you to increase the likelihood that you capture occurrences where a label (and subsequently its extractions) should have been predicted.
To improve the performance of your extractions, provide validated examples on the extractions itself.