- Démarrage
- Équilibre
- Clusters
- Dérive de concept
- Couverture
- Jeux de données
- General fields (previously Entities)
- Libellés (prédictions, niveaux de confiance, hiérarchie, etc.)
- Modèles
- Flux
- Évaluation du modèle
- Projets
- Précision
- Rappel
- Messages examinés et non examinés
- Sources
- Taxonomies
- Apprentissage
- Prédictions positives et négatives vraies et fausses
- Validation
- Messages
- Administration
- Gérer les sources et les jeux de données
- Comprendre la structure des données et les autorisations
- Créer une source de données dans l'interface graphique
- Téléchargement d’un fichier CSV dans une source
- Créer un nouveau jeu de données
- Sources et jeux de données multilingues
- Activation des sentiments sur un ensemble de données
- Modifier les paramètres d’un jeu de données
- Supprimer des messages via l'interface utilisateur
- Supprimer un jeu de données
- Exporter un jeu de données
- Utilisation des intégrations Exchange
- Préparation des données en vue du téléchargement du fichier .CSV
- Entraînement et maintenance du modèle
- Understanding labels, general fields and metadata
- Hiérarchie des libellés et bonnes pratiques
- Définition de vos objectifs de taxonomie
- Cas d'utilisation d'analyse vs d'automatisation
- Transformer vos objectifs en libellés
- Construire votre structure de taxonomie
- Meilleures pratiques de conception de taxonomie
- Importation de votre taxonomie
- Présentation du processus d'entraînement du modèle
- Annotation générative (New)
- Comprendre le statut de votre jeu de données
- Entraînement des modèles et annotation des meilleures pratiques
- Entraînement avec l'analyse des sentiments des libellés activée
- Entraîner
- Vue d'ensemble (Overview)
- Examen des prédictions de libellé
- Entraînement à l'aide de la classification par glisser-déposer
- Entraînement à l'aide de l'option Enseigner le libellé (Explore)
- Entraînement à l'aide d'une confiance faible
- Entraînement à l'aide de la recherche (Explorer)
- Réduction et réorganisation de votre taxonomie
- Introduction à affiner
- Précision et rappel expliqués
- Précision et rappel
- Comment fonctionne la validation ?
- Comprendre et améliorer les performances du modèle
- Pourquoi un libellé peut-il avoir une précision moyenne faible ?
- Entraînement à l'aide du libellé Vérifier (Check label) et du libellé Manqué (Missed Label)
- Entraînement à l'aide du libellé En savoir plus (Affiner)
- Entraînement à l'aide de la recherche (affiner)
- Comprendre et augmenter la couverture
- Amélioration de l'équilibre et utilisation du rééquilibrage
- Quand arrêter l'entraînement de votre modèle
- Defining and setting up your general fields
- Understanding general fields
- Which pre-trained general fields are available?
- Enabling, disabling, updating and creating general fields
- General field filtering
- Reviewing and applying general fields
- Validation for general fields
- Improving general field performance
- Building custom regex general fields
- Extraction générative
- Utilisation des analyses et de la surveillance
- Automatisations et Communications Mining
- FAQ et plus encore
![](https://docs.uipath.com/_next/static/media/grid.05ebd128.png?w=3840&q=100)
Valider et annoter les extractions générées
Give sufficient examples, so that the model can provide you with validation statistics. The validation statistics help you understand how well your extractions perform. Additionally, it allows you to fine-tune your extractions.
Review the results and:
- Accept the extraction(s) if they are all correct.
- Correct the extractions if there are any incorrect predictions.
- Mark extractions as missing if they are not present in the message.
- Configure any additional fields if any are missing that are required to enable end-to-end automation.
Why is fine-tuning important?
Fine-tuning allows you to use the annotations gathered to improve the performance of the extraction model.
It allows you to take the out-of-the-box model and enhance performance for your use cases.
When can you stop?
Stop once you provide at least 25 examples of label extractions for the model to use in its validation process. Check validation and see if the performance is sufficient, or whether more examples are needed.
# | Description |
1 | If all the field predictions are correct, selecting the Confirm button allows you to confirm that the annotations are correct, in bulk. |
2 | To add or modify any fields that should have been present in the message, select +, next to the general field or extraction field section. |
3 | Checking this box allows you to confirm that a field annotation is correct, on an extraction level. |
4 | This shows what data point was predicted for a given field.
If the prediction is incorrect, selecting the x button allows you to adjust the field with the correct one. |
5 | This shows the position in the message a data point(s) are predicted.
|
6 | To add or modify any fields, hover next to the + button, on the respective general field or extraction field section. |
7 | To expand the fields displayed for General Fields or specific Extraction Fields, select the dropdown button. |
The image below shows what an extraction looks like in its unconfirmed state. On the right pane, the extraction is marked as not confirmed, and the highlighting on the text itself has a lighter colour.
The Extractions Train tab is in public preview.
To validate your extractions via the Train tab, follow these steps:
- Go to Train.
- Go to Extraction.
- Select the label extraction that you want to validate.
- Once you select the label extraction you want to validate, confirm whether the displayed message is an applicable example of the label.
- Once you applied all the applicable labels, select Next: Annotate Fields.
- Validating extractions in the Train tab experience is similar to validating extractions in Explore.
The main difference is that you can see the messages in training batches.
- The confirm all and next button redirects you to the next message to annotate automatically.