- Erste Schritte
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- General fields (previously Entities)
- Bezeichnungen (Vorhersagen, Konfidenzniveaus, Hierarchie usw.)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Überprüfte und nicht überprüfte Nachrichten
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Verwaltung
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen Sie eine Datenquelle in der GUI
- Hochladen einer CSV-Datei in eine Quelle
- Ein neues Dataset erstellen
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern Sie die Einstellungen eines Datasets
- Löschen Sie Nachrichten über die Benutzeroberfläche
- Löschen Sie ein Dataset
- Exportieren Sie ein Dataset
- Verwenden von Exchange-Integrationen
- Vorbereiten von Daten für den CSV-Upload
- Modelltraining und -wartung
- Understanding labels, general fields and metadata
- Bezeichnungshierarchie und bewährte Methode
- Definieren Ihrer Taxonomieziele
- Analyse- vs. Automatisierungsanwendungsfälle
- Konvertieren Ihrer Ziele in Bezeichnungen
- Erstellen Ihrer Taxonomiestruktur
- Best Practices für den Taxonomieentwurf
- Ihre Taxonomie wird importiert
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung (NEU)
- Verstehen des Status Ihres Datasets
- Best Practice für Modelltraining und Anmerkungen
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Trainieren
- Einführung in Verfeinerung
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- Wie funktioniert die Validierung?
- Verstehen und Verbessern der Modellleistung
- Warum kann eine Bezeichnung eine geringe durchschnittliche Genauigkeit haben?
- Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Abgleichs und Verwendung des Abgleichs
- Wann das Training Ihres Modells beendet werden soll
- Defining and setting up your general fields
- Understanding general fields
- Which pre-trained general fields are available?
- Enabling, disabling, updating and creating general fields
- General field filtering
- Reviewing and applying general fields
- Validation for general fields
- Improving general field performance
- Building custom regex general fields
- Generative Extraktion
- Überblick
- Generieren Ihrer Extraktionen
- Validieren und kommentieren Sie generierte Extraktionen
- Bewährte Methoden und Überlegungen
- Grundlegendes zur Validierung von Extraktionen und Extraktionsleistung
- Häufig gestellte Fragen
- Verwenden von Analyse und Überwachung
- Automatisierungs- und Communications Mining
- Häufige Fragen und mehr
![](https://docs.uipath.com/_next/static/media/grid.05ebd128.png?w=3840&q=100)
Grundlegendes zur Validierung von Extraktionen und Extraktionsleistung
The Extractions Validation page is in public preview.
The Validation page lets you drill down into the individual performance of each extraction. The All extractions performance chart plots the average precision of each label against the number of examples for that label in the training set.
- Select the Extractions tab from the top of the page.
- Check the Summary Stats. The summary stats are averages of each of the individual extraction scores. This covers average precision, average recall and average F1 score.
The main components that the model considers when assessing the extractions include:
- Did the model correctly predict the label?
- Did the model correctly predict all the fields associated with the label?
- Did the model correctly pick up how many times each of the extractions occur?
How the confidence levels work varies depending on the underlying LLM model that you use.
The Preview LLM does not have confidence levels on its predictions. The Preview LLM returns whether a label or field is a prediction (Yes = 1), or not (No = 0).
As a result, there is no concept of different confidence thresholds. The precision/recall is the same at every point on the threshold.
If you use the CommPath LLM, the model uses its Validation capabilities to predict which labels to apply to a communication. The model assigns each prediction a confidence score (%). This shows you how confident is the model that the label applies.
Use the adjustable slider to understand how different confidence thresholds affect the precision and recall scores.
This section describes the outputs of the get stream results activity. Check the Communications Mining dispatcher framework page for more details.
To automate with Generative extraction, it is important to understand the contents of the outputs of your extractions.
Occurrence confidence: Refers to how confident the model is around the number of instances a request might occur on a message (i.e.- how many times an extraction might occur).
As an example: To process a statement of accounts into a downstream system, you always need an Account ID, PO number, the payment amount, and the due date.
Check below the occurrence confidence example. It shows how the model can confidently identify that there are 2 potential occurrences where you need to facilitate this downstream process.
Extraction confidence is the model's confidence about its predictions. This includes how accurate it thinks it was in predicting a label's instance and its related fields. It also includes the model's confidence in correctly predicting if a field is missing.
Consider the same example as before. To process a statement of accounts into a downstream system, you always need an Account ID, PO number, the payment amount, and the due date.
However this time, the PO number is not present on the message, or the due date (only the start date).
The extraction confidence from this example is the model's confidence about identifying if the values for each field associated with the label are present. It also includes the model's confidence in correctly predicting if a field is missing.
In this case here, you don’t have all the fields you need, to be able to fully extract all the required fields.
Check below an example output of what the get stream response activity returns.
Stream refers to the threshold you set in Communications Mining, and if the message meets this threshold.
Instead of filtering out predictions based on thresholds, this route returns which prediction confidence met the thresholds.
In other words, if your thresholds were met, stream is returned. If not, then this value is empty.
Additionally, where there are multiple extractions, it is conditioned on the extractions before it.
For labels without extraction fields, the occurrence confidence is equivalent to the label confidence that you can see in the UI.