Communications Mining
Neuestes
False
- Erste Schritte
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- General fields (previously Entities)
- Bezeichnungen (Vorhersagen, Konfidenzniveaus, Hierarchie usw.)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Überprüfte und nicht überprüfte Nachrichten
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Verwaltung
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen Sie eine Datenquelle in der GUI
- Hochladen einer CSV-Datei in eine Quelle
- Ein neues Dataset erstellen
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern Sie die Einstellungen eines Datasets
- Löschen Sie Nachrichten über die Benutzeroberfläche
- Löschen Sie ein Dataset
- Exportieren Sie ein Dataset
- Verwenden von Exchange-Integrationen
- Vorbereiten von Daten für den CSV-Upload
- Modelltraining und -wartung
- Understanding labels, general fields and metadata
- Bezeichnungshierarchie und bewährte Methode
- Definieren Ihrer Taxonomieziele
- Analyse- vs. Automatisierungsanwendungsfälle
- Konvertieren Ihrer Ziele in Bezeichnungen
- Erstellen Ihrer Taxonomiestruktur
- Best Practices für den Taxonomieentwurf
- Ihre Taxonomie wird importiert
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung (NEU)
- Verstehen des Status Ihres Datasets
- Best Practice für Modelltraining und Anmerkungen
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Trainieren
- Einführung in Verfeinerung
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- Wie funktioniert die Validierung?
- Verstehen und Verbessern der Modellleistung
- Warum kann eine Bezeichnung eine geringe durchschnittliche Genauigkeit haben?
- Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Abgleichs und Verwendung des Abgleichs
- Wann das Training Ihres Modells beendet werden soll
- Defining and setting up your general fields
- Understanding general fields
- Which pre-trained general fields are available?
- Enabling, disabling, updating and creating general fields
- General field filtering
- Reviewing and applying general fields
- Validation for general fields
- Improving general field performance
- Building custom regex general fields
- Generative Extraktion
- Verwenden von Analyse und Überwachung
- Automatisierungs- und Communications Mining
- Häufige Fragen und mehr
Generieren Ihrer Extraktionen
Communications Mining-Benutzerhandbuch
Last updated 2. Juli 2024
Generieren Ihrer Extraktionen
Hinweis: Pre-requisites. Pick a label that has no performance indicators/warnings and is at a precision/recall level that’s appropriate for your use case.
- The Extraction validation process is required to understand the performance of these extractions via Validation.
Decide on the extraction that you want to train out. We use Report > Statement of Accounts as an example of a schema we want to train out.
To automate this process, extract the following data points to input into a downstream system:
Note: This is only applicable if you are training in Explore. In Train, clicking into an extraction training batch pre-loads the extractions.Use this training mode as required, to boost the number of training examples for each extraction (i.e., a set of fields assigned to a label) to at least 25, allowing the model to accurately estimate the performance of the extraction.
- Go to Explore then Label, and select the label you want to generate extractions on.
- Select Predict extractions. Predict extractions generates extractions on a per page basis in Explore (i.e.- this applies predictions on all the comments on a given page).
Note: Each time you go to the next page, you need to select Predict extractions again.
You can also generate extractions on an individual comment level. Select Annotate Fields, then Predict extractions icon.
- The model uses generative models and maps each of the data points that you previously defined (in our extraction schema), to relate to them to an intent (label).
- It extracts and returns them in a structured schema, for an SME to go through and confirm.
- The structured schema is intended to enable more complex automations, and is structured in JSON format in the API for consumption by any downstream automations.
- After making the extraction predictions, if the model picked up field extractions on the comment, it highlights the relevant span in the text (if applicable). The model displays the extracted value on the right-hand side. Check the Validating and annotating extractions page to learn how to validate the predicted values.