- Erste Schritte
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- General fields (previously Entities)
- Bezeichnungen (Vorhersagen, Konfidenzniveaus, Hierarchie usw.)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Überprüfte und nicht überprüfte Nachrichten
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Verwaltung
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen Sie eine Datenquelle in der GUI
- Hochladen einer CSV-Datei in eine Quelle
- Ein neues Dataset erstellen
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern Sie die Einstellungen eines Datasets
- Löschen Sie Nachrichten über die Benutzeroberfläche
- Löschen Sie ein Dataset
- Exportieren Sie ein Dataset
- Verwenden von Exchange-Integrationen
- Vorbereiten von Daten für den CSV-Upload
- Modelltraining und -wartung
- Understanding labels, general fields and metadata
- Bezeichnungshierarchie und bewährte Methode
- Definieren Ihrer Taxonomieziele
- Analyse- vs. Automatisierungsanwendungsfälle
- Konvertieren Ihrer Ziele in Bezeichnungen
- Erstellen Ihrer Taxonomiestruktur
- Best Practices für den Taxonomieentwurf
- Ihre Taxonomie wird importiert
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung (NEU)
- Verstehen des Status Ihres Datasets
- Best Practice für Modelltraining und Anmerkungen
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Trainieren
- Einführung in Verfeinerung
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- Wie funktioniert die Validierung?
- Verstehen und Verbessern der Modellleistung
- Warum kann eine Bezeichnung eine geringe durchschnittliche Genauigkeit haben?
- Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Abgleichs und Verwendung des Abgleichs
- Wann das Training Ihres Modells beendet werden soll
- Defining and setting up your general fields
- Understanding general fields
- Which pre-trained general fields are available?
- Enabling, disabling, updating and creating general fields
- General field filtering
- Reviewing and applying general fields
- Validation for general fields
- Improving general field performance
- Building custom regex general fields
- Generative Extraktion
- Verwenden von Analyse und Überwachung
- Automatisierungs- und Communications Mining
- Häufige Fragen und mehr
Bewährte Methoden und Überlegungen
The highlighted general field should cover the entire word (or several) in question, not just part of it. Don't include additional spaces at the end of the field.
Similar to labels, don't partially review your general and extraction fields.
- General fields are reviewed at the paragraph level, not the entire message level. When you review a paragraph for fields, review all the fields in the paragraph.
Not confirming a field in a paragraph where you have labelled other fields, tells the model that you don't consider it a genuine example of the predicted field. This is reflected in the validation scores and the general field performance.
- Extraction fields are reviewed at the message level, not just the paragraph level. When you review an entire message for fields, review all the fields in the message.
Not confirming a field in a message where you have labelled other fields, tells the model that you don’t consider it a genuine example of the predicted field. This is reflected in the validation scores and extraction field performance.
- Global fields cannot overlap with each other, or with another example of itself.
- Global fields and extraction fields can overlap with each other.
- You can use the same span of text as many times as needed by different extraction fields.
- There is currently no general field normalization preview in Communications Mining. Fields that should be normalized will get normalized in the downstream response. Normalization in Communications Mining will be available in the model in the future.
- If a child label has extractions on it, its parent doesn’t inherit the extraction examples automatically. For labels, its parent automatically inherits the extraction examples.
- Providing additional extraction examples does not improve the performance of a label. To improve the performance of a label, focus on label-specific training.
- Improving label performance allows you to increase the likelihood that you capture occurrences where a label (and subsequently its extractions) should have been predicted.
To improve the performance of your extractions, provide validated examples on the extractions itself.