- Erste Schritte
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- Allgemeine Felder (früher Entitäten)
- Bezeichnungen (Vorhersagen, Konfidenzniveaus, Hierarchie usw.)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Überprüfte und nicht überprüfte Nachrichten
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Verwaltung
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen Sie eine Datenquelle in der GUI
- Hochladen einer CSV-Datei in eine Quelle
- Ein neues Dataset erstellen
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern Sie die Einstellungen eines Datasets
- Löschen Sie Nachrichten über die Benutzeroberfläche
- Löschen Sie ein Dataset
- Löschen Sie eine Quelle
- Exportieren Sie ein Dataset
- Verwenden von Exchange-Integrationen
- Vorbereiten von Daten für den CSV-Upload
- Modelltraining und -wartung
- Verstehen von Beschriftungen, allgemeinen Feldern und Metadaten
- Bezeichnungshierarchie und bewährte Methode
- Definieren Ihrer Taxonomieziele
- Analyse- vs. Automatisierungsanwendungsfälle
- Konvertieren Ihrer Ziele in Bezeichnungen
- Erstellen Ihrer Taxonomiestruktur
- Best Practices für den Taxonomieentwurf
- Ihre Taxonomie wird importiert
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung (NEU)
- Verstehen des Status Ihres Datasets
- Best Practice für Modelltraining und Anmerkungen
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Trainieren
- Einführung in Verfeinerung
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- Wie funktioniert die Validierung?
- Verstehen und Verbessern der Modellleistung
- Warum kann eine Bezeichnung eine geringe durchschnittliche Genauigkeit haben?
- Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Abgleichs und Verwendung des Abgleichs
- Wann das Training Ihres Modells beendet werden soll
- Verwenden von allgemeinen Feldern
- Generative Extraktion
- Verwenden von Analyse und Überwachung
- Automatisierungs- und Communications Mining
- Lizenzierungsinformationen
- Häufige Fragen und mehr
Validierung
Auf der Seite Validierung werden Benutzern detaillierte Informationen über die Leistung ihres Modells sowohl für Bezeichnungen als auch für allgemeine Felder angezeigt.
Auf der Registerkarte „ Beschriftungen“ können Benutzer die gesamte Modellbewertung für die Beschriftung sehen, einschließlich einer detaillierten Aufschlüsselung der Faktoren, aus denen sich ihre Bewertung zusammensetzt, und anderer Metriken zu ihrem Dataset und der Leistung einzelner Beschriftungen.
Auf der Registerkarte Allgemeine Felder können Benutzer Statistiken über die Leistung von allgemeinen Feldvorhersagen für alle im Dataset aktivierten allgemeinen Felder anzeigen.
Beschriftungen
Die Registerkarte „ Faktoren“ (wie oben gezeigt) zeigt:
- Die vier Hauptfaktoren, die zur Modellbewertung beitragen: Ausgewogenheit, Abdeckung, durchschnittliche Bezeichnungsleistung und Leistung der Bezeichnungen mit der niedrigsten Leistung
- Für jeden Faktor wird eine Punktzahl und eine Aufschlüsselung der Personen angezeigt, die zur Punktzahl des Faktors beigetragen haben
- Anklickbare empfohlene nächste beste Aktionen, um die Punktzahl jedes Faktors zu verbessern
Die Registerkarte „ Metriken“ (wie unten gezeigt) zeigt:
- Die Größe des Trainingssatzes – d. h. die Anzahl der Nachrichten, für die das Modell trainiert wurde
- Die Testsatzgröße – d. h. die Anzahl der Nachrichten, für die das Modell ausgewertet wurde
- Anzahl der Bezeichnungen – d. h. die Gesamtzahl der Bezeichnungen in Ihrer Taxonomie
- Mittlere Präzision bei Rückruf – Ein Diagramm, das die durchschnittliche Präzision bei einem bestimmten Rückrufwert über alle Bezeichnungen hinweg zeigt
- Mittlere durchschnittliche Genauigkeit – eine Statistik, die die durchschnittliche Genauigkeit über alle Bezeichnungen hinweg zeigt
- Ein Diagramm, das für alle Bezeichnungen die durchschnittliche Genauigkeit pro Bezeichnung im Vergleich zur Größe des Trainingssatzes zeigt
Auf der Seite Validierung können Benutzer auch einzelne Bezeichnungen aus ihrer Taxonomie auswählen, um einen Drilldown in ihre Leistung durchzuführen.
Nach der Auswahl einer Bezeichnung können Benutzer die durchschnittliche Genauigkeit für diese Bezeichnung sehen sowie die Genauigkeit im Vergleich zur Wiedererkennung für diese Bezeichnung basierend auf einem bestimmten Konfidenzschwellenwert (den Benutzer selbst anpassen können).
Weitere Informationen zur Funktionsweise und Verwendung der Validierung für Beschriftungen finden Sie hier.
Allgemeine Felder
Die Registerkarte Allgemeine Felder (wie oben gezeigt) zeigt Folgendes an:
- Die Anzahl der allgemeinen Felder im Trainingssatz – d. h. die Anzahl der mit Anmerkungen versehenen allgemeinen Felder, für die das Validierungsmodell trainiert wurde
- Die Anzahl der allgemeinen Felder im Testsatz – d. h. die Anzahl der mit Anmerkungen versehenen allgemeinen Felder, für die das Validierungsmodell ausgewertet wurde
- Die Anzahl der Nachrichten im Trainingssatz – d. h. die Anzahl der Nachrichten, die über kommentierte allgemeine Felder im Trainingssatz verfügen
- Die Anzahl der Nachrichten im Testsatz – d. h. die Anzahl der Nachrichten, die über kommentierte allgemeine Felder im Testsatz verfügen
- Durchschnittliche Präzision – die durchschnittliche Genauigkeitspunktzahl für alle allgemeinen Felder
- Durchschnittliche Rückrufpunktzahl – die durchschnittliche Rückruf- Punktzahl für alle allgemeinen Felder
- Durchschnittliche F1-Punktzahl – die durchschnittliche F1-Punktzahl in allen allgemeinen Feldern (die F1-Punktzahl ist das harmonisierte Mittel von Präzision und Wiedererkennung und gewichtet sie gleich)
- Die gleichen Statistiken, aber für jedes einzelne allgemeine Feld
Weitere Informationen zur Funktionsweise und Verwendung der Validierung für allgemeine Felder finden Sie hier.