- Erste Schritte
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- Allgemeine Felder (früher Entitäten)
- Bezeichnungen (Vorhersagen, Konfidenzniveaus, Hierarchie usw.)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Überprüfte und nicht überprüfte Nachrichten
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Verwaltung
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen Sie eine Datenquelle in der GUI
- Hochladen einer CSV-Datei in eine Quelle
- Ein neues Dataset erstellen
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern Sie die Einstellungen eines Datasets
- Löschen Sie Nachrichten über die Benutzeroberfläche
- Löschen Sie ein Dataset
- Löschen Sie eine Quelle
- Exportieren Sie ein Dataset
- Verwenden von Exchange-Integrationen
- Vorbereiten von Daten für den CSV-Upload
- Modelltraining und -wartung
- Verstehen von Beschriftungen, allgemeinen Feldern und Metadaten
- Bezeichnungshierarchie und bewährte Methode
- Definieren Ihrer Taxonomieziele
- Analyse- vs. Automatisierungsanwendungsfälle
- Konvertieren Ihrer Ziele in Bezeichnungen
- Erstellen Ihrer Taxonomiestruktur
- Best Practices für den Taxonomieentwurf
- Ihre Taxonomie wird importiert
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung (NEU)
- Verstehen des Status Ihres Datasets
- Best Practice für Modelltraining und Anmerkungen
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Trainieren
- Einführung in Verfeinerung
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- Wie funktioniert die Validierung?
- Verstehen und Verbessern der Modellleistung
- Warum kann eine Bezeichnung eine geringe durchschnittliche Genauigkeit haben?
- Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Abgleichs und Verwendung des Abgleichs
- Wann das Training Ihres Modells beendet werden soll
- Verwenden von allgemeinen Feldern
- Generative Extraktion
- Verwenden von Analyse und Überwachung
- Automatisierungs- und Communications Mining
- Lizenzierungsinformationen
- Häufige Fragen und mehr
Präzision und Rückruf
Überblick
Wenn Sie eine Taxonomie durch Kommentieren von Daten erstellen, erstellen Sie ein Modell. Dieses Modell verwendet die Bezeichnungen, die Sie auf einen Datensatz angewendet haben, um ähnliche Konzepte und Absichten in anderen Nachrichten zu identifizieren und vorherzusagen, welche Bezeichnungen für sie gelten.
Auf diese Weise hat jede Bezeichnung ihre eigenen Präzisions- und Rückrufbewertungen .
Angenommen, wir haben als Teil einer Taxonomie eine Beschriftung in der Plattform namens „Informationsanforderung“. In welcher Beziehung stehen Präzision und Rückruf dazu?
- Genauigkeit: Für alle 100 Nachrichten, die mit dem Label „Informationsanforderung“ vorhergesagt wurden, ist dies der Prozentsatz der Häufigkeit, mit der die „Informationsanforderung“ korrekt vorhergesagt wurde. Eine Genauigkeit von 95 % würde bedeuten, dass von je 100 Nachrichten 95 korrekt als „Informationsanforderung“ und 5 falsch gekennzeichnet würden (d. h. sie hätten nicht mit dieser Bezeichnung gekennzeichnet werden dürfen).
- Rückruf: Wie viele hat die Plattform für je 100 Nachrichten gefunden, die als „Informationsanfrage“ hätten kommentiert werden müssen. Eine Erkennung von 77 % würde bedeuten, dass es 23 Nachrichten gab, die mit der Beschriftung „Anforderung an Informationen“ hätten vorhergesagt werden müssen, diese aber verpasst haben
„Rückruf“ über alle Bezeichnungen hinweg steht in direktem Zusammenhang mit der Abdeckung Ihres Modells.
Wenn Sie sicher sind, dass Ihre Taxonomie alle relevanten Konzepte in Ihrem Dataset abdeckt und Ihre Beschriftungen eine angemessene Genauigkeit aufweisen, dann bestimmt der Rückruf dieser Beschriftungen, wie gut Ihr Dataset durch Beschriftungsvorhersagen abgedeckt ist. Wenn alle Ihre Bezeichnungen einen hohen Wiedererkennungswert haben, wird Ihr Modell eine hohe Abdeckung haben.
Genauigkeit vs. Rückruf
Wir müssen auch den Zielkonflikt zwischen Präzision und Wiedererkennung innerhalb einer bestimmten Modellversion verstehen.
Die Präzisions- und Rückrufstatistiken für jede Bezeichnung in einer bestimmten Modellversion werden durch einen Konfidenzschwellenwert bestimmt (d. h Wie sicher ist das Modell, auf das diese Bezeichnung angewendet wird?).
Die Plattform veröffentlicht Präzisions- und Rückrufstatistiken live auf der Seite Validierung, und Benutzer können mithilfe des anpassbaren Schiebereglers nachvollziehen, wie sich unterschiedliche Konfidenzschwellenwerte auf die Präzisions- und Rückrufbewertungen auswirken.
Wenn Sie den Konfidenzschwellenwert erhöhen, ist das Modell sicherer, dass eine Bezeichnung zutrifft, und daher nimmt die Genauigkeit in der Regel zu. Da das Modell jedoch sicherer sein muss, um eine Vorhersage anzuwenden, werden gleichzeitig weniger Vorhersagen getroffen und die Rückrufe werden in der Regel zurückgehen. Das Umgekehrte ist in der Regel auch der Fall, wenn Sie den Konfidenzschwellenwert verringern.
Als Faustregel gilt: Wenn Sie den Konfidenzschwellenwert anpassen und sich die Genauigkeit verbessert, wird die Wiedererkennung in der Regel verringern und umgekehrt.
Innerhalb der Plattform ist es wichtig, diesen Zielkonflikt zu verstehen und zu verstehen, was er beim Einrichten von Automatisierungen über die Plattform bedeutet. Benutzer müssen einen Konfidenzschwellenwert für die Bezeichnung festlegen, die Teil ihrer Automatisierung sein soll, und dieser Schwellenwert muss angepasst werden, um Präzisions- und Rückrufstatistiken bereitzustellen, die für diesen Prozess akzeptabel sind.
Bestimmte Prozesse können eine hohe Wiedererkennung legen (so viele Instanzen eines Ereignisses wie möglich abfangen), während andere hohe Genauigkeiten (korrektes Erkennen von Instanzen eines Ereignisses) Wert legen.