- Erste Schritte
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- Entitäten
- Bezeichnungen (Vorhersagen, Konfidenzniveaus, Hierarchie usw.)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Überprüfte und nicht überprüfte Nachrichten
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Verwaltung
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen Sie eine Datenquelle in der GUI
- Hochladen einer CSV-Datei in eine Quelle
- Ein neues Dataset erstellen
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern Sie die Einstellungen eines Datasets
- Löschen Sie Nachrichten über die Benutzeroberfläche
- Löschen Sie ein Dataset
- Exportieren Sie ein Dataset
- Verwenden von Exchange-Integrationen
- Vorbereiten von Daten für den CSV-Upload
- Modelltraining und -wartung
- Verstehen von Bezeichnungen, Entitäten und Metadaten
- Bezeichnungshierarchie und bewährte Methode
- Definieren Ihrer Taxonomieziele
- Analyse- vs. Automatisierungsanwendungsfälle
- Konvertieren Ihrer Ziele in Bezeichnungen
- Erstellen Ihrer Taxonomiestruktur
- Best Practices für den Taxonomieentwurf
- Ihre Taxonomie wird importiert
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung (NEU)
- Verstehen des Status Ihres Datasets
- Best Practice für Modelltraining und Beschriftung
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Trainieren
- Einführung zu „Verfeinern“
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- Wie funktioniert die Validierung?
- Verstehen und Verbessern der Modellleistung
- Warum kann eine Bezeichnung eine geringe durchschnittliche Genauigkeit haben?
- Training mit „Bezeichnung überprüfen“ und „Bezeichnung fehlen“
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Ausgleichs und Verwendung von „Neuausgleich“
- Wann das Training Ihres Modells beendet werden soll
- Definieren und Einrichten Ihrer Entitäten
- Grundlegendes zu Entitäten
- Welche vortrainierten Entitäten sind verfügbar?
- Aktivieren, Deaktivieren, Aktualisieren und Erstellen von Entitäten
- Entitätsfilterung
- Überprüfen und Anwenden von Entitäten
- Validierung für Entitäten
- Verbesserung der Entitätsleistung
- Erstellen von benutzerdefinierten Regex-Entitäten
- Verwenden von Analytics & Monitoring
- Automatisierungs- und Communications Mining
- Häufige Fragen und mehr
Abdeckung
Die Abdeckung ist ein im Machine Learning häufig verwendeter Begriff und bezieht sich darauf, wie gut ein Modell die Daten abdeckt, die es analysiert wird. In Communications Mining bezieht sich dies auf den Anteil der Nachrichten im Dataset, die über informative Bezeichnungsvorhersagen verfügen, und wird in Validierung als prozentuale Punktzahl angezeigt.
'Informative Bezeichnungen ' sind solche Bezeichnungen, die die Plattform als nützlich als eigenständige Bezeichnungen versteht, indem sie betrachtet, wie häufig sie mit anderen Bezeichnungen zugewiesen werden. Bezeichnungen, die immer einer anderen Bezeichnung zugewiesen sind, z. B übergeordnete Bezeichnungen, die nie selbst zugewiesen werden, oder „Dringend“, wenn sie immer mit einer anderen Bezeichnung zugewiesen werden, werden bei der Berechnung der Punktzahl nach unten gewichtet.
Die folgende Abbildung gibt einen Hinweis darauf, wie eine geringe Abdeckung im Vergleich zu einer hohen Abdeckung in einem gesamten Dataset aussehen würde. Stellen Sie sich vor, die schattierten Kreise sind Nachrichten mit informativen Bezeichnungsvorhersagen.
Als Metrik ist die Abdeckung eine sehr hilfreiche Methode, um zu verstehen, ob Sie all die verschiedenen potenziellen Konzepte in Ihrem Dataset erfasst haben und ob Sie genügend unterschiedliche Trainingsbeispiele für sie zur Verfügung gestellt haben , damit die Plattform sie effektiv vorhersagen kann.
In fast allen Fällen ist die Leistung eines Modells umso besser, je höher die Abdeckung ist. Dies sollte jedoch bei der Überprüfung der Modellleistung nicht isoliert betrachtet werden .
Es ist auch sehr wichtig, dass die Beschriftungen in der Taxonomie fehlerfrei sind, d. h. eine hohe durchschnittliche Genauigkeit und keine anderen Leistungswarnungen aufweisen und dass die Trainingsdaten ein ausgewogenes Abbild des Datasets als Ganzes sind.
Wenn Ihre Beschriftungen fehlerhaft sind oder die Trainingsdaten nicht repräsentativ für das Dataset sind, ist die Abdeckung Ihres Modells, die die Plattform berechnet , unzuverlässig.
Eine hohe Abdeckung Ihres Modells ist besonders wichtig, wenn Sie es zur Steuerung von automatisierten Prozessen verwenden.
Weitere Informationen zur Modellabdeckung und zum Überprüfen der Abdeckung Ihres Modells finden Sie hier.