- Erste Schritte
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- Allgemeine Felder (früher Entitäten)
- Bezeichnungen (Vorhersagen, Konfidenzniveaus, Hierarchie usw.)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Überprüfte und nicht überprüfte Nachrichten
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Verwaltung
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen Sie eine Datenquelle in der GUI
- Hochladen einer CSV-Datei in eine Quelle
- Ein neues Dataset erstellen
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern Sie die Einstellungen eines Datasets
- Löschen Sie Nachrichten über die Benutzeroberfläche
- Löschen Sie ein Dataset
- Löschen Sie eine Quelle
- Exportieren Sie ein Dataset
- Verwenden von Exchange-Integrationen
- Vorbereiten von Daten für den CSV-Upload
- Modelltraining und -wartung
- Verstehen von Beschriftungen, allgemeinen Feldern und Metadaten
- Bezeichnungshierarchie und bewährte Methode
- Definieren Ihrer Taxonomieziele
- Analyse- vs. Automatisierungsanwendungsfälle
- Konvertieren Ihrer Ziele in Bezeichnungen
- Erstellen Ihrer Taxonomiestruktur
- Best Practices für den Taxonomieentwurf
- Ihre Taxonomie wird importiert
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung (NEU)
- Verstehen des Status Ihres Datasets
- Best Practice für Modelltraining und Anmerkungen
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Trainieren
- Einführung in Verfeinerung
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- Wie funktioniert die Validierung?
- Verstehen und Verbessern der Modellleistung
- Warum kann eine Bezeichnung eine geringe durchschnittliche Genauigkeit haben?
- Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Abgleichs und Verwendung des Abgleichs
- Wann das Training Ihres Modells beendet werden soll
- Verwenden von allgemeinen Feldern
- Generative Extraktion
- Verwenden von Analyse und Überwachung
- Automatisierungs- und Communications Mining
- Lizenzierungsinformationen
- Häufige Fragen und mehr
Training mit „Teach Label“ (Erkunden)
Benutzerberechtigungen erforderlich: „Quellen anzeigen“ UND „Überprüfen und Kommentieren“.
Einführung in die Verwendung von „Teach Label“
„Teach“ ist der zweite Schritt in der Erkundungsphase und dient dazu, Vorhersagen für eine Bezeichnung zu zeigen, bei der das Modell am unklarsten ist, ob es zutrifft oder nicht. Wie bei den vorherigen Schritten müssen wir bestätigen, ob die Vorhersage richtig oder falsch ist, und auf diese Weise dem Modell starke Trainingssignature liefern. Dies ist der wichtigste beschriftungsspezifische Trainingsmodus.
Wichtige Schritte
- Wählen Sie Trainieren im Dropdownmenü oben links aus, wie gezeigt
- Wählen Sie die Bezeichnung aus, die Sie trainieren möchten – Die Standardauswahl im Teach-Modus besteht darin, nicht überprüfte Nachrichten anzuzeigen
- Ihnen wird eine Auswahl von Meldungen angezeigt, bei denen das Modell am meisten unsicher ist, ob die ausgewählte Bezeichnung angewendet wurde oder nicht – überprüfen Sie die Vorhersagen, und wenden Sie die Bezeichnung an, wenn sie korrekt ist, oder wenden Sie andere Bezeichnungen an, wenn sie falsch sind
- Die Vorhersagen reichen von ca. 50 % für Daten ohne Stimmung bis zu 66 % für Daten mit aktivierter Stimmung
- Denken Sie daran, alle anderen zutreffenden Bezeichnungen sowie die spezifische Bezeichnung, auf die Sie sich konzentrieren, anzuwenden
Sie sollten diesen Trainingsmodus nach Bedarf verwenden, um die Anzahl der Trainingsbeispiele für jede Bezeichnung auf über 25 zu erhöhen, wodurch die Plattform dann die Leistung der Bezeichnung genau einschätzen kann.
Die Anzahl der Beispiele, die für jede Beschriftung erforderlich ist, um eine gute Leistung zu erbringen, hängt von einer Reihe von Faktoren ab. In der Phase „Verfeinern“ beschreiben wir, wie die Leistung der einzelnen Bezeichnungen verstanden und verbessert werden kann.
Die Plattform empfiehlt regelmäßig die Verwendung von „Teach Label“, um die Leistung bestimmter Beschriftungen zu verbessern, indem vielfältigere Trainingsbeispiele zur Verfügung gestellt werden, mit denen sie andere Instanzen in Ihrem Dataset identifizieren können, in denen die Beschriftung angewendet werden soll.
Was tun wir, wenn es nicht genügend „Teach“-Beispiele gibt?
Nach „Erkennen“ und „Mischen“ stellen wir möglicherweise fest, dass einige Bezeichnungen noch sehr wenige Beispiele haben und der Modus „Beschriftung lernen“ keine nützlichen Trainingsbeispiele anzeigt. In diesem Fall empfehlen wir, die folgenden Trainingsmodi zu verwenden, um der Plattform mehr Beispiele zur Verfügung zu stellen, von denen Sie lernen können:
Option 1 – 'Suchen'
Die Suche nach Begriffen oder Ausdrücken in Explore funktioniert auf die gleiche Weise wie in Discover. Einer der zwei Hauptunterschiede besteht darin, dass Sie beim Erkunden Suchergebnisse einzeln überprüfen und kommentieren müssen, anstatt massenweise. Sie können im Analysefenster suchen, indem Sie einfach Ihren Suchbegriff in das Suchfeld oben links auf der Seite eingeben.
Zu viel Suche kann jedoch Ihr Modell verfälschen, was wir vermeiden möchten. Fügen Sie in diesem Trainingsmodus höchstens 10 Beispiele pro Beschriftung hinzu, um Verzerrungen durch Anmerkungen zu vermeiden. Es ist auch wichtig, der Plattform Zeit zum erneuten Training zu geben, bevor Sie zurück in den „Teach“-Modus wechseln.
Weitere Informationen zur Verwendung der Suche im Analysefenster finden Sie hier.
Option 2 – 'Label'
Obwohl das Training mit „Label“ nicht zu den Hauptschritten gehört, die in der Erkundungsphase beschrieben werden, kann es in dieser Phase des Trainings dennoch nützlich sein. Im Bezeichnungsmodus zeigt die Plattform Ihnen Nachrichten an, bei denen diese Bezeichnung in absteigender Reihenfolge der Konfidenz vorhergesagt wird (d. h. mit den sichersten Vorhersagen zuerst und der geringsten Zuverlässigkeit ganz unten).
Es ist jedoch nur nützlich, Vorhersagen zu überprüfen, die nicht mit hoher Konfidenz verbunden sind (über 90 %). Dies liegt daran, dass wenn das Modell sehr sicher ist (d. h über 90 %), dann geben Sie dem Modell durch die Bestätigung der Vorhersage keine neuen Informationen an. Es ist bereits zuversichtlich, dass die Bezeichnung gilt. Suchen Sie bei Bedarf weiter unten auf der Seite nach weniger sicheren Beispielen. Wenn Vorhersagen jedoch eine hohe Konfidenz aufweisen und falsch sind, ist es wichtig, die richtigen Bezeichnungen anzuwenden und die falschen Vorhersagen zu verwerfen.
Nützliche Tipps
- Wenn es für eine Bezeichnung mehrere verschiedene Möglichkeiten gibt, dasselbe auszudrücken (z. B A, B oder C), stellen Sie sicher, dass Sie für jede Ausdrucksweise die Plattformtrainingsbeispiele angeben. Wenn Sie 30 Beispiele für A und nur wenige für B und C angeben, wird das Modell Probleme haben, zukünftige Beispiele für B oder C für diese Bezeichnung zu erfassen.
- Das Hinzufügen einer neuen Bezeichnung zu einer ausgereiften Taxonomie kann bedeuten, dass sie nicht auf zuvor überprüfte Nachrichten angewendet wurde. Dazu müssen Sie zurückgehen und dem Modell neue Beschriftungen beibringen, indem Sie die Funktion „Bezeichnung vergessen“ verwenden – wie das funktioniert, erfahren Sie hier .