- Einleitung
- Einrichten Ihres Kontos
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- Allgemeine Felder
- Beschriftungen (Vorhersagen, Konfidenzniveaus, Beschriftungshierarchie und Beschriftungsstimmung)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Nachrichten mit und ohne Anmerkungen
- Extraktionsfelder
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Zugriffssteuerung und Administration
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen oder Löschen einer Datenquelle in der GUI
- Hochladen einer CSV-Datei in eine Quelle
- Vorbereiten von Daten für den CSV-Upload
- Ein Dataset wird erstellt
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern der Dataset-Einstellungen
- Löschen einer Nachricht
- Löschen eines Datasets
- Exportieren eines Datasets
- Verwenden von Exchange-Integrationen
- Modelltraining und -wartung
- Grundlegendes zu Beschriftungen, allgemeinen Feldern und Metadaten
- Beschriftungshierarchie und Best Practices
- Vergleichen von Anwendungsfällen für Analyse und Automatisierung
- Konvertieren Ihrer Ziele in Bezeichnungen
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung
- Der Status des Datasets
- Best Practice für Modelltraining und Anmerkungen
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Grundlegendes zu Datenanforderungen
- Trainieren
- Einführung in Verfeinerung
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- So funktioniert die Validierung
- Verstehen und Verbessern der Modellleistung
- Gründe für die geringe durchschnittliche Beschriftungsgenauigkeit
- Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Abgleichs und Verwendung des Abgleichs
- Wann das Training Ihres Modells beendet werden soll
- Verwenden von allgemeinen Feldern
- Generative Extraktion
- Verwenden von Analyse und Überwachung
- Automations and Communications Mining™
- Entwickler (Developer)
- Verwenden der API
- API-Tutorial
- Quellen
- Datasets
- Anmerkungen
- Anhänge (Attachments)
- Vorhersagen
- Erstellen Sie einen Stream
- Aktualisieren Sie einen Stream
- Rufen Sie einen Stream nach Namen ab
- Rufen Sie alle Streams ab
- Löschen Sie einen Stream
- Ergebnisse aus Stream abrufen
- Kommentare aus einem Stream abrufen (Legacy)
- Bringen Sie einen Stream vor
- Einen Stream zurücksetzen
- Kennzeichnen Sie eine Ausnahme
- Entfernen Sie das Tag einer Ausnahme
- Prüfungsereignisse
- Alle Benutzer abrufen
- Hochladen von Daten
- Herunterladen von Daten
- Exchange Integration mit einem Azure-Dienstbenutzer
- Exchange-Integration mit der Azure-Anwendungsauthentifizierung
- Exchange-Integration mit Azure Application Authentication und Graph
- Abrufen von Daten für Tableau mit Python
- Elasticsearch-Integration
- Allgemeine Feldextraktion
- Selbst gehostete Exchange-Integration
- UiPath® Automatisierungs-Framework
- Offizielle UiPath®-Aktivitäten
- Wie Maschinen lernen, Wörter zu verstehen: eine Anleitung zu Einbettungen in NLP
- Eingabeaufforderungsbasiertes Lernen mit Transformers
- Ef Robots II: Wissensdegesterration und Feinabstimmung
- Effiziente Transformer I: Warnmechanismen
- Tief hierarchische, nicht überwachte Absichtsmodellierung: Nutzen ohne Trainingsdaten
- Beheben von Anmerkungsverzerrungen mit Communications Mining™
- Aktives Lernen: Bessere ML-Modelle in weniger Zeit
- Auf Zahlen kommt es an – Bewertung der Modellleistung mit Metriken
- Darum ist Modellvalidierung wichtig
- Vergleich von Communications Mining™ und Google AutoML für Conversation Data Intelligence
- Lizenzierung
- Häufige Fragen und mehr

Communications Mining-Benutzerhandbuch
Einleitung
Die Verwendung der Trainingsmodi Beschriftung überprüfen und Fehlende Beschriftung ist Teil der Verfeinerungsphase , in der Sie versuchen, Inkonsistenzen oder fehlende Beschriftungen in den Nachrichten zu identifizieren, die bereits überprüft wurden. Dies unterscheidet sich vom Schritt Beschriftung lehren , der sich auf nicht überprüfte Nachrichten konzentriert, die von der Plattform vorgenommene Vorhersagen haben, anstatt zugewiesene Beschriftungen.
Beschriftung überprüfen zeigt Ihnen Nachrichten an, bei denen die Plattform annimmt, dass die ausgewählte Beschriftung möglicherweise falsch angewendet wurde, das heißt, sie sollte möglicherweise nicht angewendet worden sein.
Fehlende Beschriftung zeigt Ihnen Nachrichten an, von denen die Plattform annimmt, dass möglicherweise die ausgewählte Beschriftung fehlt, d. h. sie hätte möglicherweise angewendet werden müssen, wurde aber nicht angewendet. In diesem Fall wird die ausgewählte Beschriftung in der Regel als Vorschlag angezeigt, wie in der folgenden Abbildung gezeigt.
Die Vorschläge der Plattform in einem der beiden Modi sind nicht unbedingt korrekt. Dies sind nur die Fälle, in denen die Plattform aufgrund des bisher abgeschlossenen Trainings unsicher ist. Sie können sie ignorieren, wenn Sie mit den Vorschlägen der Plattform nicht einverstanden sind, nachdem Sie sie überprüft haben.
Die Verwendung dieser Trainingsmodi ist eine sehr effektive Möglichkeit, Vorkommen zu finden, bei denen der Benutzer Beschriftungen möglicherweise nicht konsistent angewendet hat. Wenn Sie sie verwenden, können Sie diese Ereignisse korrigieren und somit die Leistung der Bezeichnung verbessern.
Verwendung von „Prüfungsbeschriftung“ und „Fehlende Beschriftung“.
Die einfachste Antwort auf die Verwendung eines der Trainingsmodi ist, wenn es sich um eine der empfohlenen Aktionen im Abschnitt Modellbewertung oder um eine bestimmte Beschriftungsansicht auf der Seite Validierung handelt. Weitere Informationen finden Sie unter Verstehen und Verbessern der Modellleistung.
Als Faustregel gilt: Jede Beschriftung, die eine beträchtliche Anzahl von angehefteten Beispielen hat, aber eine geringe durchschnittliche Genauigkeit hat, was durch rote Beschriftungswarnungen auf der Seite Validierung oder in den Beschriftungsfilterleisten angezeigt werden kann, wird wahrscheinlich von einem Korrekturtraining in beidem profitieren Beschriftung überprüfen und Modus der fehlenden Beschriftung .
Bei der Validierung der Leistung eines Modells ermittelt die Plattform, ob eine Beschriftung oft falsch angewendet wurde oder wo sie meint, dass sie regelmäßig übersehen wurde, und priorisiert jede Korrekturaktion, die ihrer Meinung nach am nützlichsten für die Verbesserung der Leistung einer Beschriftung wäre.
Fehlende Beschriftung ist auch ein sehr nützliches Tool, wenn Sie einer vorhandenen Taxonomie mit vielen überprüften Beispielen eine neue Beschriftung hinzugefügt haben. Sobald Sie einige erste Beispiele für das neue Beschriftungskonzept angegeben haben, kann Ihnen die fehlende Beschriftung schnell helfen, alle Beispiele in den zuvor überprüften Nachrichten zu identifizieren, bei denen sie auch gelten sollte. Weitere Informationen finden Sie unter Hinzufügen neuer Beschriftungen zu vorhandenen Taxonomien.
Verwenden der Beschriftung „Prüfen“ und der Beschriftung „Fehlgeschlagen“.
Um einen dieser Trainingsmodi zu erreichen, gibt es die folgenden Hauptoptionen:
-
Wenn es sich um eine empfohlene Aktion in der Validierung für eine Beschriftung handelt, fungiert die Aktionskarte als Link, der Sie direkt zu diesem Trainingsmodus für die ausgewählte Beschriftung führt.
- Alternativ können Sie einen der Trainingsmodi im Dropdownmenü oben auf der Seite in Explore auswählen und dann eine Beschriftung auswählen, nach der sortiert werden soll. Ein Beispiel finden Sie in der vorherigen Abbildung.
In jedem Modus zeigt Ihnen die Plattform bis zu 20 Beispiele pro Seite für überprüfte Nachrichten an, bei denen sie annimmt, dass die ausgewählte Beschriftung möglicherweise falsch angewendet wurde, Beschriftung überprüfen, oder dass die ausgewählte Beschriftung fehlt, Fehlende Beschriftung.
Beschriftung überprüfen
Fehlende Beschriftung
Überprüfen Sie in Fehlende Beschriftung jedes der Beispiele auf der Seite, um zu sehen, ob die ausgewählte Beschriftung tatsächlich übersehen wurde. Wenn dies der Fall ist, wählen Sie den Beschriftungsvorschlag aus, wie in der vorherigen Abbildung gezeigt, um die Beschriftung anzuwenden. Wenn dies nicht der Fall ist, ignorieren Sie den Vorschlag und fahren Sie fort.
Nur weil die Plattform eine Beschriftung für eine überprüfte Nachricht vorschlägt, bedeutet das nicht, dass das Modell sie als Vorhersage betrachtet, und sie wird auch nicht zu Statistiken über die Anzahl der Beschriftungen in einem Dataset angerechnet. Wenn ein Vorschlag falsch ist, können Sie ihn einfach ignorieren.
Das Hinzufügen von fehlenden Beschriftungen kann daher erhebliche Auswirkungen auf die Leistung einer Beschriftung haben, indem sichergestellt wird, dass das Modell über korrekte und konsistente Beispiele verfügt, aus denen Vorhersagen für diese Beschriftung erstellt werden können.