- Einleitung
- Einrichten Ihres Kontos
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- Allgemeine Felder
- Beschriftungen (Vorhersagen, Konfidenzniveaus, Beschriftungshierarchie und Beschriftungsstimmung)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Nachrichten mit und ohne Anmerkungen
- Extraktionsfelder
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Zugriffssteuerung und Administration
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen oder Löschen einer Datenquelle in der GUI
- Hochladen einer CSV-Datei in eine Quelle
- Vorbereiten von Daten für den CSV-Upload
- Ein Dataset wird erstellt
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern der Dataset-Einstellungen
- Löschen einer Nachricht
- Löschen eines Datasets
- Exportieren eines Datasets
- Verwenden von Exchange-Integrationen
- Modelltraining und -wartung
- Grundlegendes zu Beschriftungen, allgemeinen Feldern und Metadaten
- Beschriftungshierarchie und Best Practices
- Vergleichen von Anwendungsfällen für Analyse und Automatisierung
- Konvertieren Ihrer Ziele in Bezeichnungen
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung
- Der Status des Datasets
- Best Practice für Modelltraining und Anmerkungen
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Grundlegendes zu Datenanforderungen
- Trainieren
- Einführung in Verfeinerung
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- So funktioniert die Validierung
- Verstehen und Verbessern der Modellleistung
- Gründe für die geringe durchschnittliche Beschriftungsgenauigkeit
- Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Abgleichs und Verwendung des Abgleichs
- Wann das Training Ihres Modells beendet werden soll
- Verwenden von allgemeinen Feldern
- Generative Extraktion
- Verwenden von Analyse und Überwachung
- Automations and Communications Mining™
- Entwickler (Developer)
- Verwenden der API
- API-Tutorial
- Quellen
- Datasets
- Anmerkungen
- Anhänge (Attachments)
- Vorhersagen
- Erstellen Sie einen Stream
- Aktualisieren Sie einen Stream
- Rufen Sie einen Stream nach Namen ab
- Rufen Sie alle Streams ab
- Löschen Sie einen Stream
- Ergebnisse aus Stream abrufen
- Kommentare aus einem Stream abrufen (Legacy)
- Bringen Sie einen Stream vor
- Einen Stream zurücksetzen
- Kennzeichnen Sie eine Ausnahme
- Entfernen Sie das Tag einer Ausnahme
- Prüfungsereignisse
- Alle Benutzer abrufen
- Hochladen von Daten
- Herunterladen von Daten
- Exchange Integration mit einem Azure-Dienstbenutzer
- Exchange-Integration mit der Azure-Anwendungsauthentifizierung
- Exchange-Integration mit Azure Application Authentication und Graph
- Abrufen von Daten für Tableau mit Python
- Elasticsearch-Integration
- Allgemeine Feldextraktion
- Selbst gehostete Exchange-Integration
- UiPath® Automatisierungs-Framework
- Offizielle UiPath®-Aktivitäten
- Wie Maschinen lernen, Wörter zu verstehen: eine Anleitung zu Einbettungen in NLP
- Eingabeaufforderungsbasiertes Lernen mit Transformers
- Ef Robots II: Wissensdegesterration und Feinabstimmung
- Effiziente Transformer I: Warnmechanismen
- Tief hierarchische, nicht überwachte Absichtsmodellierung: Nutzen ohne Trainingsdaten
- Beheben von Anmerkungsverzerrungen mit Communications Mining™
- Aktives Lernen: Bessere ML-Modelle in weniger Zeit
- Auf Zahlen kommt es an – Bewertung der Modellleistung mit Metriken
- Darum ist Modellvalidierung wichtig
- Vergleich von Communications Mining™ und Google AutoML für Conversation Data Intelligence
- Lizenzierung
- Häufige Fragen und mehr

Communications Mining-Benutzerhandbuch
Teach ist der zweite Schritt in der Erkundungsphase und dient dazu, Vorhersagen für eine Beschriftung anzuzeigen, bei der das Modell am meisten unklar ist, ob es zutrifft oder nicht. Wie in den vorherigen Schritten müssen wir bestätigen, ob die Vorhersage richtig oder falsch ist, und so dem Modell starke Trainingssignale liefern. Dies ist der wichtigste beschriftete Trainingsmodus.
Teach Label ist ein Trainingsmodus, der ausschließlich für das Kommentieren von nicht überprüften Nachrichten entwickelt wurde. Daher ist der überprüfte Filter in diesem Modus deaktiviert.
- Wählen Sie Beschriftung lehren im Dropdown-Menü aus, wie in der folgenden Abbildung gezeigt.
- Wählen Sie die Beschriftung aus, die Sie trainieren möchten, wobei die Standardauswahl im Lehrmodus darin besteht, nicht überprüfte Nachrichten anzuzeigen.
- Es wird Ihnen eine Auswahl an Nachrichten angezeigt, bei denen das Modell am meisten unsicher ist, ob die ausgewählte Beschriftung angewendet wurde oder nicht. Das bedeutet, dass Sie die Vorhersagen überprüfen und die Beschriftung anwenden sollten, wenn sie korrekt sind, oder andere Beschriftungen anwenden, wenn sie falsch sind.
Hinweis:
- Die Vorhersagen reichen von ca. 50 % für Daten ohne Stimmung und 66 % für Daten mit aktivierter Stimmung.
- Stellen Sie sicher, dass Sie alle anderen zutreffenden Beschriftungen sowie die spezifische Beschriftung, auf die Sie sich konzentrieren, anwenden.
Sie sollten diesen Trainingsmodus nach Bedarf verwenden, um die Anzahl der Trainingsbeispiele für jede Beschriftung auf über 25 zu erhöhen, damit die Plattform dann die Leistung der Beschriftung genau einschätzen kann.
Die Anzahl der Beispiele, die für eine gute Leistung jeder Beschriftung erforderlich sind, hängt von einer Reihe von Faktoren ab. In der Verfeinerungsphase geht es darum, die Leistung jeder Beschriftung zu verstehen und zu verbessern.
Die Plattform empfiehlt regelmäßig die Verwendung von Teach Label , um die Leistung bestimmter Beschriftungen zu verbessern, indem vielfältigere Trainingsbeispiele bereitgestellt werden, mit denen sie andere Instanzen in Ihrem Dataset identifizieren kann, in denen die Beschriftung angewendet werden soll.
Nach dem Erkennen und Mischen stellen Sie möglicherweise fest, dass einige Beschriftungen noch sehr wenige Beispiele haben und der Teach Label- Modus keine nützlichen Trainingsbeispiele liefert. In diesem Fall wird empfohlen, die folgenden Trainingsmodi zu verwenden, um der Plattform weitere Beispiele zum Lernen zur Verfügung zu stellen:
Die Suche nach Begriffen oder Ausdrücken in Explore funktioniert genauso wie die Suche in Discover. Einer der zwei Hauptunterschiede besteht darin, dass Sie in Explore Suchergebnisse einzeln überprüfen und kommentieren müssen, anstatt sie massenweise zu überprüfen und zu kommentieren. Sie können in Explore suchen, indem Sie einfach Ihren Suchbegriff in das Suchfeld oben links auf der Seite eingeben.
Zu viel Suche kann jedoch Ihr Modell verzerren, was wir vermeiden möchten. Fügen Sie in diesem Trainingsmodus nicht mehr als 10 Beispiele pro Beschriftung hinzu, um Verzerrungen bei Anmerkungen zu vermeiden. Stellen Sie sicher, dass Sie der Plattform auch Zeit zum erneuten Training lassen, bevor Sie zum Lehrmodus zurückkehren.
Weitere Informationen finden Sie unter Training mit Suche auf der Registerkarte „Erkunden“.
Option 2 – Beschriftung
Obwohl das Training mit Label nicht zu den Hauptschritten in der Erkundungsphase gehört, kann es in dieser Phase des Trainings dennoch nützlich sein. Im Beschriftungsmodus zeigt Ihnen die Plattform Nachrichten an, bei denen diese Beschriftung in absteigender Reihenfolge der Konfidenz vorhergesagt wird, d. h. mit den zuversichtlichsten Vorhersagen zuerst und am wenigsten zuversichtlich unten.
Es ist jedoch nur nützlich, Vorhersagen zu überprüfen, die keine hohe Konfidenz haben, über 90 %. Dies liegt daran, dass das Modell sehr zuversichtlich ist, d. h. über 90 %, und dann durch die Bestätigung der Vorhersage, dass Sie dem Modell keine neuen Informationen mitteilen, es bereits zuversichtlich ist, dass die Beschriftung zutrifft. Suchen Sie bei Bedarf weiter unten auf der Seite nach weniger zuversichtlichen Beispielen. Wenn Vorhersagen jedoch eine hohe Konfidenz haben und falsch sind, stellen Sie sicher, dass Sie die richtigen Beschriftungen anwenden und die falschen Vorhersagen ablehnen.
- Wenn es bei einer Beschriftung mehrere verschiedene Möglichkeiten gibt, dasselbe zu sagen, z. B. A, B oder C, stellen Sie sicher, dass Sie die Plattform-Trainingsbeispiele für jede Art zu sprechen angeben. Wenn Sie 30 Beispielen von A und nur ein paar von B und C angeben, wird das Modell Schwierigkeiten haben, zukünftige Beispiele für B oder C für diese Beschriftung zu erfassen.
- Das Hinzufügen einer neuen Beschriftung zu einer ausgereiften Taxonomie kann bedeuten, dass sie nicht auf zuvor überprüfte Nachrichten angewendet wurde. Dazu müssen Sie dann zurückgehen und dem Modell mithilfe der Funktion Fehlende Beschriftung neue Beschriftungen beibringen.