- Einleitung
- Einrichten Ihres Kontos
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- Allgemeine Felder
- Beschriftungen (Vorhersagen, Konfidenzniveaus, Beschriftungshierarchie und Beschriftungsstimmung)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Nachrichten mit und ohne Anmerkungen
- Extraktionsfelder
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Zugriffssteuerung und Administration
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen oder Löschen einer Datenquelle in der GUI
- Hochladen einer CSV-Datei in eine Quelle
- Vorbereiten von Daten für den CSV-Upload
- Ein Dataset wird erstellt
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern der Dataset-Einstellungen
- Löschen einer Nachricht
- Löschen eines Datasets
- Exportieren eines Datasets
- Verwenden von Exchange-Integrationen
- Modelltraining und -wartung
- Grundlegendes zu Beschriftungen, allgemeinen Feldern und Metadaten
- Beschriftungshierarchie und Best Practices
- Vergleichen von Anwendungsfällen für Analyse und Automatisierung
- Konvertieren Ihrer Ziele in Bezeichnungen
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung
- Der Status des Datasets
- Best Practice für Modelltraining und Anmerkungen
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Grundlegendes zu Datenanforderungen
- Trainieren
- Einführung in Verfeinerung
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- So funktioniert die Validierung
- Verstehen und Verbessern der Modellleistung
- Gründe für die geringe durchschnittliche Beschriftungsgenauigkeit
- Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Abgleichs und Verwendung des Abgleichs
- Wann das Training Ihres Modells beendet werden soll
- Verwenden von allgemeinen Feldern
- Generative Extraktion
- Verwenden von Analyse und Überwachung
- Automations and Communications Mining™
- Entwickler (Developer)
- Verwenden der API
- API-Tutorial
- Quellen
- Datasets
- Anmerkungen
- Anhänge (Attachments)
- Vorhersagen
- Erstellen Sie einen Stream
- Aktualisieren Sie einen Stream
- Rufen Sie einen Stream nach Namen ab
- Rufen Sie alle Streams ab
- Löschen Sie einen Stream
- Ergebnisse aus Stream abrufen
- Kommentare aus einem Stream abrufen (Legacy)
- Bringen Sie einen Stream vor
- Einen Stream zurücksetzen
- Kennzeichnen Sie eine Ausnahme
- Entfernen Sie das Tag einer Ausnahme
- Prüfungsereignisse
- Alle Benutzer abrufen
- Hochladen von Daten
- Herunterladen von Daten
- Exchange Integration mit einem Azure-Dienstbenutzer
- Exchange-Integration mit der Azure-Anwendungsauthentifizierung
- Exchange-Integration mit Azure Application Authentication und Graph
- Abrufen von Daten für Tableau mit Python
- Elasticsearch-Integration
- Allgemeine Feldextraktion
- Selbst gehostete Exchange-Integration
- UiPath® Automatisierungs-Framework
- Offizielle UiPath®-Aktivitäten
- Wie Maschinen lernen, Wörter zu verstehen: eine Anleitung zu Einbettungen in NLP
- Eingabeaufforderungsbasiertes Lernen mit Transformers
- Ef Robots II: Wissensdegesterration und Feinabstimmung
- Effiziente Transformer I: Warnmechanismen
- Tief hierarchische, nicht überwachte Absichtsmodellierung: Nutzen ohne Trainingsdaten
- Beheben von Anmerkungsverzerrungen mit Communications Mining™
- Aktives Lernen: Bessere ML-Modelle in weniger Zeit
- Auf Zahlen kommt es an – Bewertung der Modellleistung mit Metriken
- Darum ist Modellvalidierung wichtig
- Vergleich von Communications Mining™ und Google AutoML für Conversation Data Intelligence
- Lizenzierung
- Häufige Fragen und mehr

Communications Mining-Benutzerhandbuch
Die Seite „ Erkunden “ verfügt über verschiedene Trainingsmodi. Diese Phase konzentriert sich hauptsächlich auf drei davon:
- Mischen – Zeigt eine zufällige Auswahl von Nachrichten, die Benutzer mit Anmerkungen versehen können. Stellen Sie sicher, dass Sie einen beträchtlichen Teil des Trainings in Mischen durchführen, um einen Trainingssatz von Beispielen zu erstellen, der für das breitere Dataset repräsentativ ist.
- Lehren - Wird für nicht überprüfte Nachrichten verwendet. Sobald die Plattform angemessene Vorhersagen für eine Beschriftung macht, können Sie die Fähigkeit zur Vorhersage der Beschriftung für vielfältigere Beispiele verbessern, indem Sie Nachrichten im standardmäßigen Teach- Modus überprüfen, der für nicht überprüfte Nachrichten vorgesehen ist. Dadurch werden Ihnen Nachrichten angezeigt, bei denen die Plattform nicht sicher ist, ob die ausgewählte Beschriftung zutrifft oder nicht.
- Niedrige Konfidenz – Zeigt Ihnen Nachrichten an, die durch informative Beschriftungsvorhersagen nicht gut abgedeckt werden. Diese Nachrichten haben entweder keine Vorhersagen oder Vorhersagen mit sehr geringer Konfidenz für Beschriftungen, die die Plattform als informativ verstehen.
Dieser Abschnitt behandelt auch das Training mit Search in Explore, ähnlich wie das Training mit Search in Discover.
Lehren für überprüfte Nachrichten ist ein weiterer Trainingsmodus in Explore. Weitere Informationen finden Sie unter Verfeinern von Modellen und Verwenden der Validierung.
Das Layout aus dem zuvor gezeigten Bild wird in der folgenden Tabelle erläutert:
1 | Passen Sie den Datumsbereich oder den Zeitraum der angezeigten Nachrichten an. |
2 | Fügen Sie verschiedene andere Filter basierend auf den Metadaten der Nachrichten hinzu, z. B Punktzahl oder Absender. |
3 | Fügen Sie einen Filter für allgemeine Felder hinzu. |
4 | Schalten Sie von allen Nachrichten auf überprüfte oder nicht überprüfte Nachrichten um, und passen Sie auch die Anzahl der angehefteten Beschriftungen im Vergleich zur vorhergesagten Beschriftung an. |
5 | Fügen Sie einen Beschriftungsfilter hinzu. |
6 | Suchen Sie nach bestimmten Beschriftungen in Ihrer Taxonomie. |
7 | Fügen Sie zusätzliche Beschriftungen hinzu. |
8 | Erweitern Sie die Metadaten der Nachricht. |
9 | Aktualisieren Sie die aktuelle Abfrage. |
10 | Wechseln Sie zwischen verschiedenen Trainingsmodi wie aktuell, Mischen, Lehren und geringe Konfidenz und wählen Sie eine Beschriftung aus, nach der sortiert werden soll. |
11 | Durchsuchen Sie das Dataset nach Nachrichten, die bestimmte Wörter oder Ausdrücke enthalten. |
12 | Laden Sie alle Nachrichten auf dieser Seite herunter oder exportieren Sie das Dataset mit angewendeten Filtern als CSV-Datei. |
Die Anzahl der Beispiele, die für die genaue Vorhersage jeder Bezeichnung erforderlich sind, kann je nach Umfang oder Spezifität eines Bezeichnungskonzepts sehr unterschiedlich sein.
Es kann sein, dass eine Bezeichnung in der Regel mit sehr spezifischen und leicht identifizierbaren Wörtern, Sätzen oder Absichten verbunden ist und die Plattform in der Lage ist, sie konsistent mit relativ wenigen Trainingsbeispielen vorherzusagen. Es könnte auch sein, dass eine Bezeichnung ein umfassendes Thema mit vielen verschiedenen Sprachvarianten erfasst, die damit verbunden wären. In diesem Fall könnten deutlich mehr Trainingsbeispiele erforderlich sein, damit die Plattform konsistent Fälle identifizieren kann, in denen die Bezeichnung gelten sollte.
Die Plattform kann oft bereits mit fünf Beispielen Vorhersagen für eine Beschriftung machen. Um die Performance einer Beschriftung genau einzuschätzen, d. h. wie gut die Plattform sie vorhersagen kann, benötigt jede Beschriftung mindestens 25 Beispiele.
Wenn Sie in Explore Anmerkungen hinzufügen, zeigen die kleinen roten Wählen neben jeder Beschriftung an, ob weitere Beispiele erforderlich sind, um die Leistung der Beschriftung genau zu schätzen. Die Anzeige beginnt zu verschwinden, sobald Sie mehr Trainingsbeispiele angeben, und verschwindet vollständig, sobald Sie 25 erreichen.
Das bedeutet nicht, dass die Plattform mit 25 Beispielen jede Beschriftung genau vorhersagen kann, aber sie wird mindestens validieren können, wie sie jede Beschriftung vorhersagen und Sie benachrichtigen kann, wenn zusätzliches Training erforderlich ist.
Stellen Sie in der Erkundungsphase sicher, dass Sie mindestens 25 Beispiele für alle Beschriftungen bereitgestellt haben, an denen Sie interessiert sind, indem Sie eine Kombination der zuvor genannten Schritte verwenden, d. h. hauptsächlich Mischen, und Lehren und Unüberprüft.
Während der Verfeinerungsphase kann klar werden, dass für bestimmte Beschriftungen mehr Training erforderlich ist, um ihre Leistung zu verbessern. Weitere Informationen finden Sie unter Verfeinern von Modellen und Verwenden der Validierung.
Sobald Sie in Explore 25 angeheftete Beispiele für eine Beschriftung erreicht haben, bemerken Sie möglicherweise einen der folgenden Leistungsindikatoren für Beschriftungen anstelle des Trainingsrads:
- Grau ist ein Indikator dafür, dass die Plattform die Leistung dieser Beschriftung berechnet. Das bedeutet, dass sie nach der Berechnung so aktualisiert wird, dass sie entweder verschwindet oder einen Ergebnisse Durch
- Gelb ist ein Indikator dafür, dass die Beschriftung eine etwas weniger als zufriedenstellende Leistung aufweist und verbessert werden könnte.
- Rot ist ein Indikator dafür, dass die Beschriftung eine schlechte Leistung erbringt und zusätzliches Training oder Korrekturmaßnahmen benötigt, um sie zu verbessern.
- Wenn kein Kreis vorhanden ist, funktioniert die Beschriftung zufriedenstellend, auch wenn sie je nach Anwendungsfall und der gewünschten Genauigkeit noch verbessert werden muss.
- Weitere Informationen zur Beschriftungsleistung und wie Sie sie verbessern können, finden Sie unter Verstehen und Verbessern der Modellleistung.
Wenn Sie das Häkchensymbol auswählen, wie in den folgenden Bildern gezeigt, oben in der Beschriftungsfilterleiste, um nach überprüften Nachrichten zu filtern, wird Ihnen die Anzahl der überprüften Nachrichten angezeigt, auf die diese Beschriftung angewendet wurde.
Wenn Sie das Computersymbol auswählen, um nach nicht überprüften Nachrichten zu filtern, wird Ihnen die Gesamtzahl der Vorhersagen für diese Beschriftung angezeigt, einschließlich der Anzahl der überprüften Beispiele.
Wenn in „ Erkunden“ weder „überprüft“ noch „nicht überprüft“ ausgewählt ist, zeigt die Plattform standardmäßig die Gesamtzahl der angehefteten Nachrichten für eine Bezeichnung an. In Berichten wird standardmäßig die vorhergesagte Gesamtsumme angezeigt.
- Das Modell kann Vorhersagen mit nur wenigen Nachrichten mit Anmerkungen machen. Für zuverlässige Vorhersagen sollten Sie jedoch mindestens 25 Nachrichten pro Beschriftung mit Anmerkungen versehen. Einige erfordern mehr als dies, es hängt von der Komplexität der Daten, der Beschriftung und der Konsistenz ab, mit der die Beschriftungen angewendet wurden
- In Explore sollten Sie auch versuchen, Nachrichten zu finden, bei denen das Modell eine Beschriftung falsch vorhergesagt hat. Sie sollten falsche Beschriftungen entfernen und richtige Beschriftungen anwenden. Dieser Prozess hilft zu verhindern, dass das Modell in Zukunft eine ähnliche falsche Vorhersage macht