- Einleitung
- Einrichten Ihres Kontos
 - Ausgewogenheit
 - Cluster
 - Konzeptabweichung
 - Abdeckung
 - Datasets
 - Allgemeine Felder
 - Beschriftungen (Vorhersagen, Konfidenzniveaus, Beschriftungshierarchie und Beschriftungsstimmung)
 - Modelle
 - Streams
 - Modellbewertung
 - Projekte
 - Präzision
 - Rückruf
 - Nachrichten mit und ohne Anmerkungen
 - Extraktionsfelder
 - Quellen
 - Taxonomien
 - Training
 - „True“ und „false“ positive und negative Vorhersagen
 - Validierung
 - Messages
 
 - Zugriffssteuerung und Administration
 - Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
 - Erstellen oder Löschen einer Datenquelle in der GUI
 - Hochladen einer CSV-Datei in eine Quelle
 - Vorbereiten von Daten für den CSV-Upload
 - Ein Dataset wird erstellt
 - Mehrsprachige Quellen und Datasets
 - Aktivieren der Stimmung für ein Dataset
 - Ändern der Dataset-Einstellungen
 - Löschen einer Nachricht
 - Löschen eines Datasets
 - Exportieren eines Datasets
 - Verwenden von Exchange-Integrationen
 
 - Modelltraining und -wartung
- Grundlegendes zu Beschriftungen, allgemeinen Feldern und Metadaten
 - Beschriftungshierarchie und Best Practices
 - Vergleichen von Anwendungsfällen für Analyse und Automatisierung
 - Konvertieren Ihrer Ziele in Bezeichnungen
 - Übersicht über den Modelltrainingsprozess
 - Generative Anmerkung
 - Der Status des Datasets
 - Best Practice für Modelltraining und Anmerkungen
 - Training mit aktivierter Beschriftungs-Stimmungsanalyse
 
- Grundlegendes zu Datenanforderungen
 - Trainieren
 - Einführung in Verfeinerung
 - Erläuterungen zu Präzision und Rückruf
 - Präzision und Rückruf
 - So funktioniert die Validierung
 - Verstehen und Verbessern der Modellleistung
 - Gründe für die geringe durchschnittliche Beschriftungsgenauigkeit
 - Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
 - Training mit der Bezeichnung „Teach“ (Verfeinern)
 - Training mit der Suche (verfeinern)
 - Verstehen und Erhöhen der Abdeckung
 - Verbesserung des Abgleichs und Verwendung des Abgleichs
 - Wann das Training Ihres Modells beendet werden soll
 
- Verwenden von allgemeinen Feldern
 
 - Generative Extraktion
 - Verwenden von Analyse und Überwachung
 - Automations and Communications Mining™
 - Entwickler (Developer)
- Verwenden der API
 - API-Tutorial
 - Quellen
 - Datasets
 - Anmerkungen
 - Anhänge (Attachments)
 - Vorhersagen
 - Erstellen Sie einen Stream
 - Aktualisieren Sie einen Stream
 - Rufen Sie einen Stream nach Namen ab
 - Rufen Sie alle Streams ab
 - Löschen Sie einen Stream
 - Ergebnisse aus Stream abrufen
 - Kommentare aus einem Stream abrufen (Legacy)
 - Bringen Sie einen Stream vor
 - Einen Stream zurücksetzen
 - Kennzeichnen Sie eine Ausnahme
 - Entfernen Sie das Tag einer Ausnahme
 
- Prüfungsereignisse
 - Alle Benutzer abrufen
 
- Hochladen von Daten
 - Herunterladen von Daten
 - Exchange Integration mit einem Azure-Dienstbenutzer
 - Exchange-Integration mit der Azure-Anwendungsauthentifizierung
 - Exchange-Integration mit Azure Application Authentication und Graph
 - Abrufen von Daten für Tableau mit Python
 - Elasticsearch-Integration
 - Allgemeine Feldextraktion
 - Selbst gehostete Exchange-Integration
 - UiPath® Automatisierungs-Framework
 - Offizielle UiPath®-Aktivitäten
 
- Wie Maschinen lernen, Wörter zu verstehen: eine Anleitung zu Einbettungen in NLP
 - Eingabeaufforderungsbasiertes Lernen mit Transformers
 - Ef Robots II: Wissensdegesterration und Feinabstimmung
 - Effiziente Transformer I: Warnmechanismen
 - Tief hierarchische, nicht überwachte Absichtsmodellierung: Nutzen ohne Trainingsdaten
 - Beheben von Anmerkungsverzerrungen mit Communications Mining™
 - Aktives Lernen: Bessere ML-Modelle in weniger Zeit
 - Auf Zahlen kommt es an – Bewertung der Modellleistung mit Metriken
 - Darum ist Modellvalidierung wichtig
 - Vergleich von Communications Mining™ und Google AutoML für Conversation Data Intelligence
 
 - Lizenzierung
 - Häufige Fragen und mehr
 

Communications Mining-Benutzerhandbuch
Mit den umfassenden Validierungsfunktionen der Plattform, einschließlich der Funktion zur Modellbewertung , ist es jetzt relativ einfach zu verstehen, wann das Training Ihres Modells beendet werden soll.
Das erforderliche Leistungsniveau für Ihr Modell liegt bei Ihnen und Ihrem Unternehmen. Die Modellbewertung der Plattform gibt Ihnen jedoch einen guten Einblick in die Leistung Ihres Modells und wie Sie es bei Bedarf verbessern können.
Ein Modell mit einer Punktzahl von 70 oder mehr gilt als gut, während eine Punktzahl von 90 erforderlich ist, damit ein Modell als exzellent eingestuft werden kann .
Unabhängig vom Anwendungsfall wird empfohlen, Folgendes anzuwenden, bevor Sie das Training beenden:
- Dass Ihr Modell mindestens eine Gesamtpunktzahl hat, die die Bewertung Gut ergibt, da dies bedeutet, dass die Plattform das Modell insgesamt als relativ in Ordnung einsieht.
 - Dass jeder einzelne Faktor auch eine Bewertung von mindestens Gut hat.
 - Dass keine Ihrer wichtigen Beschriftungen rote oder orange Leistungswarnungen aufweist.
 
Bei einem analyseorientierten Modell sollte es neben den zuvor aufgeführten Faktoren im Ermessen des Modelltrainers liegen, wie sehr er die Leistung seines Modells optimieren möchte. Die Leistungsanforderung kann von verschiedenen Faktoren abhängen, einschließlich den Zielen des Anwendungsfalls und der Fähigkeit des Modelltrainers, das Training fortzusetzen.
Wenn Sie ein Modell erstellen, das Automatisierungen aktivieren soll, wird empfohlen, dass Ihr Modell eine hervorragende Bewertung hat und dass das Modell auch mit Live-Daten getestet wird, bevor es in der Produktion eingesetzt wird.
Zusätzliche optionale Leistungsprüfungen
Obwohl es sich bei der Modellbewertung um eine umfassende Leistungsbewertung handelt, möchten Sie möglicherweise einige zusätzliche Überprüfungen durchführen, um sicherzustellen, dass Sie mit der Leistung Ihres Modells zufrieden sind.
In diesem Fall finden Sie hier einige nützliche Überprüfungen, die Sie mit empfohlenen Aktionen durchführen können. Es ist erwähnenswert, dass die Plattform, wenn sie der Meinung ist, dass es für Sie wichtig ist, eine dieser Aktionen durchzuführen, diese auch in der Validierung empfiehlt .
| Prüfen (Check) | Prozess | Auszuführende Aktionen | 
|---|---|---|
| Die Vorhersageüberprüfung für den Zeitraum von zwei Tagen | Überprüfen Sie die Vorhersagen für die letzten Daten im Wert von 1–2 Tagen: Verwenden Sie den Zeitfilter und „Aktuell“ in der Dropdownliste, um Daten im Wert von 2 den letzten Tagen auszuwählen. Überprüfen Sie die Vorhersagen und stellen Sie sicher, dass jede Nachricht eine Vorhersage mit relativ hoher Konfidenz hat. Durch die Überprüfung von Daten im Wert von 1–2 Tagen sollte sichergestellt werden, dass alle potenziellen Konzepte abgedeckt sind | 
                         ‑ Wenn es Nachrichten ohne Vorhersagen oder mit unzureichender Konfidenz gibt, kommentieren Sie sie wie gewohnt * Trainieren Sie dann weiter mit Mischen und niedriger Konfidenz  | 
| Mischen | Überprüfen Sie die Vorhersagen in Mischen für mindestens 5 Seiten. Jede Nachricht sollte eine Beschriftung haben, die mit einer relativ hohen Konfidenz vorhergesagt wird | 
                         ‑ Wenn es Nachrichten ohne Vorhersagen oder mit unzureichender Konfidenz gibt, kommentieren Sie sie wie gewohnt * Trainieren Sie dann weiter mit Mischen und niedriger Konfidenz  | 
| Niedrige Konfidenz | Der Modus „Niedrige Konfidenz“ zeigt Ihnen Nachrichten an, die durch informative Beschriftungsvorhersagen nicht gut abgedeckt werden. Diese Nachrichten haben entweder keine Vorhersagen oder Vorhersagen mit sehr geringer Konfidenz für Beschriftungen, die die Plattform als informativ verstehen. | 
                         * Wenn Nachrichten nicht behandelt wurden, fügen Sie eine neue Beschriftung für sie hinzu und trainieren Sie wie gewohnt * Wenn Sie eine Nachricht für eine vorhandene Beschriftung finden, wenden Sie sie wie gewohnt an  | 
| Erneut erkennen | Die Rückkehr zu Discover kann Ihnen potenzielle neue Cluster anzeigen, bei denen die Wahrscheinlichkeit, dass eine Beschriftung angewendet wird, gering ist. Dies sollte verwendet werden, um sicherzustellen, dass Sie keine potenziellen Beschriftungen übersehen haben, oder um vorhandene Beschriftungen mit vielfältigeren Beispielen bereitzustellen, ähnlich wie bei „Niedrige Konfidenz“. | 
                         * Wenn es Cluster ohne Vorhersagen (oder mit sehr niedriger) gibt, kommentieren Sie den Cluster entweder mit einer neuen oder ggf. mit einer vorhandenen Beschriftung Trainieren Sie jede neue Bezeichnung wie gewohnt  | 
Erneut erkennen
Erneut erkennen ist ein Schritt, der jederzeit während des Trainingsprozesses wiederholt werden kann, aber auch nützlich sein kann, wenn überprüft wird, ob Sie ausreichend Training abgeschlossen haben.
Diese Überprüfung beinhaltet im Wesentlichen nur, zur Seite „Erkennen“ im Clustermodus zurückzukehren und die darin enthaltenen Cluster zu überprüfen , um ihre Vorhersagen zu überprüfen und um festzustellen, ob Discover Cluster gefunden hat, die bei Ihrem Training möglicherweise übersehen wurden.
Da die Cluster in Discover erneut trainiert werden, nachdem eine beträchtliche Menge an Training in der Plattform abgeschlossen wurde (180 Anmerkungen) oder eine beträchtliche Datenmenge zum Dataset hinzugefügt wurde (1000 Nachrichten oder 1 %, je nachdem, welcher Wert höher ist, und mindestens 1 Anmerkung ), sollten während des gesamten Trainingsprozesses regelmäßig aktualisiert werden.
Discover versucht, Cluster zu finden, die durch Beschriftungsvorhersagen nicht gut abgedeckt werden. Wenn es in Discover Cluster gibt, die bestimmte Beschriftungen vorhergesagt haben sollten, dies aber nicht geschieht, wissen Sie, dass Sie für diese Beschriftungen mehr Training durchführen müssen. Weitere Informationen zum Versehen von Clustern in Discover mit Anmerkungen finden Sie unter Training mit Clustern.
Wenn Ihr Modell gut trainiert ist, wird Discover Schwierigkeiten haben, Cluster mit geringer Konfidenz oder ohne Vorhersagen zu finden. Wenn Sie feststellen, dass jeder der Cluster in Discover eine relativ hohe Konfidenz und korrekte Vorhersagen aufweist, ist das ein guter Indikator dafür, dass Ihr Modell das Dataset gut abdeckt.