- Einleitung
- Einrichten Ihres Kontos
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- Allgemeine Felder
- Beschriftungen (Vorhersagen, Konfidenzniveaus, Beschriftungshierarchie und Beschriftungsstimmung)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Nachrichten mit und ohne Anmerkungen
- Extraktionsfelder
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Zugriffssteuerung und Administration
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen oder Löschen einer Datenquelle in der GUI
- Hochladen einer CSV-Datei in eine Quelle
- Vorbereiten von Daten für den CSV-Upload
- Ein Dataset wird erstellt
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern der Dataset-Einstellungen
- Löschen einer Nachricht
- Löschen eines Datasets
- Exportieren eines Datasets
- Verwenden von Exchange-Integrationen
- Modelltraining und -wartung
- Grundlegendes zu Beschriftungen, allgemeinen Feldern und Metadaten
- Beschriftungshierarchie und Best Practices
- Vergleichen von Anwendungsfällen für Analyse und Automatisierung
- Konvertieren Ihrer Ziele in Bezeichnungen
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung
- Der Status des Datasets
- Best Practice für Modelltraining und Anmerkungen
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Grundlegendes zu Datenanforderungen
- Trainieren
- Einführung in Verfeinerung
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- So funktioniert die Validierung
- Verstehen und Verbessern der Modellleistung
- Gründe für die geringe durchschnittliche Beschriftungsgenauigkeit
- Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Abgleichs und Verwendung des Abgleichs
- Wann das Training Ihres Modells beendet werden soll
- Verwenden von allgemeinen Feldern
- Generative Extraktion
- Verwenden von Analyse und Überwachung
- Automations and Communications Mining™
- Entwickler (Developer)
- Verwenden der API
- API-Tutorial
- Quellen
- Datasets
- Anmerkungen
- Anhänge (Attachments)
- Vorhersagen
- Erstellen Sie einen Stream
- Aktualisieren Sie einen Stream
- Rufen Sie einen Stream nach Namen ab
- Rufen Sie alle Streams ab
- Löschen Sie einen Stream
- Ergebnisse aus Stream abrufen
- Kommentare aus einem Stream abrufen (Legacy)
- Bringen Sie einen Stream vor
- Einen Stream zurücksetzen
- Kennzeichnen Sie eine Ausnahme
- Entfernen Sie das Tag einer Ausnahme
- Prüfungsereignisse
- Alle Benutzer abrufen
- Hochladen von Daten
- Herunterladen von Daten
- Exchange Integration mit einem Azure-Dienstbenutzer
- Exchange-Integration mit der Azure-Anwendungsauthentifizierung
- Exchange-Integration mit Azure Application Authentication und Graph
- Abrufen von Daten für Tableau mit Python
- Elasticsearch-Integration
- Allgemeine Feldextraktion
- Selbst gehostete Exchange-Integration
- UiPath® Automatisierungs-Framework
- Offizielle UiPath®-Aktivitäten
- Wie Maschinen lernen, Wörter zu verstehen: eine Anleitung zu Einbettungen in NLP
- Eingabeaufforderungsbasiertes Lernen mit Transformers
- Ef Robots II: Wissensdegesterration und Feinabstimmung
- Effiziente Transformer I: Warnmechanismen
- Tief hierarchische, nicht überwachte Absichtsmodellierung: Nutzen ohne Trainingsdaten
- Beheben von Anmerkungsverzerrungen mit Communications Mining™
- Aktives Lernen: Bessere ML-Modelle in weniger Zeit
- Auf Zahlen kommt es an – Bewertung der Modellleistung mit Metriken
- Darum ist Modellvalidierung wichtig
- Vergleich von Communications Mining™ und Google AutoML für Conversation Data Intelligence
- Lizenzierung
- Häufige Fragen und mehr

Communications Mining-Benutzerhandbuch
Der letzte wichtige Schritt in Explore ist das Training im Modus mit niedriger Konfidenz , der Ihnen Nachrichten anzeigt, die durch informative Beschriftungsvorhersagen nicht gut abgedeckt werden. Diese Nachrichten haben entweder keine Vorhersagen oder Vorhersagen mit sehr geringer Konfidenz für Beschriftungen, die die Plattform als informativ verstehen.
Informative Beschriftungen sind solche Beschriftungen, die die Plattform als nützlich für eigenständige Beschriftungen versteht, indem die Häufigkeit betrachtet wird, mit der sie mit anderen Beschriftungen zugewiesen werden.
Dies ist ein sehr wichtiger Schritt zur Verbesserung der Gesamtabdeckung Ihres Modells. Wenn Sie Nachrichten sehen, für die vorhandene Beschriftungen vorhergesagt werden sollten, ist dies ein Zeichen dafür, dass Sie weitere Trainings für diese Beschriftungen durchführen müssen. Wenn Sie relevante Nachrichten identifizieren, für die keine aktuelle Beschriftung gilt, können Sie neue Beschriftungen erstellen, um sie zu erfassen.
Um auf den Modus „Niedrige Konfidenz“ zuzugreifen, verwenden Sie das Dropdown-Menü auf der Seite „ Durchsuchen“ , wie in der folgenden Abbildung gezeigt:
Im Modus mit niedriger Konfidenz erhalten Sie 20 Nachrichten auf einmal. Sie sollten in diesem Modus einen angemessenen Trainingsaufwand durchführen, indem Sie mehrere Seiten mit Nachrichten durchgehen und die richtigen Beschriftungen anwenden, um die Abdeckung des Modells zu erhöhen. Eine detaillierte Erklärung der Abdeckung finden Sie unter Wann Sie das Training Ihres Modells beenden sollten.
Der Gesamtumfang des Trainings, das Sie mit geringer Konfidenz durchführen müssen, hängt von verschiedenen Faktoren ab:
- Wie viel Training Sie in Mischen und Teach abgeschlossen haben. Je mehr Training Sie in Mischen und Teach durchführen, desto mehr sollte Ihr Trainingssatz ein repräsentatives Beispiel für das Dataset als Ganzes sein und desto weniger relevante Nachrichten sollten in Niedrige Konfidenz vorhanden sein.
- Der Zweck des Datasets. Wenn das Dataset für die Automatisierung verwendet werden soll und eine sehr hohe Abdeckung erfordert, sollten Sie einen größeren Anteil des Trainings in niedriger Konfidenz durchführen, um die verschiedenen Randfälle für jede Beschriftung zu identifizieren.
Sie sollten mindestens fünf Seiten mit Nachrichten in diesem Modus mit Anmerkungen versehen. Später in der Verfeinerungsphase , wenn Sie Ihre Abdeckung überprüfen, stellen Sie möglicherweise fest, dass Sie mehr Training in geringer Konfidenz absolvieren müssen, um Ihre Abdeckung weiter zu verbessern.