- Einleitung
- Einrichten Ihres Kontos
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- Allgemeine Felder
- Beschriftungen (Vorhersagen, Konfidenzniveaus, Beschriftungshierarchie und Beschriftungsstimmung)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Nachrichten mit und ohne Anmerkungen
- Extraktionsfelder
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Zugriffssteuerung und Administration
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen oder Löschen einer Datenquelle in der GUI
- Hochladen einer CSV-Datei in eine Quelle
- Vorbereiten von Daten für den CSV-Upload
- Ein Dataset wird erstellt
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern der Dataset-Einstellungen
- Löschen einer Nachricht
- Löschen eines Datasets
- Exportieren eines Datasets
- Verwenden von Exchange-Integrationen
- Modelltraining und -wartung
- Grundlegendes zu Beschriftungen, allgemeinen Feldern und Metadaten
- Beschriftungshierarchie und Best Practices
- Vergleichen von Anwendungsfällen für Analyse und Automatisierung
- Konvertieren Ihrer Ziele in Bezeichnungen
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung
- Der Status des Datasets
- Best Practice für Modelltraining und Anmerkungen
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Grundlegendes zu Datenanforderungen
- Trainieren
- Einführung in Verfeinerung
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- So funktioniert die Validierung
- Verstehen und Verbessern der Modellleistung
- Gründe für die geringe durchschnittliche Beschriftungsgenauigkeit
- Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Abgleichs und Verwendung des Abgleichs
- Wann das Training Ihres Modells beendet werden soll
- Verwenden von allgemeinen Feldern
- Generative Extraktion
- Verwenden von Analyse und Überwachung
- Automations and Communications Mining™
- Entwickler (Developer)
- Verwenden der API
- API-Tutorial
- Quellen
- Datasets
- Anmerkungen
- Anhänge (Attachments)
- Vorhersagen
- Erstellen Sie einen Stream
- Aktualisieren Sie einen Stream
- Rufen Sie einen Stream nach Namen ab
- Rufen Sie alle Streams ab
- Löschen Sie einen Stream
- Ergebnisse aus Stream abrufen
- Kommentare aus einem Stream abrufen (Legacy)
- Bringen Sie einen Stream vor
- Einen Stream zurücksetzen
- Kennzeichnen Sie eine Ausnahme
- Entfernen Sie das Tag einer Ausnahme
- Prüfungsereignisse
- Alle Benutzer abrufen
- Hochladen von Daten
- Herunterladen von Daten
- Exchange Integration mit einem Azure-Dienstbenutzer
- Exchange-Integration mit der Azure-Anwendungsauthentifizierung
- Exchange-Integration mit Azure Application Authentication und Graph
- Abrufen von Daten für Tableau mit Python
- Elasticsearch-Integration
- Allgemeine Feldextraktion
- Selbst gehostete Exchange-Integration
- UiPath® Automatisierungs-Framework
- Offizielle UiPath®-Aktivitäten
- Wie Maschinen lernen, Wörter zu verstehen: eine Anleitung zu Einbettungen in NLP
- Eingabeaufforderungsbasiertes Lernen mit Transformers
- Ef Robots II: Wissensdegesterration und Feinabstimmung
- Effiziente Transformer I: Warnmechanismen
- Tief hierarchische, nicht überwachte Absichtsmodellierung: Nutzen ohne Trainingsdaten
- Beheben von Anmerkungsverzerrungen mit Communications Mining™
- Aktives Lernen: Bessere ML-Modelle in weniger Zeit
- Auf Zahlen kommt es an – Bewertung der Modellleistung mit Metriken
- Darum ist Modellvalidierung wichtig
- Vergleich von Communications Mining™ und Google AutoML für Conversation Data Intelligence
- Lizenzierung
- Häufige Fragen und mehr

Communications Mining-Benutzerhandbuch
Der Extraktionsvalidierungsprozess ist erforderlich, um die Leistung dieser Extraktionen durch Validierung zu verstehen.
Entscheiden Sie sich für die Extraktion, die Sie trainieren möchten. Bericht > Kontoauszug ist ein Beispiel für ein zu trainierendes Schema.
Um diesen Prozess zu automatisieren, extrahieren Sie die folgenden Datenpunkte zur Eingabe in ein nachgelagertes System:
Verwenden Sie diesen Trainingsmodus nach Bedarf, um die Anzahl der Trainingsbeispiele für jede Extraktion, d. h. einen Satz von Feldern, die einer Beschriftung zugewiesen sind, auf mindestens 25 zu erhöhen. Dadurch kann das Modell die Leistung der Extraktion genau einschätzen.
Um Ihre Extraktionen zu generieren, gehen Sie wie folgt vor:
- Navigieren Sie zur Registerkarte Erkunden .
- Wählen Sie Beschriftung und dann die Beschriftung aus, für die Sie Extraktionen generieren möchten.
- Wählen Sie Extraktionen vorhersehen aus, wodurch Extraktionen pro Seite in Explore generiert werden. Das bedeutet, dass Vorhersagen für alle Kommentare auf einer bestimmten Seite angewendet werden. …
Hinweis: Jedes Mal, wenn Sie zur nächsten Seite wechseln, müssen Sie Extraktionen vorhersagen erneut auswählen.
Darüber hinaus können Sie Extraktionen auf individueller Kommentarebene generieren, indem Sie Felder mit Anmerkungen versehen auswählen und dann Extraktionen vorhersagen. Weitere Informationen finden Sie unter Vorhersagen von Extraktionen.
-
Wenn das Modell nach den Extraktionsvorhersagen Feldextraktionen im Kommentar aufgenommen hat, hebt es den relevanten Abschnitt im Text hervor. Das Modell zeigt den extrahierten Wert im Seitenbereich an. Informationen zum Validieren der vorhergesagten Werte finden Sie unter Validieren und Kommentieren von generierten Extraktionen.
In diesem Abschnitt wird beschrieben, was passiert, wenn Sie Extraktionen vorhersagen:
- Das Modell verwendet generative Modelle und ordnet jeden der Datenpunkte zu, die Sie zuvor in unserem Extraktionsschema definiert haben, um sie mit einer Absicht, d. h. einer Beschriftung, zu verknüpfen.
- Es extrahiert und gibt sie in einem strukturierten Schema zurück, damit ein KMU sie durchgehen und bestätigen kann.
- Das strukturierte Schema soll komplexere Automatisierungen ermöglichen und ist in der API im JSON-Format strukturiert, damit es von allen nachgelagerten Automatisierungen genutzt werden kann.