- Einleitung
- Einrichten Ihres Kontos
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- Allgemeine Felder
- Beschriftungen (Vorhersagen, Konfidenzniveaus, Beschriftungshierarchie und Beschriftungsstimmung)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Nachrichten mit und ohne Anmerkungen
- Extraktionsfelder
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Zugriffssteuerung und Administration
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen oder Löschen einer Datenquelle in der GUI
- Hochladen einer CSV-Datei in eine Quelle
- Vorbereiten von Daten für den CSV-Upload
- Ein Dataset wird erstellt
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern der Dataset-Einstellungen
- Löschen einer Nachricht
- Löschen eines Datasets
- Exportieren eines Datasets
- Verwenden von Exchange-Integrationen
- Modelltraining und -wartung
- Grundlegendes zu Beschriftungen, allgemeinen Feldern und Metadaten
- Beschriftungshierarchie und Best Practices
- Vergleichen von Anwendungsfällen für Analyse und Automatisierung
- Konvertieren Ihrer Ziele in Bezeichnungen
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung
- Der Status des Datasets
- Best Practice für Modelltraining und Anmerkungen
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Training von Chat- und Anrufdaten
- Grundlegendes zu Datenanforderungen
- Trainieren
- Einführung in Verfeinerung
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- So funktioniert die Validierung
- Verstehen und Verbessern der Modellleistung
- Gründe für die geringe durchschnittliche Beschriftungsgenauigkeit
- Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Abgleichs und Verwendung des Abgleichs
- Wann das Training Ihres Modells beendet werden soll
- Verwenden von allgemeinen Feldern
- Generative Extraktion
- Verwenden von Analyse und Überwachung
- Automations and Communications Mining™
- Entwickler (Developer)
- Verwenden der API
- API-Tutorial
- Quellen
- Datasets
- Anmerkungen
- Anhänge (Attachments)
- Vorhersagen
- Erstellen Sie einen Stream
- Aktualisieren Sie einen Stream
- Rufen Sie einen Stream nach Namen ab
- Rufen Sie alle Streams ab
- Löschen Sie einen Stream
- Ergebnisse aus Stream abrufen
- Kommentare aus einem Stream abrufen (Legacy)
- Bringen Sie einen Stream vor
- Einen Stream zurücksetzen
- Kennzeichnen Sie eine Ausnahme
- Entfernen Sie das Tag einer Ausnahme
- Prüfungsereignisse
- Alle Benutzer abrufen
- Hochladen von Daten
- Herunterladen von Daten
- Exchange Integration mit einem Azure-Dienstbenutzer
- Exchange-Integration mit der Azure-Anwendungsauthentifizierung
- Exchange-Integration mit Azure Application Authentication und Graph
- Abrufen von Daten für Tableau mit Python
- Elasticsearch-Integration
- Allgemeine Feldextraktion
- Selbst gehostete Exchange-Integration
- UiPath® Automatisierungs-Framework
- Offizielle UiPath®-Aktivitäten
- Wie Maschinen lernen, Wörter zu verstehen: eine Anleitung zu Einbettungen in NLP
- Eingabeaufforderungsbasiertes Lernen mit Transformers
- Ef Robots II: Wissensdegesterration und Feinabstimmung
- Effiziente Transformer I: Warnmechanismen
- Tief hierarchische, nicht überwachte Absichtsmodellierung: Nutzen ohne Trainingsdaten
- Beheben von Anmerkungsverzerrungen mit Communications Mining™
- Aktives Lernen: Bessere ML-Modelle in weniger Zeit
- Auf Zahlen kommt es an – Bewertung der Modellleistung mit Metriken
- Darum ist Modellvalidierung wichtig
- Vergleich von Communications Mining™ und Google AutoML für Conversation Data Intelligence
- Lizenzierung
- Häufige Fragen und mehr

Communications Mining-Benutzerhandbuch
Auf der Seite Validierung werden Benutzern detaillierte Informationen über die Leistung ihres Modells sowohl für Bezeichnungen als auch für allgemeine Felder angezeigt.
Auf der Registerkarte Beschriftungen können Benutzer die allgemeine Modellbewertung für die Beschriftung anzeigen, einschließlich einer detaillierten Aufschlüsselung der Faktoren, aus denen sich ihre Bewertung zusammensetzt, und anderer Metriken zu ihrem Dataset und der Leistung einzelner Beschriftungen.
Auf der Registerkarte Allgemeine Felder können Benutzer Statistiken über die Leistung von Vorhersagen für allgemeine Felder für alle im Dataset aktivierten allgemeinen Felder anzeigen.
Im Dropdownmenü Modellversion können Sie alle Validierungspunktzahlen für frühere Modellversionen in einem bestimmten Dataset anzeigen. Sie können auch einzelne priorisieren oder mit einem Stern versehen, sodass sie in Zukunft oben auf der Liste erscheinen. Dieses Tool kann nützlich sein, um den Fortschritt bei der Erstellung Ihres Modells zu verfolgen und zu vergleichen.
Die Registerkarte Faktoren zeigt:
- die vier Schlüsselfaktoren, die zur Modellbewertung beitragen: Ausgewogenheit, Abdeckung, durchschnittliche Beschriftungsleistung und die Leistung der Beschriftungen mit der schlechtesten Leistung.
- Für jeden Faktor wird eine Punktzahl sowie eine Aufschlüsselung der mitwirkenden Faktoren angegeben.
- auswählbare empfohlene nächstbeste Aktionen, um die Punktzahl jedes Faktors zu verbessern.
Die Registerkarte Metriken zeigt:
- Die Größe des Trainingssatzes – die Anzahl der Nachrichten, auf denen das Modell trainiert wurde.
- Die Testsatzgröße – die Anzahl der Nachrichten, für die das Modell ausgewertet wurde.
- Anzahl der Beschriftungen – Die Gesamtzahl der Beschriftungen in Ihrer Taxonomie.
- Mittlere Genauigkeit bei Erinnerung – eine Grafik, die die durchschnittliche Genauigkeit bei einem bestimmten Erinnerungswert in allen Beschriftungen zeigt.
- Mittlere durchschnittliche Genauigkeit – eine Statistik, die die durchschnittliche Genauigkeit über alle Beschriftungen hinweg zeigt.
- ein Diagramm, das über alle Beschriftungen hinweg die durchschnittliche Genauigkeit pro Beschriftung im Verhältnis zur Trainingssatzgröße zeigt.
Auf der Seite Validierung können Benutzer auch einzelne Beschriftungen aus ihrer Taxonomie auswählen, um ihre Leistung zu überprüfen.
Nachdem sie eine Beschriftung ausgewählt haben, können Benutzer die durchschnittliche Genauigkeit für diese Beschriftung sowie die Genauigkeit im Vergleich zur Erinnerung für diese Beschriftung basierend auf einem bestimmten Konfidenzschwellenwert anzeigen, den Benutzer selbst anpassen können.
Weitere Informationen dazu, wie die Validierung für Beschriftungen tatsächlich funktioniert und wie sie verwendet wird, finden Sie unter So funktioniert die Validierung.
Die Registerkarte Allgemeine Felder zeigt:
- Die Anzahl der allgemeinen Felder im Trainingssatz – Die Anzahl der allgemeinen Felder mit Anmerkungen, auf denen das Validierungsmodell trainiert wurde.
- Die Anzahl der allgemeinen Felder im Testsatz – Die Anzahl der allgemeinen Felder mit Anmerkungen, für die das Validierungsmodell ausgewertet wurde.
- Die Anzahl der Nachrichten im Trainingssatz – Die Anzahl der Nachrichten, die über allgemeine Felder mit Anmerkungen im Trainingssatz verfügen.
- Die Anzahl der Nachrichten im Testsatz – Die Anzahl der Nachrichten, die über allgemeine Felder mit Anmerkungen im Testsatz verfügen
- Durchschnittliche Genauigkeit – Die durchschnittliche Genauigkeitspunktzahl für alle allgemeinen Felder.
- Durchschnittliche Erinnerung – Die durchschnittliche Erinnerungspunktzahl für alle allgemeinen Felder.
- Durchschnittliche F1-Punktzahl – Die durchschnittliche F1-Punktzahl für alle allgemeinen Felder, wobei die F1-Punktzahl das harmonische Mittelwert für Genauigkeit und Erinnerung ist und sie gleich gewichtet.
- Dieselben Statistiken, aber für jedes einzelne allgemeine Feld.
Weitere Informationen zur Funktionsweise und Verwendung der Validierung für allgemeine Felder finden Sie unter Verwenden von allgemeinen Feldern.