- Einleitung
- Einrichten Ihres Kontos
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- Allgemeine Felder
- Beschriftungen (Vorhersagen, Konfidenzniveaus, Beschriftungshierarchie und Beschriftungsstimmung)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Nachrichten mit und ohne Anmerkungen
- Extraktionsfelder
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Zugriffskontrolle und Verwaltung
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen oder Löschen einer Datenquelle in der GUI
- Hochladen einer CSV-Datei in eine Quelle
- Vorbereiten von Daten für den CSV-Upload
- Ein Dataset wird erstellt
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern der Dataset-Einstellungen
- Löschen einer Nachricht
- Löschen eines Datasets
- Exportieren eines Datasets
- Verwenden von Exchange-Integrationen
- Modelltraining und -wartung
- Grundlegendes zu Beschriftungen, allgemeinen Feldern und Metadaten
- Beschriftungshierarchie und Best Practices
- Vergleichen von Anwendungsfällen für Analyse und Automatisierung
- Konvertieren Ihrer Ziele in Bezeichnungen
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung
- Der Status des Datasets
- Best Practice für Modelltraining und Anmerkungen
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Training von Chat- und Anrufdaten
- Grundlegendes zu Datenanforderungen
- Trainieren
- Einführung in Verfeinerung
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- So funktioniert die Validierung
- Verstehen und Verbessern der Modellleistung
- Gründe für die geringe durchschnittliche Beschriftungsgenauigkeit
- Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Abgleichs und Verwendung des Abgleichs
- Wann das Training Ihres Modells beendet werden soll
- Anheften und Taggen einer Modellversion
- Löschen eines angehefteten Modells
- Hinzufügen neuer Bezeichnungen zu vorhandenen Taxonomien
- Verwalten eines Modells in der Produktion
- Modell-Rollback
- Verwenden von allgemeinen Feldern
- Generative Extraktion
- Verwenden von Analyse und Überwachung
- Automations and Communications Mining™
- Entwickler (Developer)
- Einleitung
- Verwenden der API
- API-Tutorial
- Zusammenfassung
- Quellen
- Datasets
- Anmerkungen
- Anhänge (Attachments)
- Vorhersagen
- Erstellen Sie einen Stream
- Aktualisieren Sie einen Stream
- Rufen Sie einen Stream nach Namen ab
- Rufen Sie alle Streams ab
- Löschen Sie einen Stream
- Ergebnisse aus Stream abrufen
- Kommentare aus einem Stream abrufen (Legacy)
- Bringen Sie einen Stream vor
- Einen Stream zurücksetzen
- Kennzeichnen Sie eine Ausnahme
- Entfernen Sie das Tag einer Ausnahme
- Prüfungsereignisse
- Alle Benutzer abrufen
- Exchange Integration mit einem Azure-Dienstbenutzer
- Exchange-Integration mit der Azure-Anwendungsauthentifizierung
- Exchange-Integration mit Azure Application Authentication und Graph
- Abrufen von Daten für Tableau mit Python
- Elasticsearch-Integration
- Selbst gehostete Exchange-Integration
- UiPath® Automatisierungs-Framework
- UiPath® Marketplace-Aktivitäten
- Offizielle UiPath®-Aktivitäten
- Wie Maschinen lernen, Wörter zu verstehen: eine Anleitung zu Einbettungen in NLP
- Eingabeaufforderungsbasiertes Lernen mit Transformers
- Ef Robots II: Wissensdegesterration und Feinabstimmung
- Effiziente Transformer I: Warnmechanismen
- Tief hierarchische, nicht überwachte Absichtsmodellierung: Nutzen ohne Trainingsdaten
- Beheben von Anmerkungsverzerrungen mit Communications Mining™
- Aktives Lernen: Bessere ML-Modelle in weniger Zeit
- Auf Zahlen kommt es an – Bewertung der Modellleistung mit Metriken
- Darum ist Modellvalidierung wichtig
- Vergleich von Communications Mining™ und Google AutoML für Conversation Data Intelligence
- Lizenzierung
- Häufige Fragen und mehr

Communications Mining-Benutzerhandbuch
Hinzufügen neuer Bezeichnungen zu vorhandenen Taxonomien
linkÜberblick
linkWenn Sie bereits über eine ausgereifte Taxonomie mit vielen überprüften Meldungen verfügen, erfordert das Hinzufügen einer neuen Beschriftung einiges zusätzliches Training, um sie an die restlichen Beschriftungen in der Taxonomie anzupassen.
Wenn Sie einer gut trainierten Taxonomie eine neue Beschriftung hinzufügen, stellen Sie sicher, dass Sie sie auf zuvor überprüfte Nachrichten anwenden, wenn die Beschriftung für diese relevant ist. Andernfalls hat das Modell effektiv gelernt, dass die neue Beschriftung nicht für sie gelten sollte, und wird Schwierigkeiten haben, die neue Beschriftung sicher vorherzusagen.
Je mehr überprüfte Beispiele im Dataset vorhanden sind, desto mehr Training ist beim Hinzufügen einer neuen Beschriftung erforderlich. Es sei denn, es handelt sich um ein völlig neues Konzept, das Sie in älteren Daten nicht finden, sondern in viel neueren Daten.
Schritte
link- Erstellen Sie die neue Beschriftung, wenn Sie ein Beispiel finden, in dem sie angewendet werden soll.
-
Wählen Sie Fehlende Beschriftung aus, um weitere Nachrichten zu finden, bei denen die Plattform bestimmt, dass die neue Beschriftung angewendet wurde. Weitere Informationen finden Sie unter Nachrichten mit einer fehlenden Beschriftung suchen.
- Sobald das Modell Zeit hatte, erneut zu trainieren und die neuen Validierungsstatistiken zu berechnen, überprüfen Sie auf derSeite Validierung die Leistung der neuen Beschriftung .
- Prüfen Sie, ob mehr Training erforderlich ist.
Suchen von Beispielen, wo eine Beschriftung angewendet werden könnte
link- Suchen Sie mithilfe der Suchfunktion in Discover nach wichtigen Begriffen oder Ausdrücken, um ähnliche Instanzen zu finden. Auf diese Weise können Sie die Beschriftung massenweise anwenden, wenn viele ähnliche Beispiele in den Suchergebnissen vorhanden sind.
- Alternativ zum ersten Schritt können Sie in Explore nach wichtigen Begriffen oder Ausdrücken suchen. Dies ist möglicherweise eine bessere Methode, da Sie nach Überprüften Nachrichten filtern können und die Suche im Analysefenster eine ungefähre Anzahl für die Anzahl der Nachrichten zurückgibt, die mit Ihren Suchbegriffen übereinstimmen.
- Wählen Sie Beschriftungen aus, von denen Sie glauben, dass sie oft neben Ihrer neuen Beschriftung erscheinen, und überprüfen Sie die angehefteten Beispiele für diese Beschriftung, um Beispiele zu finden, bei denen Ihre neue Beschriftung angewendet werden sollte.
- Sobald Sie einige angeheftete Beispiele haben, überprüfen Sie, ob es im Beschriftungsmodus vorhergesagt wird. Wenn dies der Fall ist, fügen Sie weitere Beispiele mit diesem Modus hinzu.
- Wenn Sie in einem Dataset mit aktivierter Stimmung Anmerkungen hinzufügen und Ihre neue Beschriftung entweder positiv oder negativ ist, können Sie bei der Überprüfung der überprüften Beispiele auch zwischen positiver und negativer Stimmung wählen. Sie können die Textsuche jedoch nicht mit dem Filter Überprüft und Stimmung kombinieren.
Suchen von Nachrichten mit einer Beschriftung Fehlt
link- Nachdem Sie einige Beispiele mit den vorherigen Methoden mit Anmerkungen versehen haben und das Modell Zeit hatte, erneut zu trainieren, verwenden Sie die Funktion Fehlende Beschriftung in Explore , indem Sie Ihre Beschriftung auswählen und dann im Dropdownmenü Fehlende Beschriftung auswählen.
- Dadurch werden Ihnen überprüfte Nachrichten angezeigt, bei denen das Modell ermittelt, dass die ausgewählte Beschriftung in den zuvor überprüften Beispielen möglicherweise übersehen wurde.
- In diesen Fällen zeigt das Modell die Beschriftung als Vorschlag an, wie im Bildbeispiel gezeigt.
- Wenden Sie die Beschriftung auf alle Nachrichten an, bei denen das Modell korrekterweise annimmt, dass die Beschriftung angewendet werden sollte.
- Setzen Sie das Training auf dieser Seite fort, bis Sie alle richtigen Beispiele mit Anmerkungen versehen haben und dieser Modus Ihnen keine Beispiele mehr anzeigt, bei denen die Beschriftung eigentlich zutreffen sollte.