- Einleitung
- Einrichten Ihres Kontos
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- Allgemeine Felder
- Beschriftungen (Vorhersagen, Konfidenzniveaus, Beschriftungshierarchie und Beschriftungsstimmung)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Nachrichten mit und ohne Anmerkungen
- Extraktionsfelder
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Zugriffssteuerung und Administration
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen oder Löschen einer Datenquelle in der GUI
- Vorbereiten von Daten für den CSV-Upload
- Hochladen einer CSV-Datei in eine Quelle
- Ein Dataset wird erstellt
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern der Dataset-Einstellungen
- Löschen einer Nachricht
- Löschen eines Datasets
- Exportieren eines Datasets
- Verwenden von Exchange-Integrationen
- Modelltraining und -wartung
- Grundlegendes zu Beschriftungen, allgemeinen Feldern und Metadaten
- Beschriftungshierarchie und Best Practices
- Vergleichen von Anwendungsfällen für Analyse und Automatisierung
- Konvertieren Ihrer Ziele in Bezeichnungen
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung
- Der Status des Datasets
- Best Practice für Modelltraining und Anmerkungen
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Grundlegendes zu Datenanforderungen
- Trainieren
- Einführung in Verfeinerung
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- So funktioniert die Validierung
- Verstehen und Verbessern der Modellleistung
- Gründe für die geringe durchschnittliche Beschriftungsgenauigkeit
- Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Abgleichs und Verwendung des Abgleichs
- Wann das Training Ihres Modells beendet werden soll
- Verwenden von allgemeinen Feldern
- Generative Extraktion
- Verwenden von Analyse und Überwachung
- Automations and Communications Mining™
- Entwickler (Developer)
- Verwenden der API
- API-Tutorial
- Quellen
- Datasets
- Anmerkungen
- Anhänge (Attachments)
- Vorhersagen
- Erstellen Sie einen Stream
- Aktualisieren Sie einen Stream
- Rufen Sie einen Stream nach Namen ab
- Rufen Sie alle Streams ab
- Löschen Sie einen Stream
- Ergebnisse aus Stream abrufen
- Kommentare aus einem Stream abrufen (Legacy)
- Bringen Sie einen Stream vor
- Einen Stream zurücksetzen
- Kennzeichnen Sie eine Ausnahme
- Entfernen Sie das Tag einer Ausnahme
- Prüfungsereignisse
- Alle Benutzer abrufen
- Hochladen von Daten
- Herunterladen von Daten
- Exchange Integration mit einem Azure-Dienstbenutzer
- Exchange-Integration mit der Azure-Anwendungsauthentifizierung
- Exchange-Integration mit Azure Application Authentication und Graph
- Abrufen von Daten für Tableau mit Python
- Elasticsearch-Integration
- Allgemeine Feldextraktion
- Selbst gehostete Exchange-Integration
- UiPath® Automatisierungs-Framework
- Offizielle UiPath®-Aktivitäten
- Wie Maschinen lernen, Wörter zu verstehen: eine Anleitung zu Einbettungen in NLP
- Eingabeaufforderungsbasiertes Lernen mit Transformers
- Ef Robots II: Wissensdegesterration und Feinabstimmung
- Effiziente Transformer I: Warnmechanismen
- Tief hierarchische, nicht überwachte Absichtsmodellierung: Nutzen ohne Trainingsdaten
- Beheben von Anmerkungsverzerrungen mit Communications Mining™
- Aktives Lernen: Bessere ML-Modelle in weniger Zeit
- Auf Zahlen kommt es an – Bewertung der Modellleistung mit Metriken
- Darum ist Modellvalidierung wichtig
- Vergleich von Communications Mining™ und Google AutoML für Conversation Data Intelligence
- Lizenzierung
- Häufige Fragen und mehr

Communications Mining-Benutzerhandbuch
- Allgemeines Modelltraining
- Beschriftungstraining
Was ist das Ziel des Trainings eines Modells?
Das Ziel des Trainings eines Modells besteht darin, einen Satz von Trainingsdaten zu erstellen, die möglichst repräsentativ für das Dataset als Ganzes sind, damit die Plattform die relevanten Beschriftungen und allgemeinen Felder für jede Nachricht genau und sicher vorhersagen kann. Die Beschriftungen und allgemeinen Felder innerhalb eines Datasets müssen untrennbar mit den übergeordneten Zielen des Anwendungsfalls verbunden sein und einen signifikanten geschäftlichen Wert bieten.
Warum kann ich in Discover nichts sehen, wenn ich gerade Daten in die Plattform hochgeladen habe?
Sobald Daten auf die Plattform hochgeladen werden, beginnt die Plattform einen Prozess namens „unüberwachtes Lernen“, durch den sie Nachrichten in Cluster mit ähnlicher semantischer Absicht gruppiert. Dieser Prozess kann je nach Größe des Datasets einige Stunden dauern. Cluster werden angezeigt, sobald der Vorgang abgeschlossen ist.
Wie viele historische Daten benötige ich, um ein Modell zu trainieren?
Um ein Modell trainieren zu können, benötigen Sie eine Mindestmenge an vorhandenen historischen Daten. Diese werden als Trainingsdaten verwendet, um die Plattform mit den erforderlichen Informationen bereitzustellen, damit Sie jedes der relevanten Konzepte für Ihre Analyse und/oder Automatisierung zuverlässig vorhersagen können.
Wir empfehlen für jeden Anwendungsfall mindestens 12 Monate an historischen Daten, um eventuelle Saisonalitäten oder Unregel Kontotreibens in den Daten, wie z. B. Prozesse am Monatsende und Hauptgeschäftszeiten, ordnungsgemäß zu erfassen.
Muss ich mein Modell jedes Mal speichern, wenn ich eine Änderung vornehme?
Nein, Sie müssen Ihr Modell nicht speichern, nachdem Änderungen vorgenommen wurden. Jedes Mal, wenn Sie die Plattform mit Ihren Daten trainieren, d. h. Nachrichten mit Anmerkungen versehen, wird eine neue Modellversion für Ihr Dataset erstellt. Leistungsstatistiken für ältere Modellversionen können auf der Seite Validierung angezeigt werden.
Wie erkenne ich die Leistung des Modells?
Sehen Sie sich die Seite Validierung in der Plattform an, die verschiedene Leistungsmessungen meldet und eine ganzheitliche Zustandsbewertung des Modells bietet. Diese Seite wird nach jedem Trainingsereignis aktualisiert und kann verwendet werden, um Bereiche zu identifizieren, in denen das Modell möglicherweise weitere Trainingsbeispiele oder einige Beschriftungskorrekturen benötigt, um die Konsistenz sicherzustellen.
Ausführliche Erklärungen zur Modellleistung und deren Verbesserung finden Sie unter Validierung .
Warum sind nur 30 Cluster verfügbar und können wir sie einzeln festlegen?
Die Cluster sind eine hilfreiche Möglichkeit, Ihre Taxonomie schnell einzurichten, aber die Benutzer verbringen den größten Teil ihrer Zeit auf der Seite Erkunden anstatt in Discover.
Wenn Benutzer zu viel Zeit mit dem Kommentieren über Cluster verbringen, besteht die Gefahr, dass das Modell überangepasst wird, um bei der Vorhersage nach Meldungen zu suchen, die nur zu diesen Clustern passen. Je vielfältiger die Beispiele für jede Bezeichnung sind, desto besser kann das Modell die verschiedenen Möglichkeiten finden, die gleiche Absicht oder das gleiche Konzept auszudrücken. Dies ist einer der Hauptgrunde, warum wir jeweils nur 30 Cluster anzeigen.
Sobald genügend Training abgeschlossen oder eine beträchtliche Datenmenge zur Plattform hinzugefügt wurde, trainiert Discover erneut. Beim erneuten Training berücksichtigt es das vorhandene Training und versucht, neue Cluster zu präsentieren, die von der aktuellen Taxonomie nicht gut abgedeckt werden.
Weitere Informationen finden Sie unter Discover.
Wie viele Nachrichten befinden sich in jedem Cluster?
Insgesamt gibt es 30 Cluster, die jeweils 12 Nachrichten enthalten. Auf der Plattform können Sie die Anzahl der Nachrichten filtern, die auf der Seite in Schritten zwischen 6 und 12 pro Seite angezeigt werden. Wir empfehlen, sechs Nachrichten gleichzeitig zu kommentieren, um sicherzustellen, dass Sie das Risiko reduzieren, Nachrichten teilweise zu kommentieren.
Was bedeuten Präzision und Rückruf?
Genauigkeit und Rückruf sind Metriken, die zur Messung der Leistung eines Machine Learning-Modells verwendet werden. Eine detaillierte Beschreibung der einzelnen Elemente finden Sie im Abschnitt Verwenden der Validierung in unseren Anleitungen.
Kann ich zu einer früheren Version meines Modells zurückkehren?
Sie können auf die Validierungsübersicht früherer Modelle zugreifen, indem Sie auf der Seite Validierung mit dem Mauszeiger auf Modellversion zeigen. Dies kann hilfreich sein, um den Fortschritt beim Training Ihres Modells zu verfolgen und zu vergleichen.
Wenn Sie Ihr Modell auf eine frühere angeheftete Version zurücksetzen müssen, finden Sie weitere Informationen unter Modell-Rollback .
Kann ich den Namen einer Beschriftung später ändern?
Ja, es ist ganz einfach. Sie können die Einstellungen für jede Beschriftung aufrufen und sie jederzeit umbenennen. Weitere Informationen finden Sie unter Beschriftungsbearbeitung.
Wie erfahre ich die Anzahl der Nachrichten, die ich kommentiert habe?
Informationen zu Ihrem Dataset, einschließlich wie viele Nachrichten mit Anmerkungen versehen wurden, werden auf der Seite Datasets -Einstellungen angezeigt. Weitere Informationen zum Zugriff finden Sie unter Dataset-Einstellungen ändern.
Eine meiner Bezeichnungen funktioniert schlecht. Was kann ich tun, um sie zu verbessern?
Wenn die Seite Validierung zeigt, dass Ihre Beschriftung eine schlechte Leistung zeigt, gibt es verschiedene Möglichkeiten, ihre Leistung zu verbessern. Weitere Informationen finden Sie unter Verstehen und Verbessern der Modellleistung.
Was bedeutet das rote Ziffernblatt neben meiner Beschriftung oder dem allgemeinen Feld? Wie werde ich es los?
Die kleinen roten Zifferblätter neben jedem Bezeichnungs-/allgemeinen Feld geben an, ob weitere Beispiele für die Plattform erforderlich sind, um die Leistung des Bezeichnungs-/allgemeinen Felds genau zu schätzen. Die Zifferblätter beginnen zu verschwinden, sobald Sie mehr Trainingsbeispiele angeben, und sie verschwinden vollständig, sobald Sie 25 Beispiele erreicht haben.
Danach kann die Plattform die Leistung einer bestimmten Beschriftung/allgemeinen Felds effektiv auswerten und kann eine Leistungswarnung zurückgeben, wenn die Beschriftung oder das allgemeine Feld nicht fehlerfrei ist.
Sollte ich es vermeiden, leere oder nicht informative Nachrichten mit Anmerkungen zu versehen?
Die Plattform kann von leeren Nachrichten und nicht informativen Nachrichten lernen, sofern sie korrekt mit Anmerkungen versehen sind. Es ist jedoch anzumerken, dass nicht aussagekräftige Bezeichnungen wahrscheinlich eine beträchtliche Anzahl von Trainingsbeispielen benötigen und frei nach Konzepten gruppiert werden müssen, um die beste Leistung zu gewährleisten.
- Allgemeines Modelltraining
- Was ist das Ziel des Trainings eines Modells?
- Warum kann ich in Discover nichts sehen, wenn ich gerade Daten in die Plattform hochgeladen habe?
- Wie viele historische Daten benötige ich, um ein Modell zu trainieren?
- Muss ich mein Modell jedes Mal speichern, wenn ich eine Änderung vornehme?
- Wie erkenne ich die Leistung des Modells?
- Warum sind nur 30 Cluster verfügbar und können wir sie einzeln festlegen?
- Wie viele Nachrichten befinden sich in jedem Cluster?
- Was bedeuten Präzision und Rückruf?
- Kann ich zu einer früheren Version meines Modells zurückkehren?
- Beschriftungstraining
- Kann ich den Namen einer Beschriftung später ändern?
- Wie erfahre ich die Anzahl der Nachrichten, die ich kommentiert habe?
- Eine meiner Bezeichnungen funktioniert schlecht. Was kann ich tun, um sie zu verbessern?
- Was bedeutet das rote Ziffernblatt neben meiner Beschriftung oder dem allgemeinen Feld? Wie werde ich es los?
- Sollte ich es vermeiden, leere oder nicht informative Nachrichten mit Anmerkungen zu versehen?