- Einleitung
- Einrichten Ihres Kontos
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- Allgemeine Felder
- Beschriftungen (Vorhersagen, Konfidenzniveaus, Beschriftungshierarchie und Beschriftungsstimmung)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Nachrichten mit und ohne Anmerkungen
- Extraktionsfelder
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Zugriffssteuerung und Administration
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen oder Löschen einer Datenquelle in der GUI
- Hochladen einer CSV-Datei in eine Quelle
- Vorbereiten von Daten für den CSV-Upload
- Ein Dataset wird erstellt
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern der Dataset-Einstellungen
- Löschen einer Nachricht
- Löschen eines Datasets
- Exportieren eines Datasets
- Verwenden von Exchange-Integrationen
- Modelltraining und -wartung
- Grundlegendes zu Beschriftungen, allgemeinen Feldern und Metadaten
- Beschriftungshierarchie und Best Practices
- Vergleichen von Anwendungsfällen für Analyse und Automatisierung
- Konvertieren Ihrer Ziele in Bezeichnungen
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung
- Der Status des Datasets
- Best Practice für Modelltraining und Anmerkungen
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Grundlegendes zu Datenanforderungen
- Trainieren
- Einführung in Verfeinerung
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- So funktioniert die Validierung
- Verstehen und Verbessern der Modellleistung
- Gründe für die geringe durchschnittliche Beschriftungsgenauigkeit
- Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Abgleichs und Verwendung des Abgleichs
- Wann das Training Ihres Modells beendet werden soll
- Verwenden von allgemeinen Feldern
- Generative Extraktion
- Verwenden von Analyse und Überwachung
- Automations and Communications Mining™
- Entwickler (Developer)
- Verwenden der API
- API-Tutorial
- Quellen
- Datasets
- Anmerkungen
- Anhänge (Attachments)
- Vorhersagen
- Erstellen Sie einen Stream
- Aktualisieren Sie einen Stream
- Rufen Sie einen Stream nach Namen ab
- Rufen Sie alle Streams ab
- Löschen Sie einen Stream
- Ergebnisse aus Stream abrufen
- Kommentare aus einem Stream abrufen (Legacy)
- Bringen Sie einen Stream vor
- Einen Stream zurücksetzen
- Kennzeichnen Sie eine Ausnahme
- Entfernen Sie das Tag einer Ausnahme
- Prüfungsereignisse
- Alle Benutzer abrufen
- Hochladen von Daten
- Herunterladen von Daten
- Exchange Integration mit einem Azure-Dienstbenutzer
- Exchange-Integration mit der Azure-Anwendungsauthentifizierung
- Exchange-Integration mit Azure Application Authentication und Graph
- Abrufen von Daten für Tableau mit Python
- Elasticsearch-Integration
- Allgemeine Feldextraktion
- Selbst gehostete Exchange-Integration
- UiPath® Automatisierungs-Framework
- Offizielle UiPath®-Aktivitäten
- Wie Maschinen lernen, Wörter zu verstehen: eine Anleitung zu Einbettungen in NLP
- Eingabeaufforderungsbasiertes Lernen mit Transformers
- Ef Robots II: Wissensdegesterration und Feinabstimmung
- Effiziente Transformer I: Warnmechanismen
- Tief hierarchische, nicht überwachte Absichtsmodellierung: Nutzen ohne Trainingsdaten
- Beheben von Anmerkungsverzerrungen mit Communications Mining™
- Aktives Lernen: Bessere ML-Modelle in weniger Zeit
- Auf Zahlen kommt es an – Bewertung der Modellleistung mit Metriken
- Darum ist Modellvalidierung wichtig
- Vergleich von Communications Mining™ und Google AutoML für Conversation Data Intelligence
- Lizenzierung
- Häufige Fragen und mehr

Communications Mining-Benutzerhandbuch
Wenn Sie eine Taxonomie durch Kommentieren von Daten erstellen, erstellen Sie ein Modell. Dieses Modell verwendet die Bezeichnungen, die Sie auf einen Datensatz angewendet haben, um ähnliche Konzepte und Absichten in anderen Nachrichten zu identifizieren und vorherzusagen, welche Bezeichnungen für sie gelten.
Auf diese Weise verfügt jede Beschriftung über einen eigenen Satz an Genauigkeits- und Erinnerungspunktzahlen.
Denken Sie zum Beispiel an eine Beschriftung in der Plattform namens Information anfordern als Teil einer Taxonomie. In diesem Szenario könnten sich Genauigkeit und Erinnerung wie folgt darauf beziehen:
- Genauigkeit - Für alle 100 Nachrichten, die mit dem Label „Informationsanforderung“ vorhergesagt wurden, ist dies der Prozentsatz der Male, die die „Informationsanforderung“ korrekt vorhergesagt wurde, von der Gesamtzeit, die sie vorhergesagt wurde. Eine Genauigkeit von 95 % würde bedeuten, dass von 100 Nachrichten 95 korrekt als „Informationsanforderung“ mit Anmerkungen versehen würden und 5 falsch mit Anmerkungen versehen würden (d. h. sie hätten nicht mit dieser Beschriftung mit Anmerkungen versehen werden dürfen).
- Rückruf – Wie viele Nachrichten für jeweils 100 Nachrichten, die als „Informationsanforderung“ mit Anmerkungen versehen hätten, die Plattform gefunden hat. Eine 77-%-Erinnerung würde bedeuten, dass 23 Nachrichten mit der Beschriftung „Informationen anfordern“ hätten vorhergesagt werden müssen, diese jedoch fehlten
Die Erinnerung über alle Beschriftungen hinweg hängt direkt mit der Abdeckung Ihres Modells zusammen.
Wenn Sie zuversichtlich sind, dass Ihre Taxonomie alle relevanten Konzepte in Ihrem Dataset abdeckt und Ihre Beschriftungen eine angemessene Genauigkeit aufweisen, bestimmt die Erinnerung dieser Beschriftungen, wie gut Ihr Dataset durch Beschriftungsvorhersagen abgedeckt wird. Wenn alle Ihre Beschriftungen eine hohe Erinnerung haben, hat Ihr Modell eine hohe Abdeckung.
Wir müssen auch den Zielkonflikt zwischen Präzision und Wiedererkennung innerhalb einer bestimmten Modellversion verstehen.
Die Präzisions- und Rückrufstatistiken für jede Bezeichnung in einer bestimmten Modellversion werden durch einen Konfidenzschwellenwert bestimmt (d. h Wie sicher ist das Modell, auf das diese Bezeichnung angewendet wird?).
Die Plattform veröffentlicht Präzisions- und Rückrufstatistiken live auf der Seite Validierung, und Benutzer können mithilfe des anpassbaren Schiebereglers nachvollziehen, wie sich unterschiedliche Konfidenzschwellenwerte auf die Präzisions- und Rückrufbewertungen auswirken.
Wenn Sie den Konfidenzschwellenwert erhöhen, ist das Modell sicherer, dass eine Bezeichnung zutrifft, und daher nimmt die Genauigkeit in der Regel zu. Da das Modell jedoch sicherer sein muss, um eine Vorhersage anzuwenden, werden gleichzeitig weniger Vorhersagen getroffen und die Rückrufe werden in der Regel zurückgehen. Das Umgekehrte ist in der Regel auch der Fall, wenn Sie den Konfidenzschwellenwert verringern.
Als Faustregel gilt: Wenn Sie den Konfidenzschwellenwert anpassen und sich die Genauigkeit verbessert, wird die Wiedererkennung in der Regel verringern und umgekehrt.
Innerhalb der Plattform ist es wichtig, diesen Zielkonflikt zu verstehen und zu verstehen, was er beim Einrichten von Automatisierungen über die Plattform bedeutet. Benutzer müssen einen Konfidenzschwellenwert für die Bezeichnung festlegen, die Teil ihrer Automatisierung sein soll, und dieser Schwellenwert muss angepasst werden, um Präzisions- und Rückrufstatistiken bereitzustellen, die für diesen Prozess akzeptabel sind.
Bestimmte Prozesse können eine hohe Wiedererkennung legen (so viele Instanzen eines Ereignisses wie möglich abfangen), während andere hohe Genauigkeiten (korrektes Erkennen von Instanzen eines Ereignisses) Wert legen.