- Einleitung
- Einrichten Ihres Kontos
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- Allgemeine Felder
- Beschriftungen (Vorhersagen, Konfidenzniveaus, Beschriftungshierarchie und Beschriftungsstimmung)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Nachrichten mit und ohne Anmerkungen
- Extraktionsfelder
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Zugriffssteuerung und Administration
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen oder Löschen einer Datenquelle in der GUI
- Hochladen einer CSV-Datei in eine Quelle
- Vorbereiten von Daten für den CSV-Upload
- Ein Dataset wird erstellt
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern der Dataset-Einstellungen
- Löschen einer Nachricht
- Löschen eines Datasets
- Exportieren eines Datasets
- Verwenden von Exchange-Integrationen
- Modelltraining und -wartung
- Grundlegendes zu Beschriftungen, allgemeinen Feldern und Metadaten
- Beschriftungshierarchie und Best Practices
- Vergleichen von Anwendungsfällen für Analyse und Automatisierung
- Konvertieren Ihrer Ziele in Bezeichnungen
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung
- Der Status des Datasets
- Best Practice für Modelltraining und Anmerkungen
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Training von Chat- und Anrufdaten
- Grundlegendes zu Datenanforderungen
- Trainieren
- Einführung in Verfeinerung
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- So funktioniert die Validierung
- Verstehen und Verbessern der Modellleistung
- Gründe für die geringe durchschnittliche Beschriftungsgenauigkeit
- Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Abgleichs und Verwendung des Abgleichs
- Wann das Training Ihres Modells beendet werden soll
- Verwenden von allgemeinen Feldern
- Generative Extraktion
- Verwenden von Analyse und Überwachung
- Automations and Communications Mining™
- Auswählen von Konfidenz-Schwellenwerten für Bezeichnungen
- Ein Stream wird erstellt
- Aktualisieren oder Löschen eines Streams
- Entwickler (Developer)
- Verwenden der API
- API-Tutorial
- Quellen
- Datasets
- Anmerkungen
- Anhänge (Attachments)
- Vorhersagen
- Erstellen Sie einen Stream
- Aktualisieren Sie einen Stream
- Rufen Sie einen Stream nach Namen ab
- Rufen Sie alle Streams ab
- Löschen Sie einen Stream
- Ergebnisse aus Stream abrufen
- Kommentare aus einem Stream abrufen (Legacy)
- Bringen Sie einen Stream vor
- Einen Stream zurücksetzen
- Kennzeichnen Sie eine Ausnahme
- Entfernen Sie das Tag einer Ausnahme
- Prüfungsereignisse
- Alle Benutzer abrufen
- Hochladen von Daten
- Herunterladen von Daten
- Exchange Integration mit einem Azure-Dienstbenutzer
- Exchange-Integration mit der Azure-Anwendungsauthentifizierung
- Exchange-Integration mit Azure Application Authentication und Graph
- Abrufen von Daten für Tableau mit Python
- Elasticsearch-Integration
- Allgemeine Feldextraktion
- Selbst gehostete Exchange-Integration
- UiPath® Automatisierungs-Framework
- Offizielle UiPath®-Aktivitäten
- Wie Maschinen lernen, Wörter zu verstehen: eine Anleitung zu Einbettungen in NLP
- Eingabeaufforderungsbasiertes Lernen mit Transformers
- Ef Robots II: Wissensdegesterration und Feinabstimmung
- Effiziente Transformer I: Warnmechanismen
- Tief hierarchische, nicht überwachte Absichtsmodellierung: Nutzen ohne Trainingsdaten
- Beheben von Anmerkungsverzerrungen mit Communications Mining™
- Aktives Lernen: Bessere ML-Modelle in weniger Zeit
- Auf Zahlen kommt es an – Bewertung der Modellleistung mit Metriken
- Darum ist Modellvalidierung wichtig
- Vergleich von Communications Mining™ und Google AutoML für Conversation Data Intelligence
- Lizenzierung
- Häufige Fragen und mehr

Communications Mining-Benutzerhandbuch
Die Plattform wird in der Regel in einem der ersten Schritte eines automatisierten Prozesses verwendet: Erfassen, Interpretieren und Strukturieren einer eingehenden Kommunikation, z. B. einer Kunden-E-Mail, ähnlich wie ein Mensch dies tun würde, wenn diese E-Mail in seinem Posteingang eintrifft.
Wenn die Plattform vorhersagt, welche Beschriftungen oder Tags für eine Kommunikation gelten, wird jeder Vorhersage ein Konfidenzwert (%) zugewiesen, um zu zeigen, wie zuversichtlich die Beschriftung ist.
Wenn diese Vorhersagen jedoch verwendet werden sollen, um die Kommunikation automatisch zu klassifizieren, muss es eine binäre Entscheidung geben, d. h. ob diese Beschriftung zutrifft oder nicht. Hier kommen Konfidenzschwellenwerte ins Spiel.
Ein Konfidenzschwellenwert ist der Konfidenzwert (%), bei dem ein RPA-Bot oder ein anderer Automatisierungsdienst die Vorhersage als binäres Ja von der Plattform nimmt, diese Bezeichnung gilt und, unterhalb dessen die Vorhersage als binäres Nein akzeptiert wird gilt diese Beschriftung nicht.
Vergewissern Sie sich, dass Sie die Konfidenzschwellenwerte verstehen und erfahren, wie Sie den geeigneten auswählen, um das richtige Gleichgewicht zwischen Genauigkeit und Erinnerung für diese Beschriftung zu erreichen.
- Um einen Schwellenwert für eine Beschriftung auszuwählen, gehen Sie wie folgt vor:
- Navigieren Sie zur Seite Validierung und wählen Sie die Beschriftung aus der Beschriftungsfilterleiste aus.
- Ziehen Sie den Schwellenwert-Schieberegler oder geben Sie eine %-Zahl in das Feld ein, wie in der folgenden Abbildung gezeigt, um die unterschiedlichen Genauigkeits- und Rückrufstatistiken anzuzeigen, die für diesen Schwellenwert erreicht würden
- Das Diagramm Genauigkeit im Vergleich zu Erinnerung gibt Ihnen einen visuellen Hinweis auf die Konfidenzschwellenwerte, die die Präzision oder Erinnerung maximieren oder für ein Gleichgewicht zwischen beiden sorgen würden:
- In Abbildung 1 würde der ausgewählte Konfidenzschwellenwert (68,7 %) die Genauigkeit (100 %) maximieren, d. h. die Plattform sollte an diesem Schwellenwert in der Regel keine falschen Vorhersagen erhalten, hätte aber als Ergebnis einen niedrigeren Erinnerungswert (85 %).
- In Abbildung 2 bietet die ausgewählte Konfidenzschwelle (39,8 %) ein gutes Verhältnis zwischen Genauigkeit und Erinnerung (beide 92 %).
- In Abbildung 3 würde die ausgewählte Konfidenzschwelle (17 %) die Erinnerung (100 %) maximieren, d. h. die Plattform sollte jede Instanz identifizieren, in der diese Beschriftung gelten soll, hätte aber dadurch einen geringeren Genauigkeitswert (84 %).
Abhängig von Ihrem Anwendungsfall und der jeweiligen Beschriftung möchten Sie möglicherweise entweder die Genauigkeit oder die Erinnerung maximieren oder den Schwellenwert finden, der die bestmögliche Balance von beiden bietet.
Wenn Sie darüber verfügen, welcher Schwellenwert erforderlich ist, sollten Sie an die möglichen Ergebnisse denken, z. B. welche potenziellen Kosten oder Folgen für Ihr Unternehmen sie haben, wenn eine Beschriftung falsch angewendet oder verpasst wird.
Für jede Bezeichnung sollte Ihr Schwellenwert basierend auf dem besseren Ergebnis für das Unternehmen gewählt werden, wenn etwas schief läuft – d. h. etwas wird falsch klassifiziert (ein falsch positives Ergebnis) oder etwas wird übersehen (ein falsch negatives Ergebnis).
Wenn Sie beispielsweise eingehende Kommunikation automatisch in verschiedene Kategorien klassifizieren möchten, aber auch eine Beschriftung für Dringend haben, die Anforderungen an eine Arbeitswarteschlange mit hoher Priorität weiterleitet, könnten Sie die Erinnerung für diese Beschriftung maximieren, um sicherzustellen, dass keine dringenden Anforderungen gestellt werden übersehen und als Ergebnis eine niedrigere Genauigkeit akzeptieren. Der Grund dafür ist, dass es für das Unternehmen nicht sehr nachteilig sein kann, einige weniger dringende Anfragen in die Prioritätswarteschlange zu setzen, aber es für das Unternehmen sehr nachteilig sein kann, eine dringende Anfrage zu übersehen, bei der zeitabhängig ist.
Wenn Sie beispielsweise einen Anforderungstyp bei einer Geldtransaktion oder einem hohen Wert durchgängig automatisieren, würden Sie wahrscheinlich einen Schwellenwert wählen, der die Genauigkeit maximiert, sodass nur End-to- die Transaktionen zu beenden, bei denen die Plattform am zuversichtlichsten war. Vorhersagen mit Konfidenzen unter dem Schwellenwert werden dann manuell überprüft. Dies liegt daran, dass die Kosten einer falschen Vorhersage (ein falsch positives Ergebnis) potenziell sehr hoch sind, wenn eine Transaktion dann falsch verarbeitet wird.
Sobald eine Beschriftung ausreichend trainiert wurde, schlägt Communications Mining™ Ihnen automatisch Schwellenwerte vor, darunter:
- Hohe Erinnerung: Maximiert die Erinnerung Ihrer Beschriftung bei gleichzeitiger Beibehaltung einer angemessenen Modellgenauigkeit.
- Hohe Genauigkeit: Maximiert die Genauigkeit Ihrer Beschriftung mit minimalen Beeinträchtigungen bei der Erinnerung des Modells.
- Ausgewogen: Stellt ein ausgewogenes Verhältnis zwischen Genauigkeit und Erinnerung her, ohne das eine vor dem anderen zu priorisieren.