ixp
latest
false
- Einleitung
- Einrichten Ihres Kontos
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- Allgemeine Felder
- Beschriftungen (Vorhersagen, Konfidenzniveaus, Beschriftungshierarchie und Beschriftungsstimmung)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Nachrichten mit und ohne Anmerkungen
- Extraktionsfelder
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Zugriffssteuerung und Administration
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen oder Löschen einer Datenquelle in der GUI
- Hochladen einer CSV-Datei in eine Quelle
- Vorbereiten von Daten für den CSV-Upload
- Ein Dataset wird erstellt
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern der Dataset-Einstellungen
- Löschen einer Nachricht
- Löschen eines Datasets
- Exportieren eines Datasets
- Verwenden von Exchange-Integrationen
- Modelltraining und -wartung
- Grundlegendes zu Beschriftungen, allgemeinen Feldern und Metadaten
- Beschriftungshierarchie und Best Practices
- Best Practices für den Taxonomieentwurf
- Definieren von Taxonomiezielen
- Erstellen der Taxonomiestruktur
- Importieren der Taxonomie
- Vergleichen von Anwendungsfällen für Analyse und Automatisierung
- Konvertieren Ihrer Ziele in Bezeichnungen
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung
- Der Status des Datasets
- Best Practice für Modelltraining und Anmerkungen
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Training von Chat- und Anrufdaten
- Grundlegendes zu Datenanforderungen
- Trainieren
- Einführung in Verfeinerung
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- So funktioniert die Validierung
- Verstehen und Verbessern der Modellleistung
- Gründe für die geringe durchschnittliche Beschriftungsgenauigkeit
- Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Abgleichs und Verwendung des Abgleichs
- Wann das Training Ihres Modells beendet werden soll
- Verwenden von allgemeinen Feldern
- Generative Extraktion
- Verwenden von Analyse und Überwachung
- Automations and Communications Mining™
- Entwickler (Developer)
- Verwenden der API
- API-Tutorial
- Quellen
- Datasets
- Anmerkungen
- Anhänge (Attachments)
- Vorhersagen
- Erstellen Sie einen Stream
- Aktualisieren Sie einen Stream
- Rufen Sie einen Stream nach Namen ab
- Rufen Sie alle Streams ab
- Löschen Sie einen Stream
- Ergebnisse aus Stream abrufen
- Kommentare aus einem Stream abrufen (Legacy)
- Bringen Sie einen Stream vor
- Einen Stream zurücksetzen
- Kennzeichnen Sie eine Ausnahme
- Entfernen Sie das Tag einer Ausnahme
- Prüfungsereignisse
- Alle Benutzer abrufen
- Hochladen von Daten
- Herunterladen von Daten
- Exchange Integration mit einem Azure-Dienstbenutzer
- Exchange-Integration mit der Azure-Anwendungsauthentifizierung
- Exchange-Integration mit Azure Application Authentication und Graph
- Abrufen von Daten für Tableau mit Python
- Elasticsearch-Integration
- Allgemeine Feldextraktion
- Selbst gehostete Exchange-Integration
- UiPath® Automatisierungs-Framework
- Offizielle UiPath®-Aktivitäten
- Wie Maschinen lernen, Wörter zu verstehen: eine Anleitung zu Einbettungen in NLP
- Eingabeaufforderungsbasiertes Lernen mit Transformers
- Ef Robots II: Wissensdegesterration und Feinabstimmung
- Effiziente Transformer I: Warnmechanismen
- Tief hierarchische, nicht überwachte Absichtsmodellierung: Nutzen ohne Trainingsdaten
- Beheben von Anmerkungsverzerrungen mit Communications Mining™
- Aktives Lernen: Bessere ML-Modelle in weniger Zeit
- Auf Zahlen kommt es an – Bewertung der Modellleistung mit Metriken
- Darum ist Modellvalidierung wichtig
- Vergleich von Communications Mining™ und Google AutoML für Conversation Data Intelligence
- Lizenzierung
- Häufige Fragen und mehr

Communications Mining-Benutzerhandbuch
Letzte Aktualisierung 7. Okt. 2025
Wichtige Taxonomieelemente
-
Anzahl der Beschriftungen: Typische Datasets haben 50–100 Beschriftungen, aber diese Anzahl kann je nach den Zielen für ein Dataset variieren. Ein effektiver Anwendungsfall kann viel weniger als 50 Beschriftungen haben. Das System legt ein Limit von 200 Beschriftungen für ein Dataset fest, da die Taxonomie darüber hinaus sehr schwierig zu verwalten und zu trainieren wird, was zu einer verringerten Leistung führt.
- Beschriftungsnamen: Beschriftungsnamen sollten präzise und aussagekräftig sein, da die Funktion für die generative Anmerkung sie als Trainingseingabe verwendet, um den Trainingsprozess zu beschleunigen und zu verbessern. Sie können sie jederzeit bearbeiten, aber um sicherzustellen, dass sie effektiv auf der Benutzeroberfläche der Plattform angezeigt werden, wird ein Zeichenlimit von 64 Zeichen für jede Beschriftung festgelegt, einschließlich ihrer Hierarchieebenen.
- Beschriftungsbeschreibungen: Fügen Sie Ihren Beschriftungen Beschreibungen in natürlicher Sprache hinzu, da sie von der Funktion „Generative Anmerkung“ als Trainingseingabe für das automatische Training verwendet werden. Beschreibungen helfen auch dabei, die Konsistenz der Anmerkungen unter den Modelltrainern sicherzustellen und bieten hilfreichen Kontext für andere, die das Dataset zu analytischen Zwecken anzeigen.
Ihre Taxonomie strukturieren
Es wird empfohlen, diese bewährten Methoden zu befolgen, um Ihre Taxonomie richtig zu strukturieren und eine hohe Modellleistung sicherzustellen:
- An Zielen ausrichten: Stellen Sie sicher, dass jede Beschriftung einem bestimmten geschäftlichen Zweck dient und auf Ihre definierten Ziele ausgerichtet ist. Wenn Ihr Dataset für die Automatisierung vorgesehen ist, sollten viele Beschriftungen den spezifischen Anforderungen für die Weiterverarbeitung entsprechen. Wenn Ihr Dataset für Analysen gedacht ist (oder beides), fügen Sie zusätzliche Beschriftungen ein, die Konzepte wie Problemtypen, Ursachen und Probleme mit der Servicequalität wie Verfolgernachrichten, Eskalationen und Konflikte abdecken.
- Unterscheiden Sie sich : Jede Beschriftung muss spezifisch sein und überschneidet sich nicht mit anderen Beschriftungen.
- Seien Sie spezifisch: Vermeiden Sie vage, vage oder verwirrende Konzepte, da sie mit größerer Wahrscheinlichkeit eine schlechte Leistung erbringen und einen geringeren Geschäftswert bieten. Teilen Sie breite Beschriftungen nach Möglichkeit in mehrere verschiedene Beschriftungen auf. Beginnen Sie mit bestimmten Beschriftungen, z. B. mit mehreren Hierarchieebenen, und führen Sie sie bei Bedarf später zusammen, anstatt umfassende Beschriftungen manuell aufzuschlüsseln.
- Identifizierbar sein: Stellen Sie sicher, dass jede Beschriftung eindeutig anhand des Texts der Nachrichten identifizierbar ist, auf die sie angewendet wird.
- Übergeordnete Beschriftungen verwenden: Wenn Sie viele ähnliche Konzepte im Zusammenhang mit einem umfassenderen Thema erwarten, verwenden Sie eine übergeordnete Beschriftung.
- Untergeordnete Beschriftungen verwenden:Stellen Sie sicher, dass jede Beschriftung, die unter einer anderen Beschriftung verschachtelt ist, eine Teilmenge dieser Beschriftung ist.
- Hierarchieebenen begrenzen: Versuchen Sie, nicht mehr als vier Hierarchieebenen hinzuzufügen, da das Modell immer komplexer zu trainieren wird.
- Nicht informative Beschriftungen einschließen: Erstellen Sie einige nicht wertschöpfende Beschriftungen, z. B. Dankes-E-Mails, damit Sie der Plattform mitteilen können, was für die Analyse wichtig ist und was nicht.