communications-mining
latest
false
- Erste Schritte
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- Allgemeine Felder (früher Entitäten)
- Bezeichnungen (Vorhersagen, Konfidenzniveaus, Hierarchie usw.)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Überprüfte und nicht überprüfte Nachrichten
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Verwaltung
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Create or delete a data source in the GUI
- Hochladen einer CSV-Datei in eine Quelle
- Vorbereiten von Daten für den CSV-Upload
- Ein neues Dataset erstellen
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern Sie die Einstellungen eines Datasets
- Löschen Sie Nachrichten über die Benutzeroberfläche
- Löschen Sie ein Dataset
- Exportieren Sie ein Dataset
- Verwenden von Exchange-Integrationen
- Modelltraining und -wartung
- Verstehen von Beschriftungen, allgemeinen Feldern und Metadaten
- Bezeichnungshierarchie und bewährte Methode
- Definieren Ihrer Taxonomieziele
- Analyse- vs. Automatisierungsanwendungsfälle
- Konvertieren Ihrer Ziele in Bezeichnungen
- Erstellen Ihrer Taxonomiestruktur
- Best Practices für den Taxonomieentwurf
- Ihre Taxonomie wird importiert
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung (NEU)
- Der Status des Datasets
- Best Practice für Modelltraining und Anmerkungen
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Grundlegendes zu Datenanforderungen
- Trainieren
- Einführung in Verfeinerung
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- Wie funktioniert die Validierung?
- Verstehen und Verbessern der Modellleistung
- Warum kann eine Bezeichnung eine geringe durchschnittliche Genauigkeit haben?
- Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Abgleichs und Verwendung des Abgleichs
- Wann das Training Ihres Modells beendet werden soll
- Verwenden von allgemeinen Feldern
- Generative Extraktion
- Verwenden von Analyse und Überwachung
- Automatisierungs- und Communications Mining
- Lizenzierungsinformationen
- Häufige Fragen und mehr
Best Practices für den Taxonomieentwurf
Wichtig :
Dieser Inhalt wurde maschinell übersetzt.
Communications Mining-Benutzerhandbuch
Letzte Aktualisierung 20. Dez. 2024
Best Practices für den Taxonomieentwurf
Wichtige Taxonomieelemente
-
Number of labels: Typical datasets have 50-100 labels, but this number can vary depending on the objectives for a dataset. An effective use case can have much fewer than 50 labels. The system imposes a limit of 200 labels for a dataset because beyond this point, the taxonomy becomes very difficult to manage and train, and it leads to reduced performance.
- Label names: Label names should be concise and descriptive because the Generative Annotation feature uses them as a training input to speed up and improve the training process. You can always edit them, but to ensure they display effectively in the platform UI, a character limit of 64 characters is set for any given label, including its levels of hierarchy.
- Label descriptions: Add natural language descriptions to your labels because they are used as a training input by the Generative Annotation feature for automatic training. Descriptions also help ensure annotating consistency among model trainers and provide helpful context to others viewing the dataset for analytical purposes.
Ihre Taxonomie strukturieren
Es wird empfohlen, diese bewährten Methoden zu befolgen, um Ihre Taxonomie richtig zu strukturieren und eine hohe Modellleistung sicherzustellen:
- Align with objectives: Make sure each label serves a specific business purpose and is aligned to your defined objectives. If your dataset is meant for automation, many labels should match the specific requests needed for downstream processing. If your dataset is meant for analytics (or both), include additional labels that cover concepts like issue types, root causes, and quality of service issues such as chaser messages, escalations, and disputes.
- Be distinct: Each label should be specific and not overlap with other labels.
- Be specific: Avoid broad, vague, or confusing concepts, as they are more likely to perform poorly and provide less business value. Split broad labels into multiple distinct labels if possible. Start with specific labels, such as more levels of hierarchy, and merge them later if needed, rather than breaking down broad labels manually.
- Be identifiable: Ensure each label is clearly identifiable from the text of the messages it is applied to.
- Use parent labels: If you expect to have many similar concepts related to a broader topic, use a parent label.
- Use child labels:Make sure that every label nested under another label is a subset of that label.
- Limit hierarchy levels: Try not to add more than four levels of hierarchy, as the model becomes increasingly complex to train.
- Include uninformative labls: Create some non-value-adding labels, such as thank-you emails, so you can tell the platform what is or isn’t important to analyze.