- Erste Schritte
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- Allgemeine Felder (früher Entitäten)
- Bezeichnungen (Vorhersagen, Konfidenzniveaus, Hierarchie usw.)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Überprüfte und nicht überprüfte Nachrichten
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Verwaltung
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen Sie eine Datenquelle in der GUI
- Hochladen einer CSV-Datei in eine Quelle
- Ein neues Dataset erstellen
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern Sie die Einstellungen eines Datasets
- Löschen Sie Nachrichten über die Benutzeroberfläche
- Löschen Sie ein Dataset
- Löschen Sie eine Quelle
- Exportieren Sie ein Dataset
- Verwenden von Exchange-Integrationen
- Vorbereiten von Daten für den CSV-Upload
- Modelltraining und -wartung
- Verstehen von Beschriftungen, allgemeinen Feldern und Metadaten
- Bezeichnungshierarchie und bewährte Methode
- Definieren Ihrer Taxonomieziele
- Analyse- vs. Automatisierungsanwendungsfälle
- Konvertieren Ihrer Ziele in Bezeichnungen
- Erstellen Ihrer Taxonomiestruktur
- Best Practices für den Taxonomieentwurf
- Ihre Taxonomie wird importiert
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung (NEU)
- Verstehen des Status Ihres Datasets
- Best Practice für Modelltraining und Anmerkungen
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Trainieren
- Einführung in Verfeinerung
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- Wie funktioniert die Validierung?
- Verstehen und Verbessern der Modellleistung
- Warum kann eine Bezeichnung eine geringe durchschnittliche Genauigkeit haben?
- Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Abgleichs und Verwendung des Abgleichs
- Wann das Training Ihres Modells beendet werden soll
- Verwenden von allgemeinen Feldern
- Generative Extraktion
- Verwenden von Analyse und Überwachung
- Automatisierungs- und Communications Mining
- Lizenzierungsinformationen
- Häufige Fragen und mehr
Warum kann eine Bezeichnung eine geringe durchschnittliche Genauigkeit haben?
Im Folgenden sind einige der Hauptwerte aufgeführt, warum eine Beschriftung eine geringe durchschnittliche Genauigkeit haben kann, sowie eine vorgeschlagene Lösung, um dies zu verbessern:
1. Die Größe des Trainingssatzes ist möglicherweise zu klein
- Wenn die Größe des Trainingssatzes sehr klein ist, kann es sein, dass Sie nur weitere Trainingsbeispiele für das Modell angeben müssen
- Setzen Sie das Training der Bezeichnung mit den in der Erkundungsphase beschriebenen Methoden fort, insbesondere mit „ Mischen“ und „ Bezeichnung lernen“
2. Die Beschriftung wurde möglicherweise inkonsistent oder falsch auf einige der Nachrichten angewendet
- Es kann oft vorkommen, dass sich die Definition einer Bezeichnung durch einen Benutzer im Laufe der Zeit ändert und ältere überprüfte Nachrichten mit dieser Bezeichnung möglicherweise erneut überprüft werden müssen, um festzustellen, ob die Bezeichnung immer noch gilt
- Wenn mehrere Benutzer ein Dataset trainieren, können sie alternativ die Bedeutung der einzelnen Bezeichnungen interpretieren und gemischte Signal an das Modell senden
- Um festzustellen, ob dies der Fall ist, können Benutzer die Trainingsmodi „Bezeichnung überprüfen“und „ Verpasste Beschriftung “ verwenden, um die überprüften Meldungen für die Beschriftung durchzugehen undzu sehen, wo eine Beschriftung falsch angewendet oder unbeabsichtigt übersehen wurde
- Benutzer können dann Fehler korrigieren und Beschriftungen aktualisieren, um die Konsistenz sicherzustellen
- Wenn mehrere Benutzer ein Dataset trainieren, sollten sie künftig sicherstellen, dass sie vollständig darauf eingestellt sind, wie sie die Absichten oder Konzepte definieren, die von den einzelnen Bezeichnungen abgedeckt werden
3. Die Absicht oder Idee, die mit der Bezeichnung erfasst werden soll, kann vage oder sehr allgemein und schwer von anderen Bezeichnungen zu unterscheiden sein
- Wenn eine Bezeichnung verwendet wird, um eine sehr umfassende oder vage Absicht oder Idee zu erfassen, kann es für das Modell schwierig sein, zu erkennen, warum diese Bezeichnung für eine Nachricht gelten sollte – es kann dann versuchen, sie auf viel zu viele Nachrichten anzuwenden
- Seien Sie beim Erstellen einer Beschriftung nicht zu allgemein. Sie muss von anderen Beschriftungen identifizierbar und unterscheidbar sein
4. Alternativ könnte die Absicht oder das Konzept sehr spezifisch sein oder zu viele Ebenen in der Hierarchie haben
- Wenn Sie zu spezifisch sein oder der Hierarchie einer Bezeichnung viele Ebenen hinzufügen, kann es für das Modell zu schwierig werden, sie zu erkennen oder sie von früheren Ebenen zu unterscheiden
- Der Spezifitätsgrad für eine Beschriftung muss mit dem Inhalt der Nachrichten übereinstimmen. Wenn sie zu spezifisch ist, um realistisch von anderen ähnlichen Bezeichnungen in der Hierarchie zu unterscheiden, kann das Modell verwirren
- In den meisten Fällen empfiehlt es sich, drei oder weniger Ebenen in der Hierarchie einer Bezeichnung zu haben – d. h. [Stammbezeichnung] > [Verbindungsbezeichnung] > [Blattbezeichnung]
5. Es kann mehrere Bezeichnungen in der Taxonomie geben, die sich stark überschneiden, und das Modell hat Schwierigkeiten, zwischen den beiden zu unterscheiden
- Wenn Sie zwei Beschriftungen haben, die sich sehr ähnlich und schwer voneinander zu unterscheiden sind, kann dies das Modell verwirren, da es nicht weiß, welche der beiden Beschriftungen zutrifft
- In diesen Fällen sollten Sie die Bezeichnungen zusammenführen
- Alternativ können Sie die überprüften Nachrichten einzeln durchgehen und sicherstellen, dass die Konzepte konsistent angewendet werden und sich voneinander unterscheiden
6. Die Nachrichten mit dieser Bezeichnung sind meistens sehr ähnlich oder identisch und das Modell hat Probleme, verschiedene Möglichkeiten zu erkennen, die gleiche Absicht oder das gleiche Konzept auszudrücken
- Sie sollten sicherstellen, dass Sie dem Modell für jede Bezeichnung mehrere Trainingsbeispiele zur Verfügung stellen, die verschiedene Möglichkeiten zum Ausdruck der Absicht oder des Konzepts enthalten, die die Bezeichnung erfassen soll
7. Die Absicht oder das Konzept, das von dieser Bezeichnung erfasst wird, lässt sich nicht semantisch aus dem Text der Nachricht oder den unterstützenden Metadaten ableiten
- Es ist üblich, dass Benutzer eine Nachricht basierend auf ihrem eigenen Geschäftswissen über den Kontext oder Prozess kommentieren, die folgen würden, und nicht auf dem tatsächlichen Text oder den Metadaten der Nachricht
- Zum Beispiel könnte ein KMU-Benutzer wissen, dass die Kommunikation von einer bestimmten Person stammt und es daher um ein bestimmtes Thema gehen muss, obwohl nichts anderes im Text oder in den Metadaten eindeutig darauf hinweist, dass die Bezeichnung zutreffen sollte
- In diesem Fall sollten Benutzer die Bezeichnung nur anwenden, wenn das Modell sie ohne dieses Insiderwissen aus dem Text oder den Metadaten erkennen könnte