- Erste Schritte
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- Allgemeine Felder (früher Entitäten)
- Bezeichnungen (Vorhersagen, Konfidenzniveaus, Hierarchie usw.)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Überprüfte und nicht überprüfte Nachrichten
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Verwaltung
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen Sie eine Datenquelle in der GUI
- Hochladen einer CSV-Datei in eine Quelle
- Ein neues Dataset erstellen
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern Sie die Einstellungen eines Datasets
- Löschen Sie Nachrichten über die Benutzeroberfläche
- Löschen Sie ein Dataset
- Löschen Sie eine Quelle
- Exportieren Sie ein Dataset
- Verwenden von Exchange-Integrationen
- Vorbereiten von Daten für den CSV-Upload
- Modelltraining und -wartung
- Verstehen von Beschriftungen, allgemeinen Feldern und Metadaten
- Bezeichnungshierarchie und bewährte Methode
- Definieren Ihrer Taxonomieziele
- Analyse- vs. Automatisierungsanwendungsfälle
- Konvertieren Ihrer Ziele in Bezeichnungen
- Erstellen Ihrer Taxonomiestruktur
- Best Practices für den Taxonomieentwurf
- Ihre Taxonomie wird importiert
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung (NEU)
- Verstehen des Status Ihres Datasets
- Best Practice für Modelltraining und Anmerkungen
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Trainieren
- Einführung in Verfeinerung
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- Wie funktioniert die Validierung?
- Verstehen und Verbessern der Modellleistung
- Warum kann eine Bezeichnung eine geringe durchschnittliche Genauigkeit haben?
- Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Abgleichs und Verwendung des Abgleichs
- Wann das Training Ihres Modells beendet werden soll
- Verwenden von allgemeinen Feldern
- Generative Extraktion
- Verwenden von Analyse und Überwachung
- Automatisierungs- und Communications Mining
- Lizenzierungsinformationen
- Häufige Fragen und mehr
Verwenden von Exchange-Integrationen
Erforderliche Benutzerberechtigungen: „Quellenadministrator“, „Integrationen ändern“, „Daten in Buckets aktualisieren“ UND „Datasets-Administrator“.
Es ist wichtig, die Beziehung zwischen wichtigen Plattformkomponenten wie Integrationen, Postfächern, Buckets, Quellen und Datasets zu verstehen, um Ihre Daten effektiv einzurichten.
Zunächst wird eine Exchange- Integration(über ein Dienstkonto) eingerichtet, wobei Daten vom Microsoft Exchange-Server synchronisiert werden. Mit dieser Integration können Sie mehrere Postfächer synchronisieren.
Diese Postfächer werden jeweils in einem „ Bucket“ gespeichert und jeder Bucket kann mehrere Postfächer enthalten.
Als Nächstes müssen Sie eine Quelle einrichten. Dies ist eine Sammlung von unbearbeiteten, kommentierten Kommunikationsdaten eines ähnlichen Typs. Wenn Sie eine Quelle einrichten und Daten aus einer E-Mail-Integration verwenden, müssen Sie angeben, von welchem Bucket aus Sie synchronisieren möchten (d. h. der Bucket, in dem die Postfächer im Scope für Ihren Anwendungsfall gespeichert sind).
Nachdem Sie die Einrichtung Ihrer Quelle abgeschlossen haben, müssen Sie sie zu einem „ Dataset“ hinzufügen, in dem Ihr Modell trainiert wird.
Jedes Dataset gehört zu einem „ Projekt“, einem berechtigten Speicherbereich innerhalb der Plattform. Jedes Dataset und jede Quelle gehört zu einem bestimmten Projekt, das bei der Erstellung angegeben wird.
Das folgende Diagramm veranschaulicht, wie all diese Komponenten zusammenhängen:
Auf hoher Ebene müssen Sie die folgenden Schritte (in dieser speziellen Reihenfolge) ausführen, damit die Daten aus Ihren Postfächern in der Plattform angezeigt werden: