- Erste Schritte
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- Entitäten
- Bezeichnungen (Vorhersagen, Konfidenzniveaus, Hierarchie usw.)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Überprüfte und nicht überprüfte Nachrichten
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Verwaltung
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen Sie eine Datenquelle in der GUI
- Hochladen einer CSV-Datei in eine Quelle
- Ein neues Dataset erstellen
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern Sie die Einstellungen eines Datasets
- Löschen Sie Nachrichten über die Benutzeroberfläche
- Löschen Sie ein Dataset
- Exportieren Sie ein Dataset
- Verwenden von Exchange-Integrationen
- Vorbereiten von Daten für den CSV-Upload
- Modelltraining und -wartung
- Verstehen von Bezeichnungen, Entitäten und Metadaten
- Bezeichnungshierarchie und bewährte Methode
- Definieren Ihrer Taxonomieziele
- Analyse- vs. Automatisierungsanwendungsfälle
- Konvertieren Ihrer Ziele in Bezeichnungen
- Erstellen Ihrer Taxonomiestruktur
- Best Practices für den Taxonomieentwurf
- Ihre Taxonomie wird importiert
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung (NEU)
- Verstehen des Status Ihres Datasets
- Best Practice für Modelltraining und Beschriftung
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Trainieren
- Einführung zu „Verfeinern“
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- Wie funktioniert die Validierung?
- Verstehen und Verbessern der Modellleistung
- Warum kann eine Bezeichnung eine geringe durchschnittliche Genauigkeit haben?
- Training mit „Bezeichnung überprüfen“ und „Bezeichnung fehlen“
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Ausgleichs und Verwendung von „Neuausgleich“
- Wann das Training Ihres Modells beendet werden soll
- Definieren und Einrichten Ihrer Entitäten
- Grundlegendes zu Entitäten
- Welche vortrainierten Entitäten sind verfügbar?
- Aktivieren, Deaktivieren, Aktualisieren und Erstellen von Entitäten
- Entitätsfilterung
- Überprüfen und Anwenden von Entitäten
- Validierung für Entitäten
- Verbesserung der Entitätsleistung
- Erstellen von benutzerdefinierten Regex-Entitäten
- Verwenden von Analytics & Monitoring
- Automatisierungs- und Communications Mining
- Häufige Fragen und mehr
Streams
Ein „Stream“ (früher bekannt als „Trigger“) in der Plattform ist im Wesentlichen ein Tool zum automatischen Erstellen einer Warteschlange von Nachrichten, die bestimmte Label- oder Metadatenbedingungen erfüllen.
Streams werden häufig in der Plattform verwendet, um die automatisierte Verarbeitung von Anforderungen zu erleichtern, wobei die Plattform als Interpret einer unstrukturierten Kommunikation fungiert. Die Plattform versteht und fügt der Kommunikation Struktur hinzu und stellt sie im Anschluss für die Verarbeitung zur Verfügung.
Diese Warteschlange wird den Downstream-Anwendungen über die Communications Mining API-Endpunkte zur Verfügung gestellt. Die Ausgaben der API sind maschinenlesbare Objekte im JSON-Format, die alle zugehörigen Metadaten, Meldungstexte und die zugehörigen Beschriftungen als strukturierte Datenpunkte enthalten.
Eine Erklärung zum Einrichten oder Aktualisieren eines Streams finden Sie hier.