- Erste Schritte
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- Entitäten
- Bezeichnungen (Vorhersagen, Konfidenzniveaus, Hierarchie usw.)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Überprüfte und nicht überprüfte Nachrichten
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Verwaltung
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen Sie eine Datenquelle in der GUI
- Hochladen einer CSV-Datei in eine Quelle
- Ein neues Dataset erstellen
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern Sie die Einstellungen eines Datasets
- Löschen Sie Nachrichten über die Benutzeroberfläche
- Löschen Sie ein Dataset
- Exportieren Sie ein Dataset
- Verwenden von Exchange-Integrationen
- Vorbereiten von Daten für den CSV-Upload
- Modelltraining und -wartung
- Verstehen von Bezeichnungen, Entitäten und Metadaten
- Bezeichnungshierarchie und bewährte Methode
- Definieren Ihrer Taxonomieziele
- Analyse- vs. Automatisierungsanwendungsfälle
- Konvertieren Ihrer Ziele in Bezeichnungen
- Erstellen Ihrer Taxonomiestruktur
- Best Practices für den Taxonomieentwurf
- Ihre Taxonomie wird importiert
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung (NEU)
- Verstehen des Status Ihres Datasets
- Best Practice für Modelltraining und Beschriftung
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Trainieren
- Einführung zu „Verfeinern“
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- Wie funktioniert die Validierung?
- Verstehen und Verbessern der Modellleistung
- Warum kann eine Bezeichnung eine geringe durchschnittliche Genauigkeit haben?
- Training mit „Bezeichnung überprüfen“ und „Bezeichnung fehlen“
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Ausgleichs und Verwendung von „Neuausgleich“
- Wann das Training Ihres Modells beendet werden soll
- Definieren und Einrichten Ihrer Entitäten
- Grundlegendes zu Entitäten
- Welche vortrainierten Entitäten sind verfügbar?
- Aktivieren, Deaktivieren, Aktualisieren und Erstellen von Entitäten
- Entitätsfilterung
- Überprüfen und Anwenden von Entitäten
- Validierung für Entitäten
- Verbesserung der Entitätsleistung
- Erstellen von benutzerdefinierten Regex-Entitäten
- Verwenden von Analytics & Monitoring
- Automatisierungs- und Communications Mining
- Häufige Fragen und mehr
Definieren und Einrichten Ihrer Entitäten
Es ist wichtig, die wichtigsten Datenpunkte zu definieren (d. h Entitäten), die Sie aus Ihren Kommunikationsdaten extrahieren möchten. Diese werden in der Regel verwendet, um die nachgelagerte Automatisierung zu erleichtern, können aber auch für die Analyse nützlich sein, insbesondere bei der Bewertung der potenziellen Erfolgsquote und des Nutzens von Automatisierungsmöglichkeiten.
Letztendlich können Entitätsvorhersagen in Kombination mit Beschriftungen die Automatisierung erleichtern, indem sie die strukturierten Datenpunkte bereitstellen, die zum Abschließen einer bestimmten Aufgabe oder eines bestimmten Prozesses erforderlich sind. Es ist viel zeiteffizienter, Entitäten in Ihrem Dataset in Verbindung mit Beschriftungen zu trainieren, als sich erst auf die eine und dann auf die andere zu konzentrieren (d. h Trainingsentitäten nach dem Training einer vollständigen Taxonomie von Bezeichnungen).
Zum Beispiel:
Wenn wir Adressänderungsanforderungen automatisieren möchten, würde eine Bezeichnung verwendet, um den Anforderungstyp zu erfassen, während Entitäten die verschiedenen Komponenten der Adresse erfassen würden (d. h Adresszeile, Ort, Postleitzahl usw.). Jede Vorhersage wird über die API zur Verfügung gestellt, sodass auf jede Nachricht reagiert werden kann.
Einmal eingerichtet und auf ein geeignetes Leistungsniveau trainiert, können sie dazu beitragen, wichtige Erkenntnisse über Anforderungstypen zu generieren, die sich für eine Automatisierung befinden könnten.
Um das Wie zu verstehen, setzen wir dasselbe Beispiel fort: „Adressänderung“
Wir haben festgestellt, dass Adressänderungsanforderungen eine volumen-, transaktions- und hochgradig manuelle Aufgabe sind, und möchten verstehen, wie viel davon wir automatisieren können.
Dazu müssen wir wissen, dass die Bezeichnung zur Identifizierung der Anforderung eine gute Leistung erbringen kann. Wir müssen auch den Anteil der erhaltenen Adressänderungsanforderungen verstehen, die die erforderlichen Datenpunkte (d. h. die Entitäten) enthalten, die zum Verarbeiten der Änderung erforderlich sind.
In diesem Fall könnte dies „Adresszeile 1“, „Ort“, „Zip Code“, „State“ sein. Innerhalb der Plattform können wir einfach mithilfe kombinierter Filter den Anteil der Adressänderungsanforderungen bewerten, die alle oder einige der erforderlichen Entitäten enthalten. Dies hilft uns dabei, den Anteil zu verstehen, der erfolgreich durchgängig automatisiert werden könnte und für den Abschluss mehr Informationen oder ein Mensch in der Schleife erforderlich wären.
Wenn 80 % unserer Adressänderungsanforderungen die erforderlichen Entitäten enthalten, wissen wir, dass dies ein hervorragender Kandidat für die Automatisierung ist. Wenn nur 20 % die benötigten Entitäten enthalten, ist dies möglicherweise eine weniger Bedeutung (abhängig von den Gesamtmengen).
Hinweis: Es ist wichtig, dass Entitäten eine gute Leistung erbringen, bevor diese bewertet werden, da der Plattform andernfalls viele Anforderungen entgehen, die E2E automatisiert werden könnten, und zwar allein durch fehlendes Training.
Das obige Beispiel veranschaulicht, wie die Plattform dazu genutzt werden kann, um jede Automatisierungsmöglichkeit in Ihren Kommunikationskanälen besser zu verstehen. Indem Sie diese Daten von der Plattform abrufen und in Ihre Pipeline von Automatisierungspotenzialen einspeist, können Sie die Chancen, die die größte potenzielle Erfolgsquote und letztendlich den höchsten ROI haben, effektiv identifizieren und priorisieren.