- Erste Schritte
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- Allgemeine Felder (früher Entitäten)
- Bezeichnungen (Vorhersagen, Konfidenzniveaus, Hierarchie usw.)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Überprüfte und nicht überprüfte Nachrichten
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Verwaltung
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen Sie eine Datenquelle in der GUI
- Hochladen einer CSV-Datei in eine Quelle
- Ein neues Dataset erstellen
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern Sie die Einstellungen eines Datasets
- Löschen Sie Nachrichten über die Benutzeroberfläche
- Löschen Sie ein Dataset
- Löschen Sie eine Quelle
- Exportieren Sie ein Dataset
- Verwenden von Exchange-Integrationen
- Vorbereiten von Daten für den CSV-Upload
- Modelltraining und -wartung
- Verstehen von Beschriftungen, allgemeinen Feldern und Metadaten
- Bezeichnungshierarchie und bewährte Methode
- Definieren Ihrer Taxonomieziele
- Analyse- vs. Automatisierungsanwendungsfälle
- Konvertieren Ihrer Ziele in Bezeichnungen
- Erstellen Ihrer Taxonomiestruktur
- Best Practices für den Taxonomieentwurf
- Ihre Taxonomie wird importiert
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung (NEU)
- Der Status des Datasets
- Best Practice für Modelltraining und Anmerkungen
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Trainieren
- Einführung in Verfeinerung
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- Wie funktioniert die Validierung?
- Verstehen und Verbessern der Modellleistung
- Warum kann eine Bezeichnung eine geringe durchschnittliche Genauigkeit haben?
- Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Abgleichs und Verwendung des Abgleichs
- Wann das Training Ihres Modells beendet werden soll
- Verwenden von allgemeinen Feldern
- Generative Extraktion
- Verwenden von Analyse und Überwachung
- Automatisierungs- und Communications Mining
- Lizenzierungsinformationen
- Häufige Fragen und mehr
- Häufige Fragen zu Zugriff und Benutzerverwaltung
- Häufige Fragen zu Datenupload und -verwaltung
- Häufige Fragen zum Modelltraining
- Häufige Fragen zur Analyse
- Häufige Fragen zur Automatisierung
Häufige Fragen zu Datenupload und -verwaltung
Die Plattform kann mehrere Formen von Konversationsdaten unterstützen, z. B. wenn eine Person mit einer anderen Person in einem digital übermittelten Kanal spricht. Beispiele: E-Mails, Fallverwaltungstickets, Chats, Anrufprotokolle, Umfragen, Überprüfungen, Fallnotizen und vieles mehr.
Die Plattform interpretiert die Kerninhalte einer Konversation. Bei E-Mail-Konversationen werden Betreff, Textkörper und Thread berücksichtigt, die Inhalte der Anhänge jedoch nicht. Die Plattform kann erkennen, ob E-Mails Anhänge, deren Namen, Dateitypen und Größe haben. Die Namen der Anhänge können in der Benutzeroberfläche angezeigt und Teil des Textkörpers sein, auf dem basierend die Modelle der Plattform trainiert werden.
Das Ziel des Trainings eines Modells besteht darin, einen Satz von Trainingsdaten zu erstellen, die möglichst repräsentativ für das Dataset als Ganzes sind, damit die Plattform die relevanten Beschriftungen und allgemeinen Felder für jede Nachricht genau und sicher vorhersagen kann. Die Beschriftungen und allgemeinen Felder innerhalb eines Datasets müssen untrennbar mit den übergeordneten Zielen des Anwendungsfalls verbunden sein und einen signifikanten geschäftlichen Wert bieten.
Ja, wenn Sie über ausreichende Berechtigungen verfügen, können Sie unsere APIs verwenden, um Daten zur Plattform hinzuzufügen, oder Sie können Daten per CSV-Upload zu einer Quelle hinzufügen.
Die Speicherung von Daten in der Plattform kann an die Bedürfnisse unserer Kunden angepasst werden. Die zulässige Volumennutzung hängt von den vereinbarten Lizenzbedingungen ab. Die Nutzung im Rahmen des in der Lizenz vereinbarten maximalen Volumens ist völlig zulässig. Ein Überschreiten der maximalen Menge erfordert eine Besprechung und kann zusätzliche Kosten verursachen.
Die Plattform löscht historische Daten nicht automatisch. Ältere Daten können bei Bedarf von Ihrem Communications Mining-Administrator entfernt werden.
Benutzer können ihre Daten aus der Plattform per CSV oder mithilfe der APIs der Plattform exportieren. Detaillierte Erklärungen dazu finden Sie in unseren Anleitungen sowie in unserer API-Dokumentation. Die Plattform löscht historische Daten nicht automatisch. Ältere Daten können bei Bedarf von Ihrem Communications Mining-Administrator entfernt werden.
Nach der Anmeldung werden Sie zur Seite Datasets weitergeleitet, auf der Sie Ihr eigenes Dataset erstellen können, wenn Sie über die entsprechenden Berechtigungen dafür verfügen. Eine detaillierte Erklärung dazu, wie Sie das tun, finden Sie hier .
Sie können hier auf unsere API-Dokumentation zugreifen.
- Welche Arten der Kommunikation nutzen Sie?
- Wie wird die Kommunikation mit Anhängen behandelt?
- Kann ich selbst Daten auf die Plattform hochladen?
- Welche Datenmengen kann die Plattform unterstützen und gibt es einen Grenzwert?
- Wie lange speichert die Plattform meine Daten?
- Wie kann ich meine Daten aus der Plattform exportieren, damit ich sie anderswo verwenden kann?
- Wie erstelle ich eigene Datasets?
- Wie kann ich eine Verbindung zur API herstellen?