- Einleitung
- Einrichten Ihres Kontos
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- Allgemeine Felder
- Beschriftungen (Vorhersagen, Konfidenzniveaus, Beschriftungshierarchie und Beschriftungsstimmung)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Nachrichten mit und ohne Anmerkungen
- Extraktionsfelder
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Zugriffssteuerung und Administration
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen oder Löschen einer Datenquelle in der GUI
- Hochladen einer CSV-Datei in eine Quelle
- Vorbereiten von Daten für den CSV-Upload
- Ein Dataset wird erstellt
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern der Dataset-Einstellungen
- Löschen einer Nachricht
- Löschen eines Datasets
- Exportieren eines Datasets
- Verwenden von Exchange-Integrationen
- Modelltraining und -wartung
- Grundlegendes zu Beschriftungen, allgemeinen Feldern und Metadaten
- Beschriftungshierarchie und Best Practices
- Vergleichen von Anwendungsfällen für Analyse und Automatisierung
- Konvertieren Ihrer Ziele in Bezeichnungen
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung
- Der Status des Datasets
- Best Practice für Modelltraining und Anmerkungen
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Grundlegendes zu Datenanforderungen
- Trainieren
- Einführung in Verfeinerung
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- So funktioniert die Validierung
- Verstehen und Verbessern der Modellleistung
- Gründe für die geringe durchschnittliche Beschriftungsgenauigkeit
- Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Abgleichs und Verwendung des Abgleichs
- Wann das Training Ihres Modells beendet werden soll
- Verwenden von allgemeinen Feldern
- Generative Extraktion
- Verwenden von Analyse und Überwachung
- Automations and Communications Mining™
- Entwickler (Developer)
- Verwenden der API
- API-Tutorial
- Quellen
- Datasets
- Anmerkungen
- Anhänge (Attachments)
- Vorhersagen
- Erstellen Sie einen Stream
- Aktualisieren Sie einen Stream
- Rufen Sie einen Stream nach Namen ab
- Rufen Sie alle Streams ab
- Löschen Sie einen Stream
- Ergebnisse aus Stream abrufen
- Kommentare aus einem Stream abrufen (Legacy)
- Bringen Sie einen Stream vor
- Einen Stream zurücksetzen
- Kennzeichnen Sie eine Ausnahme
- Entfernen Sie das Tag einer Ausnahme
- Prüfungsereignisse
- Alle Benutzer abrufen
- Hochladen von Daten
- Herunterladen von Daten
- Exchange Integration mit einem Azure-Dienstbenutzer
- Exchange-Integration mit der Azure-Anwendungsauthentifizierung
- Exchange-Integration mit Azure Application Authentication und Graph
- Abrufen von Daten für Tableau mit Python
- Elasticsearch-Integration
- Allgemeine Feldextraktion
- Selbst gehostete Exchange-Integration
- UiPath® Automatisierungs-Framework
- Offizielle UiPath®-Aktivitäten
- Wie Maschinen lernen, Wörter zu verstehen: eine Anleitung zu Einbettungen in NLP
- Eingabeaufforderungsbasiertes Lernen mit Transformers
- Ef Robots II: Wissensdegesterration und Feinabstimmung
- Effiziente Transformer I: Warnmechanismen
- Tief hierarchische, nicht überwachte Absichtsmodellierung: Nutzen ohne Trainingsdaten
- Beheben von Anmerkungsverzerrungen mit Communications Mining™
- Aktives Lernen: Bessere ML-Modelle in weniger Zeit
- Auf Zahlen kommt es an – Bewertung der Modellleistung mit Metriken
- Darum ist Modellvalidierung wichtig
- Vergleich von Communications Mining™ und Google AutoML für Conversation Data Intelligence
- Lizenzierung
- Häufige Fragen und mehr

Communications Mining-Benutzerhandbuch
Die Plattform kann mehrere Formen von Konversationsdaten unterstützen, d. h. wenn eine Person mit einer anderen Person in einem digital Medienkanal spricht. Beispiele sind E-Mails, Case Management-Tickets, Chats, Anrufprotokolle, Umfragen, Überprüfungen, Fallnotizen und andere.
Die Plattform interpretiert die Kerninhalte einer Konversation. Bei E-Mail-Konversationen werden Betreff, Textkörper und Thread berücksichtigt, die Inhalte der Anhänge jedoch nicht. Die Plattform kann erkennen, ob E-Mails Anhänge, deren Namen, Dateitypen und Größe haben. Die Namen der Anhänge können in der Benutzeroberfläche angezeigt und Teil des Textkörpers sein, auf dem basierend die Modelle der Plattform trainiert werden.
Das Ziel des Trainings eines Modells besteht darin, einen Satz von Trainingsdaten zu erstellen, die möglichst repräsentativ für das Dataset als Ganzes sind, damit die Plattform die relevanten Beschriftungen und allgemeinen Felder für jede Nachricht genau und sicher vorhersagen kann. Die Beschriftungen und allgemeinen Felder innerhalb eines Datasets müssen untrennbar mit den übergeordneten Zielen des Anwendungsfalls verbunden sein und einen signifikanten geschäftlichen Wert bieten.
Ja, wenn Sie über ausreichende Berechtigungen verfügen, können Sie unsere APIs verwenden, um Daten zur Plattform hinzuzufügen, oder Sie können Daten per CSV-Upload zu einer Quelle hinzufügen.
Die Speicherung von Daten in der Plattform kann an die Bedürfnisse unserer Kunden angepasst werden. Die zulässige Volumennutzung hängt von den vereinbarten Lizenzbedingungen ab. Die Nutzung im Rahmen des in der Lizenz vereinbarten maximalen Volumens ist völlig zulässig. Ein Überschreiten der maximalen Menge erfordert eine Besprechung und kann zusätzliche Kosten verursachen.
Die Plattform löscht historische Daten nicht automatisch. Ältere Daten können bei Bedarf von Ihrem Communications Mining™-Administrator entfernt werden.
Benutzer können ihre Daten von der Plattform per CSV oder mit den APIs der Plattform exportieren. Detaillierte Erklärungen dazu finden Sie in unseren Anleitungen sowie unserer API-Dokumentation. Die Plattform löscht historische Daten nicht automatisch. Ältere Daten können bei Bedarf von Ihrem Communications Mining™-Administrator entfernt werden.
Nachdem Sie sich angemeldet haben, werden Sie zur Seite Datasets weitergeleitet, auf der Sie Ihr eigenes Dataset erstellen können, wenn Sie über die entsprechenden Berechtigungen verfügen. Weitere Informationen finden Sie unter Erstellen eines neuen Datasets.
Weitere Informationen zu diesem Thema finden Sie unter Einführung in die API-Dokumentation.
- Welche Arten der Kommunikation nutzen Sie?
- Wie wird die Kommunikation mit Anhängen behandelt?
- Kann ich selbst Daten auf die Plattform hochladen?
- Welche Datenmengen kann die Plattform unterstützen und gibt es einen Grenzwert?
- Wie lange speichert die Plattform meine Daten?
- Wie kann ich meine Daten aus der Plattform exportieren, damit ich sie anderswo verwenden kann?
- Wie erstelle ich eigene Datasets?
- Wie kann ich eine Verbindung zur API herstellen?