- Einleitung
- Einrichten Ihres Kontos
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- Allgemeine Felder
- Beschriftungen (Vorhersagen, Konfidenzniveaus, Beschriftungshierarchie und Beschriftungsstimmung)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Nachrichten mit und ohne Anmerkungen
- Extraktionsfelder
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Zugriffssteuerung und Administration
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen oder Löschen einer Datenquelle in der GUI
- Hochladen einer CSV-Datei in eine Quelle
- Vorbereiten von Daten für den CSV-Upload
- Ein Dataset wird erstellt
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern der Dataset-Einstellungen
- Löschen einer Nachricht
- Löschen eines Datasets
- Exportieren eines Datasets
- Verwenden von Exchange-Integrationen
- Modelltraining und -wartung
- Grundlegendes zu Beschriftungen, allgemeinen Feldern und Metadaten
- Beschriftungshierarchie und Best Practices
- Vergleichen von Anwendungsfällen für Analyse und Automatisierung
- Konvertieren Ihrer Ziele in Bezeichnungen
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung
- Der Status des Datasets
- Best Practice für Modelltraining und Anmerkungen
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Training von Chat- und Anrufdaten
- Grundlegendes zu Datenanforderungen
- Trainieren
- Einführung in Verfeinerung
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- So funktioniert die Validierung
- Verstehen und Verbessern der Modellleistung
- Gründe für die geringe durchschnittliche Beschriftungsgenauigkeit
- Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Abgleichs und Verwendung des Abgleichs
- Wann das Training Ihres Modells beendet werden soll
- Verwenden von allgemeinen Feldern
- Generative Extraktion
- Überblick
- Konfigurieren von Feldern
- Filtern des Extraktionsfeldtyps
- Generieren Ihrer Extraktionen
- Validieren und Kommentieren von generierten Extraktionen
- Bewährte Methoden und Überlegungen
- Grundlegendes zur Validierung von Extraktionen und Extraktionsleistung
- Häufig gestellte Fragen (FAQs)
- Verwenden von Analyse und Überwachung
- Automations and Communications Mining™
- Entwickler (Developer)
- Verwenden der API
- API-Tutorial
- Quellen
- Datasets
- Anmerkungen
- Anhänge (Attachments)
- Vorhersagen
- Erstellen Sie einen Stream
- Aktualisieren Sie einen Stream
- Rufen Sie einen Stream nach Namen ab
- Rufen Sie alle Streams ab
- Löschen Sie einen Stream
- Ergebnisse aus Stream abrufen
- Kommentare aus einem Stream abrufen (Legacy)
- Bringen Sie einen Stream vor
- Einen Stream zurücksetzen
- Kennzeichnen Sie eine Ausnahme
- Entfernen Sie das Tag einer Ausnahme
- Prüfungsereignisse
- Alle Benutzer abrufen
- Hochladen von Daten
- Herunterladen von Daten
- Exchange Integration mit einem Azure-Dienstbenutzer
- Exchange-Integration mit der Azure-Anwendungsauthentifizierung
- Exchange-Integration mit Azure Application Authentication und Graph
- Abrufen von Daten für Tableau mit Python
- Elasticsearch-Integration
- Allgemeine Feldextraktion
- Selbst gehostete Exchange-Integration
- UiPath® Automatisierungs-Framework
- Offizielle UiPath®-Aktivitäten
- Wie Maschinen lernen, Wörter zu verstehen: eine Anleitung zu Einbettungen in NLP
- Eingabeaufforderungsbasiertes Lernen mit Transformers
- Ef Robots II: Wissensdegesterration und Feinabstimmung
- Effiziente Transformer I: Warnmechanismen
- Tief hierarchische, nicht überwachte Absichtsmodellierung: Nutzen ohne Trainingsdaten
- Beheben von Anmerkungsverzerrungen mit Communications Mining™
- Aktives Lernen: Bessere ML-Modelle in weniger Zeit
- Auf Zahlen kommt es an – Bewertung der Modellleistung mit Metriken
- Darum ist Modellvalidierung wichtig
- Vergleich von Communications Mining™ und Google AutoML für Conversation Data Intelligence
- Lizenzierung
- Häufige Fragen und mehr

Communications Mining-Benutzerhandbuch
Die Seite Validierung zeigt eine Übersicht über die Extraktionsleistung an und hilft Ihnen, die individuelle Leistung jeder Extraktion zu überprüfen.
Sie können auf die Validierungsdetails auf der Registerkarte Extraktionen unter Validierung zugreifen. Die Registerkarte Extraktionen ist nur verfügbar, wenn Extraktionsfelder in Ihrem Dataset definiert sind
Die Standardseite der Registerkarte Extraktionen der Validierung ist eine Übersicht mit dem Filter Alle . Diese Seite enthält die folgenden zusammenfassenden Statistiken über die Gesamtleistung der Extraktionen im Dataset:
- Mittlere F1-Punktzahl der Extraktionen
- Mittlere Extraktionsgenauigkeit
- Mittlere Extraktionserinnerung
Wählen Sie einzelne Beschriftungen aus, um die Leistung einzelner Extraktionen anzuzeigen, d. h. die Beschriftung und die zugehörigen Extraktionsfelder.
Bei jeder Extraktion können Sie die folgenden Werte feststellen:
- F1-Ergebnis
- Präzision
- Rückruf
Bei allen Extraktionsfeldern für die Beschriftung können Sie die folgenden Werte bemerken:
- Durchschnittliche F1-Punktzahl
- Durchschnittliche Genauigkeit
- Durchschnittliche Erinnerung
Bei den einzelnen Extraktionsfeldern können Sie die folgenden Werte bemerken:
- F1-Ergebnis
- Präzision
- Rückruf
Die Funktionsweise der Konfidenzniveaus hängt vom zugrunde liegenden LLM-Modell ab, das Sie verwenden.
Wenn Sie das CommPath-LLM verwenden,
Wenn Sie das CommPath-LLM verwenden, weist das Modell für jede Vorhersage einen Satz von Konfidenzbewertungen zu (%).
CommPath berechnet und gibt Folgendes zurück:
-
Vorkommenskonfidenz: Die Wahrscheinlichkeit, dass das erkannte Vorkommen der zugewiesenen Beschriftung entspricht.
-
Extraktionskonfidenz: Die Konfidenz in die Richtigkeit des extrahierten Inhalts.
Diese Konfidenzwerte ermöglichen es nachgelagerten Automatisierungen, Extraktionen mit Konfidenzniveaus unter einem festgelegten Beschriftungsschwellenwert herauszufiltern. Wenn Sie einen geeigneten Schwellenwert festlegen, können Sie sicherstellen, dass nur Vorhersagen, die ein gewünschtes Konfidenzniveau erfüllen, in Workflows verwendet werden.
Wenn Sie das Vorschau-LLM verwenden
Die Preview LLM für die generative Extraktion bietet für jede Extraktion einen Konfidenzwert für das Vorkommen einer Beschriftung, der sowohl die Vorkommenskonfidenz als auch die Extraktionskonfidenz ersetzt. Dieser Ansatz unterscheidet sich von CommPath, das für jede Extraktion separate Konfidenzwerte zurückgibt.
Die Rückgabe der Beschriftungskonfidenz hilft bei Bedarf beim Herausfiltern von Extraktionen, sodass Benutzer die Genauigkeit einiger Ergebnisse verbessern können.
Dieser Abschnitt beschreibt die Ausgaben der Aktivität Get Stream Results . Weitere Informationen finden Sie unter Communications Mining™ Dispatcher-Framework.auf
Um mit generativer Extraktion zu automatisieren, müssen Sie zuerst den Inhalt der Ausgaben Ihrer Extraktionen verstehen.
Die Vorkommenskonfidenz bezieht sich darauf, wie zuversichtlich das Modell in Bezug auf die Anzahl der Instanzen ist, die eine Anforderung für eine Nachricht auftreten kann, d. h., wie oft eine Extraktion vorkommen kann.
Um beispielsweise einen Kontoauszug in ein nachgelagertes System zu verarbeiten, benötigen Sie immer eine Konto-ID, eine Auftragsnummer, den Zahlungsbetrag und das Fälligkeitsdatum.
Überprüfen Sie das Beispiel für die Vorkommenskonfidenz in der folgenden Abbildung. Es zeigt, wie das Modell zuversichtlich identifizieren kann, dass es zwei mögliche Vorkommnisse gibt, bei denen Sie diesen nachgelagerten Prozess erleichtern müssen.
Extraktionskonfidenz
Die Extraktionskonfidenz ist die Konfidenz des Modells in Bezug auf seine Vorhersagen. Dazu gehört, wie genau er meint, bei der Vorhersage der Instanz einer Beschriftung und deren zugehörigen Feldern zu sein. Dazu gehört auch die Konfidenz des Modells bei der korrekten Vorhersage, ob ein Feld fehlt.
Betrachten Sie das gleiche Beispiel wie zuvor. Um einen Kontoauszug in ein nachgelagertes System zu verarbeiten, benötigen Sie immer eine Konto-ID, eine Auftragsnummer, den Zahlungsbetrag und das Fälligkeitsdatum.
Diesmal ist jedoch weder die Auftragsnummer noch das Fälligkeitsdatum in der Nachricht vorhanden, sondern nur das Startdatum.
Die Extraktionskonfidenz aus diesem Beispiel ist die Konfidenz des Modells über die Identifizierung, ob die Werte für jedes Feld, das der Beschriftung zugeordnet ist, vorhanden sind. Dazu gehört auch die Konfidenz des Modells bei der korrekten Vorhersage, ob ein Feld fehlt.
In diesem Fall haben Sie nicht alle Felder, die Sie benötigen, um alle erforderlichen Felder vollständig extrahieren zu können.
Beispiel für Nutzdaten
Stream bezieht sich auf den Schwellenwert, den Sie in Communications Mining festgelegt haben und ob die Nachricht diesen Schwellenwert erreicht.
Anstatt Vorhersagen basierend auf Schwellenwerten zu filtern, gibt diese Route zurück, welche Vorhersagekonfidenz die Schwellenwerte erreicht hat.
Mit anderen Worten: Wenn Ihre Schwellenwerte erreicht wurden, wird der Stream zurückgegeben. Wenn nicht, ist dieser Wert leer.
- Das vorherige Bild enthält ein Beispiel-Snippet, um die verschiedenen Komponenten zu erklären, nicht die vollständige Ausgabe einer Antwort einer generativen Extraktion. Außerdem wird sie bei mehreren Extraktionen von den Extraktionen vor ihr bedingt. Bei Beschriftungen ohne Extraktionsfelder entspricht die Vorkommenskonfidenz der Beschriftungskonfidenz, die Sie in der Benutzeroberfläche anzeigen können.
- Wenn das Modell nicht alle Felder in einer Nachricht erfolgreich extrahiert hat, weil zu viele Felder vorhanden sind, gibt es eine Extraktion in der Streamantwort zurück, die eine Vorkommenskonfidenz und eine Extraktionskonfidenz mit Werten von null hat