- Einleitung
- Einrichten Ihres Kontos
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- Allgemeine Felder
- Beschriftungen (Vorhersagen, Konfidenzniveaus, Beschriftungshierarchie und Beschriftungsstimmung)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Nachrichten mit und ohne Anmerkungen
- Extraktionsfelder
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Zugriffssteuerung und Administration
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen oder Löschen einer Datenquelle in der GUI
- Vorbereiten von Daten für den CSV-Upload
- Hochladen einer CSV-Datei in eine Quelle
- Ein Dataset wird erstellt
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern der Dataset-Einstellungen
- Löschen einer Nachricht
- Löschen eines Datasets
- Exportieren eines Datasets
- Verwenden von Exchange-Integrationen
- Modelltraining und -wartung
- Grundlegendes zu Beschriftungen, allgemeinen Feldern und Metadaten
- Beschriftungshierarchie und Best Practices
- Vergleichen von Anwendungsfällen für Analyse und Automatisierung
- Konvertieren Ihrer Ziele in Bezeichnungen
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung
- Der Status des Datasets
- Best Practice für Modelltraining und Anmerkungen
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Grundlegendes zu Datenanforderungen
- Trainieren
- Einführung in Verfeinerung
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- So funktioniert die Validierung
- Verstehen und Verbessern der Modellleistung
- Gründe für die geringe durchschnittliche Beschriftungsgenauigkeit
- Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Abgleichs und Verwendung des Abgleichs
- Wann das Training Ihres Modells beendet werden soll
- Verwenden von allgemeinen Feldern
- Generative Extraktion
- Überblick
- Vergleich von CommPath- und Preview-LLMs
- Konfigurieren von Feldern
- Filtern des Extraktionsfeldtyps
- Generieren Ihrer Extraktionen
- Validieren und Kommentieren von generierten Extraktionen
- Bewährte Methoden und Überlegungen
- Grundlegendes zur Validierung von Extraktionen und Extraktionsleistung
- Häufig gestellte Fragen (FAQs)
- Verwenden von Analyse und Überwachung
- Automations and Communications Mining™
- Entwickler (Developer)
- Verwenden der API
- API-Tutorial
- Quellen
- Datasets
- Anmerkungen
- Anhänge (Attachments)
- Vorhersagen
- Erstellen Sie einen Stream
- Aktualisieren Sie einen Stream
- Rufen Sie einen Stream nach Namen ab
- Rufen Sie alle Streams ab
- Löschen Sie einen Stream
- Ergebnisse aus Stream abrufen
- Kommentare aus einem Stream abrufen (Legacy)
- Bringen Sie einen Stream vor
- Einen Stream zurücksetzen
- Kennzeichnen Sie eine Ausnahme
- Entfernen Sie das Tag einer Ausnahme
- Prüfungsereignisse
- Alle Benutzer abrufen
- Hochladen von Daten
- Herunterladen von Daten
- Exchange Integration mit einem Azure-Dienstbenutzer
- Exchange-Integration mit der Azure-Anwendungsauthentifizierung
- Exchange-Integration mit Azure Application Authentication und Graph
- Abrufen von Daten für Tableau mit Python
- Elasticsearch-Integration
- Allgemeine Feldextraktion
- Selbst gehostete Exchange-Integration
- UiPath® Automatisierungs-Framework
- Offizielle UiPath®-Aktivitäten
- Wie Maschinen lernen, Wörter zu verstehen: eine Anleitung zu Einbettungen in NLP
- Eingabeaufforderungsbasiertes Lernen mit Transformers
- Ef Robots II: Wissensdegesterration und Feinabstimmung
- Effiziente Transformer I: Warnmechanismen
- Tief hierarchische, nicht überwachte Absichtsmodellierung: Nutzen ohne Trainingsdaten
- Beheben von Anmerkungsverzerrungen mit Communications Mining™
- Aktives Lernen: Bessere ML-Modelle in weniger Zeit
- Auf Zahlen kommt es an – Bewertung der Modellleistung mit Metriken
- Darum ist Modellvalidierung wichtig
- Vergleich von Communications Mining™ und Google AutoML für Conversation Data Intelligence
- Lizenzierung
- Häufige Fragen und mehr

Communications Mining-Benutzerhandbuch
- KommPath-LLM
- Vorschau von LLM
In den folgenden Abschnitten werden einige der bei der Entscheidung für ein LLM zu bedenken. Wenn Ihr Anwendungsfall das Extrahieren von mehr als 30 Feldern pro Nachricht erfordert, wird empfohlen, das Preview LLM zu verwenden .
- Nutzt das proprietäre LLM von UiPath®, das für Kommunikationsdaten optimiert ist.
- Beschränkt auf das Extrahieren von ungefähr 30 Feldern pro Nachricht.
- Weniger Latenz als das Preview LLM.
- Sie können sie basierend auf Ihren Daten feinabstimmen.
- Die Verbesserung der Leistung für CommPath, sowohl in Bezug auf die Anzahl der Felder, die extrahiert werden können, als auch die Inferenzgeschwindigkeit für das Modell hat hohe Priorität.
- Bietet spezifische Vorkommenskonfidenzen im Vergleich zum Preview LLM Weitere Informationen finden Sie unter Automatisierung mit generativer Extraktion.
- Nutzt das Azure OpenAI GPT-Modell als zugrunde liegendes LLM.
- UiPath® kann die Verfügbarkeit nicht garantieren, da diese vollständig von den Azure OpenAI-Endpunkten abhängig ist. Wenn die Endpunkte ausgefallen oder überlastet sind, kann UiPath die Verfügbarkeit nicht garantieren.
- Sie können mehr als 30 Felder pro Nachricht extrahieren.
- Höhere Latenz im Vergleich zu CommPath LLM.
- Beschränkt auf das Lernen im Kontext.
Hinweis: Wenn Sie In-Context Learning verwenden, kann die Plattform nur aus dem lernen, womit Sie sie auffordern. Communications Mining™ kann die Eingabeaufforderung automatisch in einem Umfang verfeinern, aber das Modell lernt nicht von einer benutzergesteuerten Validierung.
Verwenden Sie die in den folgenden Bildern dargestellten Einstellungen, um auszuwählen, welches LLM Sie für die generative Extraktion verwenden möchten.
CommPath LLM ist standardmäßig aktiviert. Um das Preview LLM zu aktivieren, stellen Sie sicher, dass Sie die Optionen Generative KI-Funktionen verwenden und Vorschau des generativen Extraktionsmodells verwenden aktivieren.
Wenn der Umschalter Vorschauversion des generativen Extraktionsmodells verwenden deaktiviert ist, bedeutet dies, dass Sie das CommPath LLM verwenden.
Wenn die Umschalter Generative KI-Funktionen verwenden und Vorschau des generativen Extraktionsmodells verwenden aktiviert sind, verwendet die Plattform den UiPath Azure OpenAI-Endpunkt im Extraktionsprozess.
- Beginnen Sie mit dem Training Ihrer Extraktionen mit dem CommPath-LLM.
- Wenn die Extraktionen korrekt extrahiert werden, fahren Sie mit dem Training der Extraktionen mit dem CommPath LLM fort . Wenn dies nicht der Fall ist, wechseln Sie aufgrund der hohen Anzahl von Feldern oder großen Tabellen in jeder Nachricht zum Preview LLM.
Um festzustellen, ob Ihre Extraktionen korrekt vorhersagen, überprüfen Sie die Validierungsstatistiken auf der Registerkarte Generative Extraktion auf der Seite Validierung . Wenn die Genauigkeit und Wiedererkennung der Extraktionen für Ihren Anwendungsfall geeignet sind, verwenden Sie weiterhin das CommPath-LLM.
Wenn Datenpunkte nicht wie erwartet mit dem CommPath-LLM extrahiert werden:
- Heften Sie die aktuelle Modellversion an, indem Sie zu Modellen gehen und die neueste Modellversion anheften.
- Wenden Sie sich an Ihren UiPath®-Vertreter, um sich die Modellversion zu notieren, bei der die Extraktionen nicht gut funktionierten. Ihr UiPath-Vertreter arbeitet direkt mit dem Communications Mining™-Produktteam zusammen, um Verbesserungen zu untersuchen und zu implementieren.
- Wenn Sie das Vorschau-LLM verwenden, setzen Sie das Training Ihres Modells auf die gleiche Weise fort, wie Sie das CommPath-LLM trainiert haben. Gehen Sie es durch und geben Sie für jede Ihrer Extraktionen korrekte Beispiele an.