- Erste Schritte
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- Allgemeine Felder (früher Entitäten)
- Bezeichnungen (Vorhersagen, Konfidenzniveaus, Hierarchie usw.)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Überprüfte und nicht überprüfte Nachrichten
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Verwaltung
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen Sie eine Datenquelle in der GUI
- Hochladen einer CSV-Datei in eine Quelle
- Ein neues Dataset erstellen
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern Sie die Einstellungen eines Datasets
- Löschen Sie Nachrichten über die Benutzeroberfläche
- Löschen Sie ein Dataset
- Löschen Sie eine Quelle
- Exportieren Sie ein Dataset
- Verwenden von Exchange-Integrationen
- Vorbereiten von Daten für den CSV-Upload
- Modelltraining und -wartung
- Verstehen von Beschriftungen, allgemeinen Feldern und Metadaten
- Bezeichnungshierarchie und bewährte Methode
- Definieren Ihrer Taxonomieziele
- Analyse- vs. Automatisierungsanwendungsfälle
- Konvertieren Ihrer Ziele in Bezeichnungen
- Erstellen Ihrer Taxonomiestruktur
- Best Practices für den Taxonomieentwurf
- Ihre Taxonomie wird importiert
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung (NEU)
- Verstehen des Status Ihres Datasets
- Best Practice für Modelltraining und Anmerkungen
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Trainieren
- Einführung in Verfeinerung
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- Wie funktioniert die Validierung?
- Verstehen und Verbessern der Modellleistung
- Warum kann eine Bezeichnung eine geringe durchschnittliche Genauigkeit haben?
- Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Abgleichs und Verwendung des Abgleichs
- Wann das Training Ihres Modells beendet werden soll
- Verwenden von allgemeinen Feldern
- Generative Extraktion
- Verwenden von Analyse und Überwachung
- Automatisierungs- und Communications Mining
- Lizenzierungsinformationen
- Häufige Fragen und mehr
CommPath LLM vs. Preview LLM
- KommPath-LLM
- Vorschau von LLM
Im Folgenden finden Sie einen Überblick über einige der Überlegungen, die bei der Entscheidung für ein zu verwendendes LLM zu berücksichtigen sind. Wenn Ihr Anwendungsfall das Extrahieren von mehr als 30 Feldern pro Nachricht erfordert, empfehlen wir derzeit die Verwendung des Vorschau-LLMs.
- Nutzt das proprietäre LLM von UiPath®, das für Kommunikationsdaten optimiert wurde.
- Derzeit begrenzt auf das Extrahieren von ca. 30 Felder pro Nachricht.
- Weniger Latenz als Vorschau-LLM.
- Kann basierend auf Ihren Daten fein eingestellt werden.
- Die Verbesserung der Leistung für CommPath, sowohl in Bezug auf die Anzahl der zu extrahierenden Felder als auch in Bezug auf die Inferenzgeschwindigkeit für das Modell, hat für 2024 hohe Priorität.
- Höhere Vorkommenskonfidenzen (weitere Informationen finden Sie im Abschnitt Automatisierung mit GenEx ) im Vergleich zum Vorschau-LLM.
- Nutzt das GPT-Modell von Azure OpenAI als zugrundeliegendes LLM.
- UiPath® kann die Verfügbarkeit nicht garantieren, da diese vollständig von den Azure OpenAI-Endpunkten abhängig ist. Wenn die Endpunkte ausgefallen oder überlastet sind, kann UiPath® die Verfügbarkeit nicht garantieren.
- Sie können mehr als 30 Felder pro Nachricht extrahieren.
- Höhere Latenz im Vergleich zu CommPath LLM.
- Auf Lernen im Kontext beschränkt .
Hinweis: Wenn Sie In-Context-Learning verwenden, kann die Plattform nur von dem lernen, womit Sie sie aufrufen. Communications Mining kann die Eingabeaufforderung automatisch bis zu einem bestimmten Grad verfeinern, aber das Modell lernt nicht von einer benutzergeführten Validierung.
Verwenden Sie die unten dargestellten Einstellungen, um auszuwählen, welches LLM Sie für die generative Extraktion verwenden möchten.
CommPath-LLM ist standardmäßig aktiviert. Um den Vorschau-LLM zu aktivieren, sind die Umschalter aus der folgenden Abbildung erforderlich.
Wenn der Umschalter Vorschaumodell für generatives Extraktionsmodell verwenden deaktiviert ist, bedeutet dies, dass Sie das CommPath LLM verwenden.
Wenn die Umschalter Generative KI-Funktionen verwenden und Vorschauversion des generativen Extraktionsmodells verwenden aktiviert sind, verwendet die Plattform den UiPath® Azure OpenAI-Endpunkt im Extraktionsprozess.
- Beginnen Sie mit dem Training Ihrer Extraktionen mit dem CommPath-LLM.
- Wenn die Extraktionen korrekt extrahiert werden, fahren Sie mit dem Training der Extraktionen mit dem CommPath LLM fort. Wenn dies nicht der Fall ist, wechseln Sie aufgrund der hohen Anzahl von Feldern oder großen Tabellen in jeder Nachricht zum Vorschau-LLM.
Um festzustellen, ob Ihre Extraktionen korrekt vorhersagen, überprüfen Sie die Validierungsstatistiken auf der Registerkarte Generative Extraktion auf der Seite Validierung . Wenn die Genauigkeit und Wiedererkennung der Extraktionen für Ihren Anwendungsfall geeignet sind, verwenden Sie weiterhin das CommPath-LLM.
Wenn Datenpunkte nicht wie erwartet mit dem CommPath-LLM extrahiert werden:
- Anheften der aktuellen Modellversion: Gehen Sie zu „ Modelle “ und wählen Sie die neueste Modellversion anheften.
- Wenden Sie sich an Ihren UiPath®-Mitarbeiter und notieren Sie sich die Modellversion, bei der die Extraktionen nicht gut funktionierten. Ihr UiPath®-Vertreter arbeitet direkt mit dem Communications Mining-Produktteam zusammen, um Verbesserungen zu untersuchen und zu implementieren.
- Wenn Sie das Vorschau-LLM verwenden, setzen Sie das Training Ihres Modells auf die gleiche Weise fort, wie Sie das CommPath-LLM trainiert haben. Gehen Sie es durch und geben Sie für jede Ihrer Extraktionen korrekte Beispiele an.