communications-mining
latest
false
Wichtig :
Dieser Inhalt wurde maschinell übersetzt.
UiPath logo, featuring letters U and I in white

Communications Mining-Benutzerhandbuch

Letzte Aktualisierung 20. Dez. 2024

CommPath LLM vs. Preview LLM

Hinweis: Zum Generieren Ihrer Extraktionen stehen zwei verschiedene LLMs zur Auswahl:
  1. KommPath-LLM
  2. Vorschau von LLM

Im Folgenden finden Sie einen Überblick über einige der Überlegungen, die bei der Entscheidung für ein zu verwendendes LLM zu berücksichtigen sind. Wenn Ihr Anwendungsfall das Extrahieren von mehr als 30 Feldern pro Nachricht erfordert, empfehlen wir derzeit die Verwendung des Vorschau-LLMs.

KommPath-LLM

  • Nutzt das proprietäre LLM von UiPath®, das für Kommunikationsdaten optimiert wurde.
  • Derzeit begrenzt auf das Extrahieren von ca. 30 Felder pro Nachricht​.
  • Weniger Latenz als Vorschau-LLM​.
  • Kann basierend auf Ihren Daten fein eingestellt werden.
  • Improving performance for CommPath, both in terms of the number of fields which can be extracted and the inference speed for the model is a high priority.
  • Provides specific occurrence confidences (check the Automating with GenEx section for more details) compared to the Preview LLM.​

Zeigen Sie eine Vorschau von LLM an​

  • Nutzt das GPT-Modell von Azure OpenAI als zugrundeliegendes LLM.
  • UiPath® kann die Verfügbarkeit nicht garantieren, da diese vollständig von den Azure OpenAI-Endpunkten abhängig ist. Wenn die Endpunkte ausgefallen oder überlastet sind, kann UiPath® die Verfügbarkeit nicht garantieren​.
  • Sie können mehr als 30 Felder pro Nachricht extrahieren.
  • Höhere Latenz im Vergleich zu CommPath LLM​.
  • Auf Lernen im Kontext beschränkt ​.
    Hinweis: Wenn Sie In-Context-Learning verwenden, kann die Plattform nur von dem lernen, womit Sie sie aufrufen. Communications Mining kann die Eingabeaufforderung automatisch bis zu einem bestimmten Grad verfeinern, aber das Modell lernt nicht von einer benutzergeführten Validierung.

Verwenden Sie die unten dargestellten Einstellungen, um auszuwählen, welches LLM Sie für die generative Extraktion verwenden möchten.

CommPath-LLM ist standardmäßig aktiviert. Um den Vorschau-LLM zu aktivieren, sind die Umschalter aus der folgenden Abbildung erforderlich.



Wenn der Umschalter Vorschaumodell für generatives Extraktionsmodell verwenden deaktiviert ist, bedeutet dies, dass Sie das CommPath LLM verwenden.

Wenn die Umschalter Generative KI-Funktionen verwenden und Vorschauversion des generativen Extraktionsmodells verwenden aktiviert sind, verwendet die Plattform den UiPath® Azure OpenAI-Endpunkt im Extraktionsprozess.

Empfohlener Ansatz

  1. Beginnen Sie mit dem Training Ihrer Extraktionen mit dem CommPath-LLM.
  2. Wenn die Extraktionen korrekt extrahiert werden, fahren Sie mit dem Training der Extraktionen mit dem CommPath LLM fort. Wenn dies nicht der Fall ist, wechseln Sie aufgrund der hohen Anzahl von Feldern oder großen Tabellen in jeder Nachricht zum Vorschau-LLM. ​

    Um festzustellen, ob Ihre Extraktionen korrekt vorhersagen, überprüfen Sie die Validierungsstatistiken auf der Registerkarte Generative Extraktion auf der Seite Validierung . Wenn die Genauigkeit und Wiedererkennung der Extraktionen für Ihren Anwendungsfall geeignet sind, verwenden Sie weiterhin das CommPath-LLM.

    Wenn Datenpunkte nicht wie erwartet mit dem CommPath-LLM extrahiert werden:

    1. Anheften der aktuellen Modellversion: Gehen Sie zu „ Modelle “ und wählen Sie die neueste Modellversion anheften.
    2. Wenden Sie sich an Ihren UiPath®-Mitarbeiter und notieren Sie sich die Modellversion, bei der die Extraktionen nicht gut funktionierten. Ihr UiPath®-Vertreter arbeitet direkt mit dem Communications Mining-Produktteam zusammen, um Verbesserungen zu untersuchen und zu implementieren.​
  3. Wenn Sie das Vorschau-LLM verwenden, setzen Sie das Training Ihres Modells auf die gleiche Weise fort, wie Sie das CommPath-LLM trainiert haben. Gehen Sie es durch und geben Sie für jede Ihrer Extraktionen korrekte Beispiele an.
Note: When you select the Preview model, only that model will be trained for Generative Extraction—without simultaneously training a CommPath model. This results in faster training and validation for Preview model users. If you switch to CommPath, predictions will continue to be provided by the Preview LLM until a CommPath model version has been trained (and vice versa).
  • KommPath-LLM
  • Zeigen Sie eine Vorschau von LLM an​
  • Empfohlener Ansatz

War diese Seite hilfreich?

Hilfe erhalten
RPA lernen – Automatisierungskurse
UiPath Community-Forum
Uipath Logo White
Vertrauen und Sicherheit
© 2005–2024 UiPath. Alle Rechte vorbehalten