ixp
latest
false
UiPath logo, featuring letters U and I in white

Communications Mining-Benutzerhandbuch

Letzte Aktualisierung 10. Nov. 2025

Vergleich von CommPath- und Preview-LLMs

Um Ihre Extraktionen zu generieren, können Sie aus den folgenden verschiedenen verfügbaren LLMs wählen:
  • KommPath-LLM
  • Vorschau von LLM

In den folgenden Abschnitten werden einige der bei der Entscheidung für ein LLM zu bedenken. Wenn Ihr Anwendungsfall das Extrahieren von mehr als 30 Feldern pro Nachricht erfordert, wird empfohlen, das Preview LLM zu verwenden .

KommPath-LLM

  • Nutzt das proprietäre LLM von UiPath®, das für Kommunikationsdaten optimiert ist.
  • Beschränkt auf das Extrahieren von ungefähr 30 Feldern pro Nachricht.
  • Weniger Latenz als das Preview LLM​.
  • Sie können sie basierend auf Ihren Daten feinabstimmen.
  • Die Verbesserung der Leistung für CommPath, sowohl in Bezug auf die Anzahl der Felder, die extrahiert werden können, als auch die Inferenzgeschwindigkeit für das Modell hat hohe Priorität.
  • Bietet spezifische Vorkommenskonfidenzen im Vergleich zum Preview LLM​ Weitere Informationen finden Sie unter Automatisierung mit generativer Extraktion.

Zeigen Sie eine Vorschau von LLM an​

  • Nutzt das Azure OpenAI GPT-Modell als zugrunde liegendes LLM.
  • UiPath® kann die Verfügbarkeit nicht garantieren, da diese vollständig von den Azure OpenAI-Endpunkten abhängig ist. Wenn die Endpunkte ausgefallen oder überlastet sind, kann UiPath die Verfügbarkeit nicht garantieren.
  • Sie können mehr als 30 Felder pro Nachricht extrahieren.
  • Höhere Latenz im Vergleich zu CommPath LLM.
  • Beschränkt auf das Lernen im Kontext.
    Hinweis: Wenn Sie In-Context Learning verwenden, kann die Plattform nur aus dem lernen, womit Sie sie auffordern. Communications Mining™ kann die Eingabeaufforderung automatisch in einem Umfang verfeinern, aber das Modell lernt nicht von einer benutzergesteuerten Validierung.

Verwenden Sie die in den folgenden Bildern dargestellten Einstellungen, um auszuwählen, welches LLM Sie für die generative Extraktion verwenden möchten.

CommPath LLM ist standardmäßig aktiviert. Um das Preview LLM zu aktivieren, stellen Sie sicher, dass Sie die Optionen Generative KI-Funktionen verwenden und Vorschau des generativen Extraktionsmodells verwenden aktivieren.



Wenn der Umschalter Vorschauversion des generativen Extraktionsmodells verwenden deaktiviert ist, bedeutet dies, dass Sie das CommPath LLM verwenden.

Wenn die Umschalter Generative KI-Funktionen verwenden und Vorschau des generativen Extraktionsmodells verwenden aktiviert sind, verwendet die Plattform den UiPath Azure OpenAI-Endpunkt im Extraktionsprozess.

Empfohlener Ansatz

  1. Beginnen Sie mit dem Training Ihrer Extraktionen mit dem CommPath-LLM.
  2. Wenn die Extraktionen korrekt extrahiert werden, fahren Sie mit dem Training der Extraktionen mit dem CommPath LLM fort . Wenn dies nicht der Fall ist, wechseln Sie aufgrund der hohen Anzahl von Feldern oder großen Tabellen in jeder Nachricht zum Preview LLM. ​

    Um festzustellen, ob Ihre Extraktionen korrekt vorhersagen, überprüfen Sie die Validierungsstatistiken auf der Registerkarte Generative Extraktion auf der Seite Validierung . Wenn die Genauigkeit und Wiedererkennung der Extraktionen für Ihren Anwendungsfall geeignet sind, verwenden Sie weiterhin das CommPath-LLM.

    Wenn Datenpunkte nicht wie erwartet mit dem CommPath-LLM extrahiert werden:

    1. Heften Sie die aktuelle Modellversion an, indem Sie zu Modellen gehen und die neueste Modellversion anheften.
    2. Wenden Sie sich an Ihren UiPath®-Vertreter, um sich die Modellversion zu notieren, bei der die Extraktionen nicht gut funktionierten. Ihr UiPath-Vertreter arbeitet direkt mit dem Communications Mining™-Produktteam zusammen, um Verbesserungen zu untersuchen und zu implementieren.​
  3. Wenn Sie das Vorschau-LLM verwenden, setzen Sie das Training Ihres Modells auf die gleiche Weise fort, wie Sie das CommPath-LLM trainiert haben. Gehen Sie es durch und geben Sie für jede Ihrer Extraktionen korrekte Beispiele an.
Hinweis: Wenn Sie das Vorschau-Modell auswählen, wird nur dieses Modell für die generative Extraktion trainiert – ohne gleichzeitig ein CommPath-Modell zu trainieren. Dies führt zu einem schnelleren Training und einer schnelleren Validierung für Benutzer des Vorschaumodells. Wenn Sie zu CommPath wechseln, werden Vorhersagen weiterhin vom Preview LLM bereitgestellt, bis eine CommPath-Modellversion trainiert wurde, und umgekehrt.

  • KommPath-LLM
  • Zeigen Sie eine Vorschau von LLM an​
  • Empfohlener Ansatz

War diese Seite hilfreich?

Hilfe erhalten
RPA lernen – Automatisierungskurse
UiPath Community-Forum
Uipath Logo
Vertrauen und Sicherheit
© 2005–2025 UiPath. Alle Rechte vorbehalten