ixp
latest
false
  • Überblick
  • Modellerstellung
    • Überblick
    • Verwalten von Projekten
    • Hochladen von Beispieldokumenten​
    • Überprüfung von Vorhersagen
    • Validieren von Extraktionsvorhersagen
    • Modellkonfiguration
  • Modellvalidierung
  • Modellbereitstellung
  • Häufig gestellte Fragen
UiPath logo, featuring letters U and I in white

Benutzerhandbuch für Unstrukturierte und komplexe Dokumente

Letzte Aktualisierung 9. Dez. 2025

Modellkonfiguration

Überblick

Sie können das zugrunde liegende LLM sowie dessen Einstellungen in der Option Modellkonfiguration auf der Registerkarte Erstellen konfigurieren.



Folgende Einstellungen stehen zur Verfügung:
  • Intelligente Vorverarbeitung:
    • Keine
    • Tabellenmodell – Mini
    • Tabellenmodell
  • Extraktionsmodell:
    • GPT-4o
    • Gemini
  • Erweiterte Optionen:
    • Zuordnung
    • Temperatur
    • Erste P
    • Seed
    • Ahndung für Häufigkeit
    • Prompt-Überschreibung

Passen Sie diese Einstellungen an, um die Genauigkeit der Vorhersagen des Modells und die Leistung zu verbessern.

Intelligente Vorverarbeitung

Mithilfe der Optionen zur intelligenten Vorverarbeitung lässt sich die Vorhersageleistung verbessern, wenn Dokumente aufgrund komplexer Formatierung für Modelle schwer zu interpretieren sind.

Dazu gehören folgende Optionen:
  • Keine – Diese Standardoption ist für die meisten Dokumente geeignet, die keine Tabelleninhalte enthalten.
  • Tabellenmodell – Mini – Für Tabelleninhalte und Latenz optimiert. Diese Option eignet sich am besten für Dokumente mit einfachen Tabellen oder mehreren Tabellen.
  • Tabellenmodell – Für komplexere Tabelleninhalte optimiert. Diese Option eignet sich am besten für Dokumente mit komplexen geschachtelten Tabellen, Tabellen mit zusammengeführten Zellen, Aufzählungspunkten oder Tabellen, die sich über mehrere Seiten erstrecken.
    Hinweis:
    • Sie funktioniert bestens bei komplexen Tabellen, erhöht jedoch die Latenz von Vorhersagen.
    • Diese Funktion basiert auf Gemini-Modellen über den AI Trust Layer.

Beispiel für eine intelligente Vorverarbeitung

Auf folgender Abbildung sehen Sie ein Beispiel für eine Extraktion, die LLM ohne Verwendung des Tabellenmodells abfragt, wobei die Werte aus der Spalte this period mit denen in der Spalte year to date verwechselt werden.

Auf folgender Abbildung sehen Sie ein Beispiel für eine Extraktion mithilfe des Tabellenmodells, bei der die Werte aus beiden Spalten, this period und year to date, korrekt extrahiert werden.

Extraktionsmodelle

Die Option Extraktionsmodell stellt das zugrunde liegende LLM dar, das für die Extraktion verwendet wird.

Folgende Modelle sind verfügbar:
  • GPT-4o
  • Gemini

Auswahl des am besten geeigneten Modells

Die Leistung der verschiedenen Modelle unterscheidet sich je nach Einsatzgebiet, aber wir empfehlen Ihnen, bei Möglichkeit Gemini zu verwenden. Mehrere andere Vor- und Nachverarbeitungsfunktionen, die zur Optimierung der Leistung und Benutzererfahrung beitragen, basieren ebenfalls auf Gemini.

GPT-4o has a restriction of 50 pages and can only process more using the private preview iterative calling feature.

Gemini kann Dokumente in IXP bis zu 500 Seiten in einem einzigen Aufruf verarbeiten, wobei in der Vorschau höhere Seitenanzahl unterstützt wird. Das Gemini-Limit kann je nach Dichte der Feldwerte innerhalb des Dokuments leicht variieren. Das Gemini-Modell hat standardmäßig ein Eingabelimit von 500 Seiten im Vergleich zum 50-Seiten-Eingabelimit von GPT-4o. Darüber hinaus verfügt Gemini über ein höheres Ausgabekontextfenster, wodurch mehr Feldwerte verarbeitet werden können.

Von einem Modell zu einem anderen wechseln

Um von einem Modell zum anderen zu wechseln, verwenden Sie die Auswahlliste der Option Extraktionsmodell und wählen Sie Speichern. Dadurch wird automatisch die Erstellung einer neue Projektversion und die Generierung neuer Vorhersagen ausgelöst.

Wichtig: Für ausgereifte Projekte werden Taxonomien, insbesondere Anweisungen und bestätigte Vorhersagen, insbesondere für abgeleitete Felder, in der Regel für einen Modelltyp gegenüber dem anderen optimiert. Es ist wahrscheinlich, dass die Leistungsbewertung nach dem Wechsel geringer ausfällt, da eine gewisse Iteration der Anweisungen und eine erneute Überprüfung der Vorhersagen erforderlich ist, um modellspezifische Optimierungen rückgängig zu machen, die sich auf die Leistung des anderen Modells auswirken könnten.

Wenn Sie aus Leistungsgründen das Modell wechseln müssen, überprüfen Sie zunächst, ob das alternative Modell das Kernproblem lösen kann, das mit dem aktuellen Modell nicht lösbar ist. Wenn möglich, optimieren Sie das neue Modell, um die Leistungsmetriken in Measure zu verbessern.

Document processing limits

In practice, IXP can reliably extract up to approximately 1,200 field values per document.

This means that if a document requires more than 1,200 field values to be extracted, the model may reach its token limit. This can happen even if the document is well within the page limits listed in this section. Research and development work is ongoing to support higher field value limits in future releases.

If token limits are exceeded, predictions may be incomplete or empty regardless of the number of pages. For example, an 80-page document with 1,400 extracted field values may trigger a token-limit warning in the user interface. At runtime, when the token limit is exceeded, the API response will show this by returning occurrence and extraction confidence values of 0.

If page limits are exceeded, only the pages within the specified limits below are processed. Both of these behaviors apply to both Gemini and GPT-4o.

Runtime limits include:

  • Anzahl der Seiten pro Dokument:
    • Für Gemini bis zu 500 Seiten.
    • For GPT-4o, 50 pages and up to 150 pages using the iterative calling private preview feature.
  • Token limits - Data-heavy documents with more than 200 extractions, such as lengthy tables, will likely reach the token limit. If GPT4-o reaches its limit, you can use the iterative calling private preview feature to increase the field output. Gemini, however, has a higher output token limit by default, so both models can return similar amounts of field values—Gemini in a single call, and GPT through multiple calls.
Note: To request access to the iterative calling private preview feature, contact your Account Manager.

Erweiterte Optionen

Mithilfe der erweiterten Optionen können Sie die Einstellungen für Ihre Modelle anpassen, die Zuordnungsmethode auswählen und die Prompt-Überschreibung verwenden.

Hinweis: Die Verwendung von Prompt-Überschreibung wird nur in Ausnahmefällen empfohlen.

Erweitern Sie die Einstellung, um alle verfügbaren Optionen zu sehen:

  • Zuordnung – Methode, mit der Vorhersagen dem relevanten Teil oder Text im Dokument zugeordnet werden. Wählen Sie eine der folgenden Optionen aus:
    • Regelbasiert – Es werden mithilfe eines umfangreichen Regelwerks und von Heuristiken, die richtigen Spannen auf einer Seite mit den vom Modell vorhergesagten Werten abgeglichen. Diese Option hat eine niedriger Latenz, verliert aber im Vergleich zur modellbasierten Option bei der erfolgreichen Zuweisung an Leistung.
    • Modellbasiert – Arbeitet mit einem zusätzlichen LLM-Aufruf, um die vorhergesehenen Werte den korrekten Spannen auf der Seite zuzuordnen, da sich diese Werte häufig an verschiedenen Stellen der Seite wiederholen können. Es ist die effizienteste Option in Bezug auf erfolgreiche Zuordnungen, verursacht aber eine gewisse Latenz bei Vorhersagen. Diese Option basiert auf der Verwendung von Gemini-Modellen.
  • Temperatur – Die zu verwendende Probenahmetemperatur. Wählen Sie eine Zahl zwischen 0,0 und 2,0. Höhere Werte machen die Ausgabe zufälliger​.
  • Top P – Nur Samples aus Token mit der Wahrscheinlichkeitsmasse top_p​. Wählen Sie eine Zahl zwischen 0,0 und 1,0.
  • Seed - Falls angegeben, sollten wiederholte Anforderungen mit demselben Seed und denselben Parametern dasselbe Ergebnis liefern​.
  • Häufigkeitsstrafe – Wählen Sie eine Zahl zwischen -2,0 und 2,0. Positive Werte verringern die Wahrscheinlichkeit, dass das Modell Token wiederholt, die bereits im Text erschienen sind.
  • Prompt überschreiben – Überschreibt den standardmäßigen Systemprompt mit einem neuen Wert. Diese Option ist standardmäßig deaktiviert. Nach der Aktivierung werden die Optionen Prompt mit Aufgabenanweisungen anhängen und Prompt mit Feldanweisungen anhängen ebenfalls für die Konfiguration aktiviert.
Hinweis: Das UiPath®-Team hat die Standardeinstellungen für Modelleinstellungen wie Temperatur, Top P und Häufigkeit untersucht und optimiert. Daher müssen Sie diese Werte nur dann anpassen, wenn Sie wissen, ob Sie spezifische Einstellungen benötigen.

  • Überblick
  • Intelligente Vorverarbeitung
  • Beispiel für eine intelligente Vorverarbeitung
  • Extraktionsmodelle
  • Erweiterte Optionen

War diese Seite hilfreich?

Hilfe erhalten
RPA lernen – Automatisierungskurse
UiPath Community-Forum
Uipath Logo
Vertrauen und Sicherheit
© 2005–2025 UiPath. Alle Rechte vorbehalten