- Überblick
- Modellerstellung
- Modellvalidierung
- Modellbereitstellung
- API
- Häufig gestellte Fragen

Benutzerhandbuch für Unstrukturierte und komplexe Dokumente
Modellkonfiguration
Überblick
Sie können das zugrunde liegende LLM sowie dessen Einstellungen in der Option Modellkonfiguration auf der Registerkarte Erstellen konfigurieren.

Folgende Einstellungen stehen zur Verfügung:
- Intelligente Vorverarbeitung:
- Keine
- Tabellenmodell – Mini
- Tabellenmodell
- Extraktionsmodell:
- GPT-4o
- Gemini
- Erweiterte Optionen:
- Zuordnung
- Temperatur
- Erste P
- Seed
- Ahndung für Häufigkeit
- Prompt-Überschreibung
Passen Sie diese Einstellungen an, um die Genauigkeit der Vorhersagen des Modells und die Leistung zu verbessern.
Intelligente Vorverarbeitung
Mithilfe der Optionen zur intelligenten Vorverarbeitung lässt sich die Vorhersageleistung verbessern, wenn Dokumente aufgrund komplexer Formatierung für Modelle schwer zu interpretieren sind.
Dazu gehören folgende Optionen:
- Keine – Diese Standardoption ist für die meisten Dokumente geeignet, die keine Tabelleninhalte enthalten.
- Tabellenmodell – Mini – Optimiert für Tabelleninhalte und Latenz. Diese Option eignet sich am besten für Dokumente mit einfachen Tabellen oder mehreren Tabellen.
- Tabellenmodell – Optimiert für komplexere Tabelleninhalte. Diese Option eignet sich am besten für Dokumente mit komplexen geschachtelten Tabellen, Tabellen mit zusammengeführten Zellen, Aufzählungspunkten oder Tabellen, die sich über mehrere Seiten erstrecken.
Hinweis:
- Sie funktioniert bestens bei komplexen Tabellen, erhöht jedoch die Latenz von Vorhersagen.
- Diese Funktion basiert auf Gemini-Modellen über den AI Trust Layer.
Beispiel für eine intelligente Vorverarbeitung
Die folgende Abbildung enthält ein Beispiel für eine Extraktionsabfrage LLM ohne Verwendung des Tabellenmodellmodus , bei dem die Werte aus der Spalte this period mit denen in der Spalte year to date verwechselt werden.

Die folgende Abbildung enthält ein Beispiel für eine Extraktion im Tabellen-Modellmodus , bei dem die Werte aus beiden Spalten, this period und year to date, korrekt extrahiert werden.

Extraktionsmodelle
Die Option Extraktionsmodell stellt das zugrunde liegende LLM dar, das für die Extraktion verwendet wird.
Folgende Modelle sind verfügbar:
- GPT-4o
- Gemini
Auswahl des am besten geeigneten Modells
Die Leistung der verschiedenen Modelle unterscheidet sich je nach Einsatzgebiet, aber wir empfehlen Ihnen, bei Möglichkeit Gemini zu verwenden. Mehrere andere Vor- und Nachverarbeitungsfunktionen, die zur Optimierung der Leistung und Benutzererfahrung beitragen, basieren ebenfalls auf Gemini.
GPT-4o hat ein Limit von 50 Seiten und kann darüber hinaus nur mithilfe der Funktion „Private Preview Iterative Calling“ weitere Seiten verarbeiten.
Gemini kann Dokumente in IXP mit bis zu 500 Seiten in einem einzigen Aufruf verarbeiten, wobei eine höhere Seitenanzahl in der Vorschau unterstützt wird.Das Gemini-Limit kann je nach Dichte der Feldwerte innerhalb des Dokuments geringfügig variieren. Das Gemini-Modell hat standardmäßig ein Eingabelimit von 500 Seiten, im Vergleich zu dem Eingabelimit von 50 Seiten bei GPT-4o.Darüber hinaus verfügt Gemini über ein höheres Ausgabekontextfenster, sodass mehr Feldwerte verarbeitet werden können.
Von einem Modell zu einem anderen wechseln
Um von einem Modell zum anderen zu wechseln, verwenden Sie die Auswahlliste der Option Extraktionsmodell und wählen Sie Speichern. Dadurch wird automatisch die Erstellung einer neue Projektversion und die Generierung neuer Vorhersagen ausgelöst.
Bei ausgereiften Projekten werden Taxonomien, insbesondere Anweisungen, und bestätigte Vorhersagen, insbesondere für abgeleitete Felder, in der Regel für einen Modelltyp gegenüber dem anderen optimiert. Es ist wahrscheinlich, dass die Leistungspunktzahlen nach dem Wechsel sinken, da einige Iterationen von Anweisungen und die erneute Überprüfung von Vorhersagen erforderlich sein können, um modellspezifische Optimierungen rückgängig zu machen, die sich auf die Leistung des anderen Modells auswirken können.
Wenn Sie aus Leistungsgründen das Modell wechseln müssen, überprüfen Sie zunächst, ob das alternative Modell das Kernproblem lösen kann, das mit dem aktuellen Modell nicht lösbar ist. Wenn möglich, optimieren Sie das neue Modell, um die Leistungsmetriken in Measure zu verbessern.
Grenzen der Dokumentenverarbeitung.
In der Praxis kann Intelligente Datenextraktion und Verarbeitung (IXP) zuverlässig bis zu etwa 1.200 Feldwerte pro Dokument extrahieren.
Dies bedeutet, dass das Modell sein Tokenlimit erreichen kann, wenn ein Dokument mehr als 1.200 Feldwerte erfordert. Dies kann auch passieren, wenn das Dokument innerhalb der in diesem Abschnitt aufgeführten Seitenlimits liegt. Forschungs- und Development-Arbeiten werden fortgesetzt, um höhere Feldwertlimits in zukünftigen Versionen zu unterstützen.
Wenn Tokenlimits überschritten werden, können die Vorhersagen unabhängig von der Anzahl der Seiten unvollständig oder leer sein. Beispielsweise kann ein 80-seitiges Dokument mit 1.400 extrahierten Feldwerten eine Token-Limit-Warning in der Benutzeroberfläche triggern.Wenn das Tokenlimit zur Runtime überschritten wird, zeigt die API-Antwort dies an, indem sie Werte für das Auftreten und die Extraktionskonfidenz von 0 zurückgibt.
Wenn Seitenlimits überschritten werden, werden nur die Seiten innerhalb der unten angegebenen Limits verarbeitet. Beide Verhaltensweisen gelten sowohl für Gemini als auch für GPT-4o.
Runtime / runtime-Limits umfassen:
- Anzahl der Seiten pro Dokument:
- Für Gemini bis zu 500 Seiten.
- Für GPT-4o 50 Seiten und bis zu 150 Seiten mit der iterativen Funktion „Private Preview“.
- Tokenlimits – Datenintensive Dokumente mit mehr als 200 Extraktionen, z. B. lange Tabellen, werden wahrscheinlich das Tokenlimit erreichen. Wenn GPT4-o sein Limit erreicht, können Sie die Funktion zum iterativen Aufrufen der privaten Vorschau verwenden, um die Feldausgabe zu erhöhen. Gemini hat jedoch standardmäßig ein höheres Ausgabetokenlimit, sodass beide Modelle ähnliche Mengen an Feldwerten zurückgeben können – Gemini in einem einzigen Aufruf und GPT bei mehreren Aufrufen.
Hinweis:
Um Zugriff auf die private Vorschaufunktion für iterative Aufrufe anzufordern, wenden Sie sich an Ihren Kontomanager.
Erweiterte Optionen
Mithilfe der erweiterten Optionen können Sie die Einstellungen für Ihre Modelle anpassen, die Zuordnungsmethode auswählen und die Prompt-Überschreibung verwenden.
Die Verwendung der Prompt-Überschreibung wird nur in Ausnahmefällen empfohlen.
Erweitern Sie die Einstellung, um alle verfügbaren Optionen zu sehen:
- Attended – Die Methode, mit der Vorhersagen dem relevanten Teil oder Text im Dokument zugeordnet werden. Wählen Sie eine der folgenden Optionen aus:
- Regelbasiert – Verwendet einen umfangreichen Satz von Regeln und Heuratiken, um die richtigen Spannen auf einer Seite mit den vorhergesagten Werten aus dem Modell abzugleichen. Dies ist eine Option mit geringer Latenz, aber sie beeinträchtigt die Leistung in Bezug auf erfolgreiche Zuordnungen im Vergleich zur modellbasierten Option.
- Modellbasiert – Verwendet einen zusätzlichen LLM-Aufruf, um die vorhergesagten Werte erfolgreich mit den richtigen Spannen auf der Seite abzugleichen, da diese Werte oft in verschiedenen Teilen der Seite wiederholt werden können. Dies ist die leistungsstärkste Option in Bezug auf erfolgreiche Zuordnungen, aber sie fügt den Vorhersagen etwas Latenz hinzu. Diese Option basiert auf der Verwendung von Gemini-Modellen.
- Temperatur – Die zu verwendende Probetemperatur. Wählen Sie eine Zahl zwischen 0,0 und 2,0 aus. Höhere Werte machen die Ausgabe zufälliger.
- TopP - Stichproben nur aus Token mit der Wahrscheinlichkeits masse
top_p. Wählen Sie eine Zahl zwischen 0,0 und 1,0 aus. - Seed - Falls angegeben, sollten wiederholte Anforderungen mit demselben Seed und denselben Parametern dasselbe Ergebnis liefern.
- Ahndung für Häufigkeit – Wählen Sie eine Zahl zwischen -2,0 und 2,0 aus. Positive Werte verringern die Wahrscheinlichkeit, dass das Modell Token wiederholt, die bereits im Text angezeigt wurden.
- Prompt überschreiben – Überschreibt den standardmäßigen Systemprompt mit einem neuen Wert. Diese Option ist standardmäßig deaktiviert. Nach der Aktivierung sind die Eingabeaufforderung Aufgabenanweisungen anfügen und die Eingabeaufforderung Feldanweisungen anfügen für die Konfiguration aktiviert.
Hinweis:
Das UiPath®-Team hat die Standardeinstellungen für Modelleinstellungen wie Temperatur, Top P und Häufigkeit untersucht und optimiert. Daher müssen Sie diese Werte nur dann anpassen, wenn Sie wissen, welche spezifischen Einstellungen Sie benötigen.