UiPath Documentation
automation-suite
2.2510
true

Automation Suite-Administratorhandbuch

Letzte Aktualisierung 4. Mai 2026

Unterstützung für Large Language Models

Large Language Models (LLMs) unterstützen die Funktionen für Agentic AI und generative KI in der Automation Suite. Die AI Trust Layer steuert, wie diese Modelle mit UiPath-Produkten in Ihrer Organisation verbunden werden, und wendet Richtliniendurchsetzung und Prüfungsprotokollierung auf alle KI-Interaktionen an, unabhängig davon, welches Modell Sie verwenden.

Die Automation Suite unterstützt zwei umfassende Integrationsmodi: die Verbindung mit in der Cloud gehosteten Modellen über Ihre eigenen Abonnements und die Ausführung von Open-Source-Modellen in Ihrer eigenen Infrastruktur. In beiden Fällen bleibt die AI Trust Layer die zentrale Governance-Ebene. Die LLM-Integration wird von AKS/EKS- und OpenShift-Bereitstellungen unterstützt.

Integrationsmodi

Cloud-Modelle

Cloud-Modelle sind LLMs, die von Drittanbietern gehostet und verwaltet werden. Sie können Ihre eigenen Abonnements von den folgenden Anbietern verbinden:

  • OpenAI – Verfügbar über eine direkte API oder eine von Azure gehostete Bereitstellung (Microsoft Azure OpenAI).
  • Google Gemini – Verfügbar über Google Vertex AI.
  • Anthropic Claude – Verfügbar über Amazon Bedrock.

Cloud-Modellverbindungen bieten Ihnen zwei Konfigurationsoptionen.

Eigenes Abonnement mitbringen (BYOS)

Ersetzen Sie ein von UiPath verwaltetes Modellabonnement durch Ihr eigenes Abonnement für dieselbe Modellfamilie und -version. Auf diese Weise können Sie Modellaufrufe über Ihr eigenes Konto weiterleiten, während die UiPath-Produkterfahrung intakt bleibt.

Bring Your Own Model (BYOM)

Fügen Sie ein benutzerdefiniertes Modell hinzu, das nicht im von UiPath verwalteten Angebot enthalten ist, solange das Modell den AI Trust Layer-Testvalidierungstest besteht.

UiPath empfiehlt Google Gemini für die umfassendste Kompatibilität über Agent-Funktionen hinweg.

Konfigurationsschritte finden Sie unter Konfigurieren von LLMs.

Selbst gehostete Modelle

Für Organisationen, die lokale Modellbereitstellungen benötigen, um Datenhoheits- oder Compliance-Anforderungen zu erfüllen, unterstützt die Automation Suite eine Reihe von empfohlenen Open-Source-Modellen (OSS). Beachten Sie, dass selbstgehostete Modelle nur mit einer Teilmenge von agentischen Funktionen kompatibel sind.

Selbst gehostete Modelle müssen eine API verfügbar machen, die dem OpenAI V1-Standard folgt. UiPath verbindet sich mit ihnen über den OpenAI V1-konformen LLM-Connector im Integration Service. Jedes Modell muss den AI Trust Layer-Testvalidierungstest bestehen, bevor es verwendet werden kann.

Das Ausführen selbst gehosteter Modelle erfordert auch eine unterstützte Inferenz-Engine und entsprechende Hardware. Zu den unterstützten Inferenz-Engines gehören vLLM und SGLang. Hardwareanforderungen finden Sie unter Kubernetes-Cluster und -Knoten.

Konfigurationsschritte und Anleitungen pro Anbieter finden Sie unter Verbinden von benutzerdefinierten LLMs über AI Trust Layer.

Kompatibilität von Anbieter und Funktion

Die folgende Tabelle zeigt, welche Anbieter für jedes Produkt und welche Funktion unterstützt werden, einschließlich empfohlener selbst gehosteter Modelle, falls zutreffend. Bestimmte Modellversionen finden Sie unter Konfiguration von LLMs.

ProduktFunktionenOpenAIGoogle GeminiAnthropic ClaudeSelbst gehostetes OSS
AgentsAgent-AusführungWird unterstütztWird unterstütztWird unterstütztGLM 4.5, GLM 4.6, GLM 4.6 V, GPT-SS 120B
BewertungenWird unterstütztWird unterstütztWird unterstütztGLM 4.5, GLM 4.6, GLM 4.6 V, GPT-SS 120B
SimulationenUnterstützt1Nicht unterstütztNicht unterstütztNicht unterstützt
AutopilotGenerationNicht unterstütztWird unterstütztNicht unterstütztNicht unterstützt
ChatNicht unterstütztWird unterstütztWird unterstütztNicht unterstützt
Autopilot for EveryoneChatWird unterstütztNicht unterstütztWird unterstütztNicht unterstützt
Codierte AgentsLLM aufrufenWird unterstütztWird unterstütztWird unterstütztNicht unterstützt
KontextgrundlageErweiterte ExtraktionUnterstützt2Wird unterstütztNicht unterstütztNicht unterstützt
Batch-TransformationWird unterstütztWird unterstütztNicht unterstütztGLM 4.6 V
Batch-Transformation mit Web-SucheNicht unterstütztWird unterstütztNicht unterstütztNicht unterstützt
DeepRAGWird unterstütztWird unterstütztNicht unterstütztNicht unterstützt
EinbettungenWird unterstütztWird unterstütztNicht unterstütztQwen 8B
GenAI-AktivitätenErstellen, Testen und BereitstellenWird unterstütztWird unterstütztWird unterstütztnoch festzulegen
Healing AgentKI-gestützte WiederherstellungWird unterstütztWird unterstütztNicht unterstütztGLM 4.5, GLM 4.6, Qwen3 235B
Popup-GovernanceWird unterstütztWird unterstütztNicht unterstütztGLM 4.5, GLM 4.6, Qwen3 235B
UI-Automatisierung (UI Automation)ScreenPlayWird unterstütztWird unterstütztUnterstützt3Nicht unterstützt
Semantische SelektorenNicht unterstütztWird unterstütztNicht unterstütztNicht unterstützt
Test ManagerAutopilotWird unterstütztWird unterstütztWird unterstütztNicht unterstützt

Nur GPT 4.1 Mini. Nur zwei Einbettungen. Advanced Extraction und DeepRAG erfordern einen Cloud-Modellanbieter. 3 Nur ScreenPlay. Semantische Selektoren erfordern Google Gemini.

Governance

Alle LLM-Interaktionen durchlaufen unabhängig vom Anbieter die AI Trust Layer. Die Durchsetzung der AI Trust Layer-Richtlinie über Automation Ops™ und die detaillierte Prüfungsprotokollierung gelten für alle Modellinteraktionen.

Governance-Richtlinien wurden speziell für von UiPath verwaltete LLMs entwickelt. Wenn Sie ein von UiPath verwaltetes Modell über eine Richtlinie deaktivieren, gilt diese Einschränkung nicht für Ihre eigenen konfigurierten Modelle desselben Typs.

  • Integrationsmodi
  • Cloud-Modelle
  • Selbst gehostete Modelle
  • Kompatibilität von Anbieter und Funktion
  • Governance

War diese Seite hilfreich?

Verbinden

Benötigen Sie Hilfe? Support

Möchten Sie lernen? UiPath Academy

Haben Sie Fragen? UiPath-Forum

Auf dem neuesten Stand bleiben