- Erste Schritte
- Hostverwaltung
- Organisationen
- Mandanten und Dienste
- Authentifizierung und Sicherheit
- Lizenzierung
- Über die Lizenzierung
- Einheitliche Preise: Lizenzierungsplan-Framework
- Flex: Lizenzierungsplan-Framework
- Aktivieren Ihrer Lizenz
- Zuweisen von Lizenzen zu Mandanten
- Zuweisen von Benutzerlizenzen
- Freigegeben von Benutzerlizenzen
- Überwachung der Lizenzzuweisung
- Lizenzüberzuweisung
- Lizenzierungsbenachrichtigungen
- Benutzerlizenzverwaltung
- Konten und Rollen
- Externe Anwendungen
- Tests in Ihrer Organisation
- AI Trust Layer
- Unterstützung für Large Language Models
- Verwalten von AI Trust Layer
- Benachrichtigungen
- Protokollierung
- Fehlersuche und ‑behebung
Automation Suite-Administratorhandbuch
Large Language Models (LLMs) unterstützen die Funktionen für Agentic AI und generative KI in der Automation Suite. Die AI Trust Layer steuert, wie diese Modelle mit UiPath-Produkten in Ihrer Organisation verbunden werden, und wendet Richtliniendurchsetzung und Prüfungsprotokollierung auf alle KI-Interaktionen an, unabhängig davon, welches Modell Sie verwenden.
Die Automation Suite unterstützt zwei umfassende Integrationsmodi: die Verbindung mit in der Cloud gehosteten Modellen über Ihre eigenen Abonnements und die Ausführung von Open-Source-Modellen in Ihrer eigenen Infrastruktur. In beiden Fällen bleibt die AI Trust Layer die zentrale Governance-Ebene. Die LLM-Integration wird von AKS/EKS- und OpenShift-Bereitstellungen unterstützt.
Integrationsmodi
Cloud-Modelle
Cloud-Modelle sind LLMs, die von Drittanbietern gehostet und verwaltet werden. Sie können Ihre eigenen Abonnements von den folgenden Anbietern verbinden:
- OpenAI – Verfügbar über eine direkte API oder eine von Azure gehostete Bereitstellung (Microsoft Azure OpenAI).
- Google Gemini – Verfügbar über Google Vertex AI.
- Anthropic Claude – Verfügbar über Amazon Bedrock.
Cloud-Modellverbindungen bieten Ihnen zwei Konfigurationsoptionen.
Eigenes Abonnement mitbringen (BYOS)
Ersetzen Sie ein von UiPath verwaltetes Modellabonnement durch Ihr eigenes Abonnement für dieselbe Modellfamilie und -version. Auf diese Weise können Sie Modellaufrufe über Ihr eigenes Konto weiterleiten, während die UiPath-Produkterfahrung intakt bleibt.
Bring Your Own Model (BYOM)
Fügen Sie ein benutzerdefiniertes Modell hinzu, das nicht im von UiPath verwalteten Angebot enthalten ist, solange das Modell den AI Trust Layer-Testvalidierungstest besteht.
UiPath empfiehlt Google Gemini für die umfassendste Kompatibilität über Agent-Funktionen hinweg.
Konfigurationsschritte finden Sie unter Konfigurieren von LLMs.
Selbst gehostete Modelle
Für Organisationen, die lokale Modellbereitstellungen benötigen, um Datenhoheits- oder Compliance-Anforderungen zu erfüllen, unterstützt die Automation Suite eine Reihe von empfohlenen Open-Source-Modellen (OSS). Beachten Sie, dass selbstgehostete Modelle nur mit einer Teilmenge von agentischen Funktionen kompatibel sind.
Selbst gehostete Modelle müssen eine API verfügbar machen, die dem OpenAI V1-Standard folgt. UiPath verbindet sich mit ihnen über den OpenAI V1-konformen LLM-Connector im Integration Service. Jedes Modell muss den AI Trust Layer-Testvalidierungstest bestehen, bevor es verwendet werden kann.
Das Ausführen selbst gehosteter Modelle erfordert auch eine unterstützte Inferenz-Engine und entsprechende Hardware. Zu den unterstützten Inferenz-Engines gehören vLLM und SGLang. Hardwareanforderungen finden Sie unter Kubernetes-Cluster und -Knoten.
Konfigurationsschritte und Anleitungen pro Anbieter finden Sie unter Verbinden von benutzerdefinierten LLMs über AI Trust Layer.
Kompatibilität von Anbieter und Funktion
Die folgende Tabelle zeigt, welche Anbieter für jedes Produkt und welche Funktion unterstützt werden, einschließlich empfohlener selbst gehosteter Modelle, falls zutreffend. Bestimmte Modellversionen finden Sie unter Konfiguration von LLMs.
| Produkt | Funktionen | OpenAI | Google Gemini | Anthropic Claude | Selbst gehostetes OSS |
|---|---|---|---|---|---|
| Agents | Agent-Ausführung | Wird unterstützt | Wird unterstützt | Wird unterstützt | GLM 4.5, GLM 4.6, GLM 4.6 V, GPT-SS 120B |
| Bewertungen | Wird unterstützt | Wird unterstützt | Wird unterstützt | GLM 4.5, GLM 4.6, GLM 4.6 V, GPT-SS 120B | |
| Simulationen | Unterstützt1 | Nicht unterstützt | Nicht unterstützt | Nicht unterstützt | |
| Autopilot | Generation | Nicht unterstützt | Wird unterstützt | Nicht unterstützt | Nicht unterstützt |
| Chat | Nicht unterstützt | Wird unterstützt | Wird unterstützt | Nicht unterstützt | |
| Autopilot for Everyone | Chat | Wird unterstützt | Nicht unterstützt | Wird unterstützt | Nicht unterstützt |
| Codierte Agents | LLM aufrufen | Wird unterstützt | Wird unterstützt | Wird unterstützt | Nicht unterstützt |
| Kontextgrundlage | Erweiterte Extraktion | Unterstützt2 | Wird unterstützt | Nicht unterstützt | Nicht unterstützt |
| Batch-Transformation | Wird unterstützt | Wird unterstützt | Nicht unterstützt | GLM 4.6 V | |
| Batch-Transformation mit Web-Suche | Nicht unterstützt | Wird unterstützt | Nicht unterstützt | Nicht unterstützt | |
| DeepRAG | Wird unterstützt | Wird unterstützt | Nicht unterstützt | Nicht unterstützt | |
| Einbettungen | Wird unterstützt | Wird unterstützt | Nicht unterstützt | Qwen 8B | |
| GenAI-Aktivitäten | Erstellen, Testen und Bereitstellen | Wird unterstützt | Wird unterstützt | Wird unterstützt | noch festzulegen |
| Healing Agent | KI-gestützte Wiederherstellung | Wird unterstützt | Wird unterstützt | Nicht unterstützt | GLM 4.5, GLM 4.6, Qwen3 235B |
| Popup-Governance | Wird unterstützt | Wird unterstützt | Nicht unterstützt | GLM 4.5, GLM 4.6, Qwen3 235B | |
| UI-Automatisierung (UI Automation) | ScreenPlay | Wird unterstützt | Wird unterstützt | Unterstützt3 | Nicht unterstützt |
| Semantische Selektoren | Nicht unterstützt | Wird unterstützt | Nicht unterstützt | Nicht unterstützt | |
| Test Manager | Autopilot | Wird unterstützt | Wird unterstützt | Wird unterstützt | Nicht unterstützt |
Nur GPT 4.1 Mini. Nur zwei Einbettungen. Advanced Extraction und DeepRAG erfordern einen Cloud-Modellanbieter. 3 Nur ScreenPlay. Semantische Selektoren erfordern Google Gemini.
Governance
Alle LLM-Interaktionen durchlaufen unabhängig vom Anbieter die AI Trust Layer. Die Durchsetzung der AI Trust Layer-Richtlinie über Automation Ops™ und die detaillierte Prüfungsprotokollierung gelten für alle Modellinteraktionen.
Governance-Richtlinien wurden speziell für von UiPath verwaltete LLMs entwickelt. Wenn Sie ein von UiPath verwaltetes Modell über eine Richtlinie deaktivieren, gilt diese Einschränkung nicht für Ihre eigenen konfigurierten Modelle desselben Typs.