- Erste Schritte
- Datensicherheit und Compliance
- Organisationen
- Authentifizierung und Sicherheit
- Lizenzierung
- Über die Lizenzierung
- Einheitliche Preise: Lizenzierungsplan-Framework
- Aktivieren Ihrer Enterprise-Lizenz
- Migrieren von Test Suite zu Test Cloud
- Lizenzmigration
- Zuweisen von Lizenzen zu Mandanten
- Zuweisen von Benutzerlizenzen
- Freigegeben von Benutzerlizenzen
- Überwachung der Lizenzzuweisung
- Lizenzüberzuweisung
- Lizenzierungsbenachrichtigungen
- Benutzerlizenzverwaltung
- Mandanten und Dienste
- Konten und Rollen
- AI Trust Layer
- Externe Anwendungen
- Benachrichtigungen
- Protokollierung
- Tests in Ihrer Organisation
- Fehlersuche und ‑behebung
- Migration zur Test Cloud

Test Cloud-Administratorhandbuch
Konfigurieren von LLMs
LLM-Konfigurationen sind in den folgenden Lizenzierungsplänen verfügbar:
- Unified Pricing: App Test Platform Enterprise, App Test Platform Standard.
Auf der Registerkarte LLM-Konfigurationen können Sie Ihre bestehenden KI-Abonnements integrieren und gleichzeitig das von UiPath bereitgestellte Governance-Framework beibehalten. Sie können:
- UiPath LLM-Abonnement ersetzen: Ersetzen Sie von UiPath verwaltete Abonnements durch Ihre eigenen, sofern sie der gleichen Modellfamilie und Version entsprechen, die bereits vom UiPath-Produkt unterstützt wird. Dies ermöglicht einen nahtlosen Wechsel von von UiPath verwalteten Modellen zu Ihren abonnierten Modellen.
- Eigenes LLM hinzufügen: Verwenden Sie ein beliebiges LLM, das die Kompatibilitätskriterien des Produkts erfüllt. Um eine reibungslose Integration zu gewährleisten, muss das von Ihnen gewählte LLM eine Reihe von Tests bestehen, die über einen Testaufruf initiiert wurden, bevor es im UiPath-Ökosystem verwendet werden kann.
Beim Konfigurieren von LLMs bleiben die meisten Governance-Vorteile des AI Trust Layer erhalten, einschließlich der Richtliniendurchsetzung über Automation Ops und detaillierte Prüfungsprotokolle. Modell-Governance-Richtlinien wurden jedoch speziell für von UiPath verwaltete LLMs entwickelt. Das bedeutet, dass, wenn Sie ein bestimmtes Modell über eine AI Trust Layer-Richtlinie deaktivieren, die Einschränkung nur für die von UiPath verwaltete Version dieses Modells gilt. Ihre eigenen konfigurierten Modelle desselben Typs bleiben davon nicht betroffen.
Wenn Sie die Option zur Verwendung Ihres eigenen LLM oder Abonnement nutzen, beachten Sie die folgenden Punkte:
- Kompatibilitätsanforderungen: Das von Ihnen gewählte LLM oder Abonnement muss mit der Modellfamilie und Version übereinstimmen, die derzeit vom UiPath-Produkt unterstützt wird.
- Einrichtung: Stellen Sie sicher, dass Sie alle erforderlichen LLMs im benutzerdefinierten Setup ordnungsgemäß konfigurieren und verwalten. Wenn eine Komponente fehlt, veraltet oder falsch konfiguriert ist, funktioniert Ihr benutzerdefiniertes Setup möglicherweise nicht mehr. In solchen Fällen kehrt das System automatisch zu einem UiPathverwalteten LLM zurück, um die Kontinuität des Dienstes sicherzustellen, es sei denn, UiPath -LLMs werden durch eine Automation Ops Richtlinie deaktiviert.
- Kostenersparnis: Wenn Ihre benutzerdefinierte LLM-Einrichtung vollständig und korrekt ist und alle erforderlichen Anforderungen erfüllt, haben Sie möglicherweise Anspruch auf eine reduzierte Verbrauchsrate.
Einrichten einer LLM-Verbindung
LLM-Verbindungen verwenden Integration Service, um die Verbindung zu Ihren eigenen Modellen herzustellen. Sie können Verbindungen mit den folgenden Anbietern erstellen:
- Azure Open AI
- OpenAI
- Amazon Bedrock
- Google Vertex
- Open AI V1 Compliant LLM – Verwenden Sie diese Option, um eine Verbindung zu einem beliebigen LLM-Anbieter zu herstellen, dessen API dem OpenAI V1-Standard folgt. Weitere Details finden Sie in der Dokumentation zum OpenAI V1 Compliant LLM Connector.
Um eine neue Verbindung einzurichten, führen Sie die folgenden Schritte aus:
-
Erstellen Sie eine Verbindung im Integration Service mit dem Anbieter Ihrer Wahl. Connector-spezifische Authentifizierungsdetails finden Sie im Benutzerhandbuch zum Integration Service.
Hinweis:Um unbefugten Zugriff zu verhindern, erstellen Sie die Integration Service-Verbindung in einem privaten, nicht freigegebenen Ordner.
-
Gehen Sie zu Administrator > AI Trust Layer > LLM-Konfigurationen.
-
Wählen Sie den Mandanten und den Ordner aus, in dem Sie die Verbindung konfigurieren möchten.
-
Wählen Sie Konfiguration hinzufügen aus.
-
Wählen Sie das Produkt und die Funktion aus .
-
Wählen Sie aus, wie Sie konfigurieren möchten:
- UiPath LLM-Abonnement ersetzen – Verwenden Sie Ihre eigene Verbindung anstelle einer von UiPath verwalteten.
- Eigenes LLM hinzufügen – Fügen Sie eine zusätzliche LLM-Konfiguration hinzu, die vollständig von Ihnen verwaltet wird.
Hinweis:
Beim Konfigurieren Ihres eigenen LLM können Sie optional einschränken, welche Large Language Models für die Verwendung in Ihrer Organisation verfügbar sind. Wenn Sie sicherstellen möchten, dass nur Ihre benutzerdefinierten Modelle verwendet werden, können Sie von UiPath verwaltete Modelle von Drittanbietern deaktivieren, indem Sie eine AI Trust Layer-Richtlinie anwenden . Sehen Sie sich den Abschnitt Modelle in der Dokumentation zu den AI Trust Layer-Richtlinien an.
Je nach ausgewähltem Produkt ist eventuell nur eine Option verfügbar.
-
Richten Sie die Verbindung für das Abonnement „UiPath LLM ersetzen“ ein:
- Ordner – Wählen Sie den Ordner aus, in dem die Konfiguration gespeichert wird.
- Austauschbares LLM – Wählen Sie aus der Dropdownliste das UiPath-LLM aus, das Sie ersetzen möchten.
- Connector – Wählen Sie Ihren Connector aus (z. B. Microsoft Azure OpenAI).
- Verbindung – Wählen Sie Ihre Integration Service-Verbindung aus. Wenn keine verfügbar ist, wählen Sie Neue Verbindung hinzufügen aus, um zum Integration Service umgeleitet zu werden.
- LLM-Bezeichner – Geben Sie den Bezeichner für Ihr Modell ein.
- Geben Sie für von Azure gehostete Modelle den Modellbezeichner ein.
- Geben Sie für die Regionsübergreifende AWS Bedrock-Inferenz die Inferenzprofil-ID anstelle der Modell-ID ein.
-
Richten Sie die Verbindung für Eigenes LLM hinzufügen ein:
- Ordner – Wählen Sie den Ordner aus, in dem die Konfiguration gespeichert wird.
- Angezeigter Name (LLM) – Geben Sie einen Alias für Ihr LLM an.
- Connector – Wählen Sie Ihren Connector aus (z. B. Microsoft Azure OpenAI).
- Verbindung – Wählen Sie Ihre Integration Service-Verbindung aus.
- LLM-Bezeichner – Geben Sie den Bezeichner für Ihr Modell ein.
- Geben Sie für von Azure gehostete Modelle den Modellbezeichner ein.
- Geben Sie für die Regionsübergreifende AWS Bedrock-Inferenz die Inferenzprofil-ID anstelle der Modell-ID ein.
-
Wählen Sie Testkonfiguration aus, um zu überprüfen, ob das Modell erreichbar ist und die erforderlichen Kriterien erfüllt.
UiPath kann die Erreichbarkeit bestätigen. Die Überprüfung des genauen Modells liegt in Ihrer Verantwortung.
-
Wenn der Test erfolgreich ist, wählen Sie Speichern aus, um die Verbindung zu aktivieren.
Verwalten vorhandener LLM-Verbindungen
Sie können die folgenden Aktionen für Ihre vorhandenen Verbindungen ausführen:
- Status überprüfen – Überprüfen Sie den Status Ihrer Integration Service-Verbindung. Diese Aktion stellt sicher, dass die Verbindung aktiv ist und ordnungsgemäß funktioniert.
- Bearbeiten – Ändern Sie alle Parameter Ihrer vorhandenen Verbindung.
- Deaktivieren – Setzt die Verbindung vorübergehend aus. Wenn diese Option deaktiviert ist, bleibt die Verbindung in Ihrer Liste sichtbar, leitet jedoch keine Anrufe weiter. Sie können die Verbindung bei Bedarf erneut aktivieren.
- Löschen – Entfernen Sie die Verbindung endgültig aus Ihrem System. Diese Aktion deaktiviert die Verbindung und entfernt sie aus Ihrer Liste.
Konfiguration von LLMs für Ihr Produkt
Jedes Produkt unterstützt bestimmte Large Language Models (LLMs) und -Versionen. Verwenden Sie die folgende Tabelle, um die unterstützten Modelle und Versionen für Ihr Produkt zu ermitteln.
Sie können Ihr eigenes LLM mithilfe eines der folgenden Anbieter verbinden: Amazon Web Services, Google Vertex, Microsoft Azure OpenAI oder OpenAI V1 Compliance. Führen Sie die im vorherigen Abschnitt beschriebenen Schritte aus, um eine Verbindung zu erstellen.
| Produkt | Funktionen | LLM | Version |
|---|---|---|---|
| Agents 1 | Entwerfen, auswerten und bereitstellen | Anthropic | Anthropic.Claude-3.5-sonnet-20240620-v1:0 Anthropic.Claude-3.5-sonnet-20241022-v2:0 Anthropic.Claude-3.7-sonnet-20250219-v1:0 Anthropic.Claude-3-haiku-20240307-v1:0 |
| gemini-2.5-pro gemini-2.5-flight | |||
| OpenAI | gpt-4o-2024-05-13 gpt-4o-2024-08-06 gpt-4o-2024-11-20 gpt-4o-mini-2025-04-14 gpt-4o-mini-2024-07-18 | ||
| Autopilot for Everyone | Chat | Anthropic | Anthropic.Claude-3.5-sonnet-20240620-v1:0 Anthropic.Claude-3.7-sonnet-20250219-v1:0 |
| OpenAI | gpt-4o-mini-2024-07-18 | ||
| GenAI-Aktivitäten | Erstellen, Testen und Bereitstellen | Anthropic | Anthropic.Claude-3-5-sonnet-20240620-v1:0 Anthropic.Claude-3-5-sonnet-20241022-v2:0 Anthropic.Claude-3-7-sonnet-20250219-v1:0 Anthropic.Claude-sonnet-4-20250514-v1:0 Anthropic.Claude-sonnet-4-5-20250929-v1:0 Anthropic.Claude-haiku-4-5-20251001-v1:0 |
| gemini-2.0-flight-001 gemini-2.5-pro gemini-2.5-flight | |||
| OpenAI | gpt-5-2025-08-07 gpt-5-mini-2025-08-07 gpt-5-nano-2025-08-07 gpt-5.1-2025-11-13 gpt-4o-2024-11-20 gpt-4o-mini-2024-07-18 | ||
| Healing Agent | Workflow-Wiederherstellung | gemini-2.5-flight | |
| OpenAI | gpt-4o-2024-08-06 | ||
| UI-Automatisierung (UI Automation) | ScreenPlay | Anthropic | Anthropic.Claude-sonnet-4-5-20250929-v1:0 |
| gemini-2.5-flight | |||
| OpenAI | gpt-4.1-mini-2025-04-14 gpt-4.1-2025-04-14 gpt-5-2025-08-07 gpt-5-mini-2025-08-07 computer-use-preview-2025-03-11 | ||
| Test Manager | Autopilot (Tests generieren und verwalten) | Anthropic | Anthropic.Claude-3.7-sonnet-20250219-v1:0 (wird im März 2026 durch thropic.Claude-4.5-sonnet ersetzt) |
| gemini-2.5-pro gemini-2.5-flight | |||
| OpenAI | gpt-4o-2024-11-20 |
1 Stellen Sie bei der Konfiguration Ihrer Modellbereitstellung für Agents sicher, dass Ihr LLM die folgenden Funktionen unterstützt:
- Aufruf von Tools (Funktionen) – Ihr Modell muss in der Lage sein, während der Ausführung Tools oder Funktionen aufzurufen.
- Deaktivieren paralleler Toolaufrufe – Wenn dies von Ihrem LLM-Anbieter unterstützt wird, sollte das Modell die Möglichkeit bieten, parallele Toolaufrufe zu deaktivieren.
Hinweis:
Bei Verwendung von benutzerdefinierten Modellen kann das System nicht die tatsächliche Tokenkapazität des Modells ermitteln. Agents verwenden standardmäßig ein Limit von 4096 Token, auch wenn das zugrunde liegende Modell einen höheren Wert unterstützt. Dieses Verhalten ist beabsichtigt, da UiPath keine Tokenlimits für kundendefinierte Bereitstellungen ableiten kann.