- Erste Schritte
- Datensicherheit und Compliance
- Organisationen
- Authentifizierung und Sicherheit
- Lizenzierung
- Über die Lizenzierung
- Einheitliche Preise: Lizenzierungsplan-Framework
- Aktivieren Ihrer Enterprise-Lizenz
- Migrieren von Test Suite zu Test Cloud
- Lizenzmigration
- Zuweisen von Lizenzen zu Mandanten
- Zuweisen von Benutzerlizenzen
- Freigegeben von Benutzerlizenzen
- Überwachung der Lizenzzuweisung
- Lizenzüberzuweisung
- Lizenzierungsbenachrichtigungen
- Benutzerlizenzverwaltung
- Mandanten und Dienste
- Konten und Rollen
- AI Trust Layer
- Externe Anwendungen
- Benachrichtigungen
- Protokollierung
- Tests in Ihrer Organisation
- Fehlersuche und ‑behebung
- Migration zur Test Cloud
Test Cloud-Administratorhandbuch
LLM-Konfigurationen sind in den folgenden Lizenzierungsplänen verfügbar:
- Unified Pricing: Enterprise-Plattform, Standard-Plattform, Basis-Plattform, App-Testplattform Enterprise, App-Testplattform Standard.
- Flex: Erweiterte Plattform, Flex Standard-Plattform.
Auf der Registerkarte LLM-Konfigurationen können Sie Ihre bestehenden KI-Abonnements integrieren und gleichzeitig das von UiPath bereitgestellte Governance-Framework beibehalten. Sie können:
- UiPath LLM-Abonnement ersetzen: Ersetzen Sie von UiPath verwaltete Abonnements durch Ihre eigenen, sofern sie der gleichen Modellfamilie und Version entsprechen, die bereits vom UiPath-Produkt unterstützt wird. Dies ermöglicht einen nahtlosen Wechsel von von UiPath verwalteten Modellen zu Ihren abonnierten Modellen.
- Eigenes LLM hinzufügen: Verwenden Sie ein beliebiges LLM, das die Kompatibilitätskriterien des Produkts erfüllt. Um eine reibungslose Integration zu gewährleisten, muss das von Ihnen gewählte LLM eine Reihe von Tests bestehen, die über einen Testaufruf initiiert wurden, bevor es im UiPath-Ökosystem verwendet werden kann.
Beim Konfigurieren von LLMs bleiben die meisten Governance-Vorteile des AI Trust Layer erhalten, einschließlich der Richtliniendurchsetzung über Automation Ops und detaillierte Prüfungsprotokolle. Modell-Governance-Richtlinien wurden jedoch speziell für von UiPath verwaltete LLMs entwickelt. Das bedeutet, dass, wenn Sie ein bestimmtes Modell über eine AI Trust Layer-Richtlinie deaktivieren, die Einschränkung nur für die von UiPath verwaltete Version dieses Modells gilt. Ihre eigenen konfigurierten Modelle desselben Typs bleiben davon nicht betroffen.
Wenn Sie die Option zur Verwendung Ihres eigenen LLM oder Abonnement nutzen, beachten Sie die folgenden Punkte:
- Kompatibilitätsanforderungen: Das von Ihnen gewählte LLM oder Abonnement muss mit der Modellfamilie und Version übereinstimmen, die derzeit vom UiPath-Produkt unterstützt wird.
- Einrichtung: Stellen Sie sicher, dass Sie alle erforderlichen LLMs im benutzerdefinierten Setup ordnungsgemäß konfigurieren und verwalten. Wenn eine Komponente fehlt, veraltet oder falsch konfiguriert ist, funktioniert Ihr benutzerdefiniertes Setup möglicherweise nicht mehr. In solchen Fällen kehrt das System automatisch zu einem UiPathverwalteten LLM zurück, um die Kontinuität des Dienstes sicherzustellen, es sei denn, UiPath -LLMs werden durch eine Automation Ops Richtlinie deaktiviert.
- Kostenersparnis: Wenn Ihre benutzerdefinierte LLM-Einrichtung vollständig und korrekt ist und alle erforderlichen Anforderungen erfüllt, haben Sie möglicherweise Anspruch auf eine reduzierte Verbrauchsrate.
Einrichten einer LLM-Konfiguration
Die LLM-Konfiguration verwendet Integration Service , um die Verbindung zu Ihren eigenen Modellen herzustellen. Sie können Verbindungen mit den folgenden Anbietern erstellen:
- Azure Open AI
- OpenAI
- Amazon Bedrock
- Google Vertex
- Open AI V1 Compliant LLM – Verwenden Sie diese Option, um eine Verbindung zu einem beliebigen LLM-Anbieter zu herstellen, dessen API dem OpenAI V1-Standard folgt. Weitere Details finden Sie in der Dokumentation zum OpenAI V1 Compliant LLM Connector.
Hinweis:
Um Integration Service-Verbindungen zu verwenden, müssen Sie die ausgehenden IP-Bereiche des Integration Service zu Ihrer Zulassungsliste hinzufügen.
Um eine neue Verbindung einzurichten, führen Sie die folgenden Schritte aus:
1. Erstellen Sie die Integration Service-Verbindung.
-
Erstellen Sie im Integration Service eine Verbindung mit Ihrem LLM-Anbieter.
-
Wählen Sie den Ordner aus, in dem die Verbindung gespeichert wird.
-
Schließen Sie die Authentifizierung gemäß den Anforderungen des ausgewählten Connectors ab.
Hinweis:Der von Ihnen ausgewählte Ordner steuert sowohl die Sicherheit als auch die Sichtbarkeit. Um unbefugten Zugriff zu verhindern, erstellen Sie die Integration Service-Verbindung in einem privaten, nicht freigegebenen Ordner. Beachten Sie jedoch, dass die Modellsichtbarkeit durch den Zugriff auf diesen Ordner bestimmt wird. Wenn ein Administrator keinen Zugriff darauf hat, wird die zugehörige Modellkonfiguration nicht in der Liste angezeigt.
2. Fügen Sie eine neue LLM-Konfiguration hinzu.
-
Gehen Sie zu Administrator > AI Trust Layer > LLM-Konfigurationen.
-
Wählen Sie den Mandanten aus .
-
Wählen Sie Konfiguration hinzufügen aus.
-
Wählen Sie das Produkt (z. B. Agents) und die Funktion (z. B. Design, Bewerten und Bereitstellen aus.
-
Wählen Sie den Verbindungsordner aus.
3. Konfigurieren Sie das Modell.
Füllen Sie im Abschnitt Modellkonfiguration die folgenden Felder aus:
- LLM-Name – Dieses Feld unterstützt je nach Anwendungsfall zwei Konfigurationsoptionen:
- Wählen Sie ein Modell aus der Liste – Wenn Sie ein Modell aus der vordefinierten Liste auswählen, wird das von UiPath verwaltete LLM-Abonnement durch Ihr eigenes Abonnement für dasselbe Modell ersetzt. Dieses Szenario wird als Bring Your Own Subscription (BYOS) bezeichnet.
- Benutzerdefiniertes Alias hinzufügen – Durch Eingeben eines benutzerdefinierten Namens können Sie ein Modell konfigurieren, das nicht in der vordefinierten Liste der empfohlenen Modelle für dieses Produkt enthalten ist. Dieses Szenario wird als Bring Your Own Model (BYOM) bezeichnet.
Hinweis:
Die Option Benutzerdefiniertes Alias hinzufügen ist nur für Produkte verfügbar, die benutzerdefinierte Modelle unterstützen. Sie wird z. B. nicht für Autopilot for Everyone angezeigt, das nur eine begrenzte Anzahl von vordefinierten Modellen unterstützt.
- API-Typ – Der API-Endpunkt, der vom LLM unterstützt wird (z. B. Open AI Chat Completions). Dieser muss mit dem von Ihrem Anbieter offengelegten Endpunkt übereinstimmen.
- Connector – Der Integration Service-Connector (z. B. Microsoft Azure OpenAI, Amazon Bedrock).
- Verbindung – Die spezifische Integration Service-Verbindung, die zuvor erstellt wurde. Wenn keine Verbindung verfügbar ist, erstellen Sie eine im Integration Service.
- LLM-Bezeichner – Der Modellbezeichner genau so, wie er in Ihrem LLM-Abonnement angezeigt wird.
- Für von Azure gehostete Modelle: Geben Sie den Namen/die ID der Modellbereitstellung ein.
- Für die Regionsübergreifende AWS Bedrock-Inferenz: Geben Sie die Inferenzprofil-ID ein. Sie müssen der Modell-ID Ihren Regionscode voranstellen, zum Beispiel:
eu.anthropic.claude-3-5-sonnet-20240620-v1:0. - Für andere Anbieter: Verwenden Sie den Modellnamen, wie in Ihrem Abonnement definiert.
Beim Konfigurieren Ihres eigenen LLM können Sie optional einschränken, welche Large Language Models für die Verwendung in Ihrer Organisation verfügbar sind. Wenn Sie sicherstellen möchten, dass nur Ihre benutzerdefinierten Modelle verwendet werden, können Sie von UiPath verwaltete Modelle von Drittanbietern deaktivieren, indem Sie eine AI Trust Layer-Richtlinie anwenden . Sehen Sie sich den Abschnitt Modelle in der Dokumentation zu den AI Trust Layer-Richtlinien an.
4. Validieren und speichern.
-
Wählen Sie Testkonfiguration aus, um zu überprüfen, ob der Endpunkt erreichbar ist.
- Die Plattform validiert die Konnektivität.
- Es liegt in Ihrer Verantwortung, sicherzustellen, dass das richtige Modell konfiguriert ist.
-
Wenn die Validierung erfolgreich ist, wählen Sie Speichern aus, um die Konfiguration zu aktivieren.
Verwalten vorhandener LLM-Verbindungen
Sie können die folgenden Aktionen für Ihre vorhandenen Verbindungen ausführen:
- Status überprüfen – Überprüfen Sie den Status Ihrer Integration Service-Verbindung. Diese Aktion stellt sicher, dass die Verbindung aktiv ist und ordnungsgemäß funktioniert.
- Bearbeiten – Ändern Sie alle Parameter Ihrer vorhandenen Verbindung.
- Deaktivieren – Setzt die Verbindung vorübergehend aus. Wenn diese Option deaktiviert ist, bleibt die Verbindung in Ihrer Liste sichtbar, leitet jedoch keine Anrufe weiter. Sie können die Verbindung bei Bedarf erneut aktivieren.
- Löschen – Entfernen Sie die Verbindung endgültig aus Ihrem System. Diese Aktion deaktiviert die Verbindung und entfernt sie aus Ihrer Liste.
Konfiguration von LLMs für Ihr Produkt
Jedes Produkt unterstützt bestimmte Large Language Models (LLMs) und -Versionen. Verwenden Sie die folgende Tabelle, um die unterstützten Modelle und Versionen für Ihr Produkt zu ermitteln.
Sie können Ihr eigenes LLM mithilfe eines der folgenden Anbieter verbinden: Amazon Web Services, Google Vertex, Microsoft Azure OpenAI oder OpenAI V1 Compliance. Führen Sie die im vorherigen Abschnitt beschriebenen Schritte aus, um eine Verbindung zu erstellen.
| Produkt | Funktionen | LLM | Version |
|---|---|---|---|
| Agents 1 | Entwerfen, auswerten und bereitstellen | Anthropic | Anthropic.Claude-3.5-sonnet-20240620-v1:0 Anthropic.Claude-3.5-sonnet-20241022-v2:0 Anthropic.Claude-3.7-sonnet-20250219-v1:0 Anthropic.Claude-3-haiku-20240307-v1:0 |
| gemini-2.5-pro gemini-2.5-flight | |||
| OpenAI | gpt-4o-2024-05-13 gpt-4o-2024-08-06 gpt-4o-2024-11-20 gpt-4o-mini-2025-04-14 gpt-4o-mini-2024-07-18 | ||
| Autopilot | Generation | gemini-2.5-flight-Lite gemini-2.5-flight gemini-2.5-pro gemini-embedding-001 | |
| Chat | Anthropic | Anthropic.Claude-haiku-4-5-20251001-v1:0 Anthropic.Claude-sonnet-4-6 Anthropic.Claude-opus-4-6-v1 | |
| gemini-2.5-pro gemini-2.5-flight gemini-3-flight-preview gemini-3-pro-vorschau gemini-3.1-pro-vorschau | |||
| Autopilot for Everyone | Chat | Anthropic | Anthropic.Claude-3.5-sonnet-20240620-v1:0 Anthropic.Claude-3.7-sonnet-20250219-v1:0 |
| OpenAI | gpt-4o-mini-2024-07-18 | ||
| Codierte Agents | LLM aufrufen | Anthropic | Anthropic.Claude-sonnet-4-20250514-v1:0 Anthropic.Claude-sonnet-4-5-20250929-v1:0 Anthropic.Claude-haiku-4-5-20251001-v1:0 |
| gemini-2.5-flight gemini-2.5-pro | |||
| OpenAI | gpt-4.1-2025-04-14 gpt-4.1-mini-2025-04-14 gpt-5-2025-08-07 gpt-5-mini-2025-08-07 gpt-5.1-2025-11-13 | ||
| Kontextgrundlage | Einbettungen | Gemini | gemini-embedding-001 |
| Erweiterte Erfassung | Gemini | gemini-2.5-flight | |
| DeepRAG | Gemini | gemini-2.5-flight | |
| Batch-Transformation | Gemini | gemini-2.5-flight gemini-2.5-flight-Lite | |
| Batch-Transformation mit Web-Suche | Gemini | gemini-2.5-flight gemini-2.5-flight-Lite | |
| GenAI-Aktivitäten | Erstellen, Testen und Bereitstellen | Anthropic | Anthropic.Claude-3-5-sonnet-20240620-v1:0 Anthropic.Claude-3-5-sonnet-20241022-v2:0 Anthropic.Claude-3-7-sonnet-20250219-v1:0 Anthropic.Claude-sonnet-4-20250514-v1:0 Anthropic.Claude-sonnet-4-5-20250929-v1:0 Anthropic.Claude-haiku-4-5-20251001-v1:0 |
| gemini-2.0-flight-001 gemini-2.5-pro gemini-2.5-flight | |||
| OpenAI | gpt-5-2025-08-07 gpt-5-mini-2025-08-07 gpt-5-nano-2025-08-07 gpt-5.1-2025-11-13 gpt-4o-2024-11-20 gpt-4o-mini-2024-07-18 | ||
| Healing Agent | Workflow-Wiederherstellung | gemini-2.5-flight | |
| OpenAI | gpt-4o-2024-08-06 | ||
| UI-Automatisierung (UI Automation) | ScreenPlay | Anthropic | Anthropic.Claude-sonnet-4-5-20250929-v1:0 |
| gemini-2.5-flight | |||
| OpenAI | gpt-4.1-mini-2025-04-14 gpt-4.1-2025-04-14 gpt-5-2025-08-07 gpt-5-mini-2025-08-07 computer-use-preview-2025-03-11 | ||
| Semantische Selektoren | gemini-2.5-flight | ||
| Test Manager | Autopilot
| Anthropic | Anthropic.Claude-3.7-sonnet-20250219-v1:0 (wird im März 2026 durch thropic.Claude-4.5-sonnet ersetzt) |
| gemini-2.5-pro gemini-2.5-flight | |||
| OpenAI | gpt-4o-2024-11-20 |
1 Stellen Sie bei der Konfiguration Ihrer Modellbereitstellung für Agents sicher, dass Ihr LLM die folgenden Funktionen unterstützt:
- Aufruf von Tools (Funktionen) – Ihr Modell muss in der Lage sein, während der Ausführung Tools oder Funktionen aufzurufen.
- Deaktivieren paralleler Toolaufrufe – Wenn dies von Ihrem LLM-Anbieter unterstützt wird, sollte das Modell die Möglichkeit bieten, parallele Toolaufrufe zu deaktivieren.
Hinweis:
Bei Verwendung von benutzerdefinierten Modellen kann das System nicht die tatsächliche Tokenkapazität des Modells ermitteln. Agents verwenden standardmäßig ein Limit von 4096 Token, auch wenn das zugrunde liegende Modell einen höheren Wert unterstützt. Dieses Verhalten ist beabsichtigt, da UiPath keine Tokenlimits für kundendefinierte Bereitstellungen ableiten kann.