- Erste Schritte
- Hostverwaltung
- Organisationen
- Mandanten und Dienste
- Authentifizierung und Sicherheit
- Lizenzierung
- Über die Lizenzierung
- Einheitliche Preise: Lizenzierungsplan-Framework
- Aktivieren Ihrer Lizenz
- Zuweisen von Lizenzen zu Mandanten
- Zuweisen von Benutzerlizenzen
- Freigegeben von Benutzerlizenzen
- Überwachung der Lizenzzuweisung
- Lizenzüberzuweisung
- Lizenzierungsbenachrichtigungen
- Benutzerlizenzverwaltung
- Migrieren von Test Suite zu Test Cloud
- Konten und Rollen
- Tests in Ihrer Organisation
- AI Trust Layer
- Externe Anwendungen
- Benachrichtigungen
- Protokollierung
- Fehlersuche und ‑behebung
Private Test Cloud-Administratorhandbuch
LLM-Konfigurationen sind in den folgenden Lizenzierungsplänen verfügbar:
- Flex: Erweiterte Plattform, Flex Standard-Plattform.
Auf der Registerkarte LLM-Konfigurationen können Sie Ihre bestehenden KI-Abonnements integrieren und gleichzeitig das von UiPath bereitgestellte Governance-Framework beibehalten. Sie können:
- Eigenes LLM hinzufügen: Verwenden Sie ein beliebiges LLM, das die Kompatibilitätskriterien des Produkts erfüllt. Um eine reibungslose Integration zu gewährleisten, muss das von Ihnen gewählte LLM eine Reihe von Tests bestehen, die über einen Testaufruf initiiert wurden, bevor es im UiPath-Ökosystem verwendet werden kann.
Beim Konfigurieren von LLMs bleiben die meisten Governance-Vorteile des AI Trust Layer erhalten, einschließlich der Richtliniendurchsetzung über Automation Ops und detaillierte Prüfungsprotokolle. Modell-Governance-Richtlinien wurden jedoch speziell für von UiPath verwaltete LLMs entwickelt. Das bedeutet, dass, wenn Sie ein bestimmtes Modell über eine AI Trust Layer-Richtlinie deaktivieren, die Einschränkung nur für die von UiPath verwaltete Version dieses Modells gilt. Ihre eigenen konfigurierten Modelle desselben Typs bleiben davon nicht betroffen.
Wenn Sie die Option zur Verwendung Ihres eigenen LLM oder Abonnement nutzen, beachten Sie die folgenden Punkte:
- Kompatibilitätsanforderungen: Das von Ihnen gewählte LLM oder Abonnement muss mit der Modellfamilie und Version übereinstimmen, die derzeit vom UiPath-Produkt unterstützt wird.
- Einrichtung: Stellen Sie sicher, dass Sie alle erforderlichen LLMs im benutzerdefinierten Setup ordnungsgemäß konfigurieren und verwalten. Wenn eine Komponente fehlt, veraltet oder falsch konfiguriert ist, funktioniert Ihr benutzerdefiniertes Setup möglicherweise nicht mehr.
- Kostenersparnis: Wenn Ihre benutzerdefinierte LLM-Einrichtung vollständig und korrekt ist und alle erforderlichen Anforderungen erfüllt, haben Sie möglicherweise Anspruch auf eine reduzierte Verbrauchsrate.
Einrichten einer LLM-Verbindung
LLM-Verbindungen verwenden Integration Service, um die Verbindung zu Ihren eigenen Modellen herzustellen. Sie können Verbindungen mit den folgenden Anbietern erstellen:
- Amazon Web Services
- Azure Open AI
- Google Vertex
- OpenAI
- Open AI V1 Compliant LLM – Verwenden Sie diese Option, um eine Verbindung zu einem beliebigen LLM-Anbieter zu herstellen, dessen API dem OpenAI V1-Standard folgt. Weitere Details finden Sie in der Dokumentation zum OpenAI V1 Compliant LLM Connector.
To configure Anthropic Claude models, use the Amazon Web Services connector in Integration Service. A direct Anthropic connector is not supported in Private Test Cloud.
Um eine neue Verbindung einzurichten, führen Sie die folgenden Schritte aus:
- Erstellen Sie eine Verbindung im Integration Service mit dem Anbieter Ihrer Wahl. Connector-spezifische Authentifizierungsdetails finden Sie im Benutzerhandbuch zum Integration Service.
Hinweis:
Um unbefugten Zugriff zu verhindern, erstellen Sie die Integration Service-Verbindung in einem privaten, nicht freigegebenen Ordner.
- Gehen Sie zu Administrator > AI Trust Layer > LLM-Konfigurationen.
- Wählen Sie den Mandanten und den Ordner aus, in dem Sie die Verbindung konfigurieren möchten.
- Wählen Sie Konfiguration hinzufügen aus.
- Wählen Sie das Produkt und die Funktion aus .
- Wählen Sie aus, wie Sie konfigurieren möchten:
- Eigenes LLM hinzufügen – Fügen Sie eine zusätzliche LLM-Konfiguration hinzu, die vollständig von Ihnen verwaltet wird.
Je nach ausgewähltem Produkt ist möglicherweise nur eine Option verfügbar. 7. Einrichten der Verbindung für Eigenes LLM hinzufügen:
-
Ordner – Wählen Sie den Ordner aus, in dem die Konfiguration gespeichert wird.
-
Angezeigter Name (LLM) – Geben Sie einen Alias für Ihr LLM an.
-
Connector – Wählen Sie Ihren Connector aus (z. B. Microsoft Azure OpenAI).
-
Verbindung – Wählen Sie Ihre Integration Service-Verbindung aus.
-
LLM-Bezeichner – Geben Sie den Bezeichner für Ihr Modell ein.
- Geben Sie für von Azure gehostete Modelle den Modellbezeichner ein.
- For AWS cross-region inference, enter the inference profile ID instead of the model ID.
-
Wählen Sie Testkonfiguration aus, um zu überprüfen, ob das Modell erreichbar ist und die erforderlichen Kriterien erfüllt.
UiPath kann die Erreichbarkeit bestätigen. Die Überprüfung des genauen Modells liegt in Ihrer Verantwortung.
-
Wenn der Test erfolgreich ist, wählen Sie Speichern aus, um die Verbindung zu aktivieren.
Verwalten vorhandener LLM-Verbindungen
Sie können die folgenden Aktionen für Ihre vorhandenen Verbindungen ausführen:
- Status überprüfen – Überprüfen Sie den Status Ihrer Integration Service-Verbindung. Diese Aktion stellt sicher, dass die Verbindung aktiv ist und ordnungsgemäß funktioniert.
- Bearbeiten – Ändern Sie alle Parameter Ihrer vorhandenen Verbindung.
- Deaktivieren – Setzt die Verbindung vorübergehend aus. Wenn diese Option deaktiviert ist, bleibt die Verbindung in Ihrer Liste sichtbar, leitet jedoch keine Anrufe weiter. Sie können die Verbindung bei Bedarf erneut aktivieren.
- Löschen – Entfernen Sie die Verbindung endgültig aus Ihrem System. Diese Aktion deaktiviert die Verbindung und entfernt sie aus Ihrer Liste.
Konfiguration von LLMs für Ihr Produkt
Jedes Produkt unterstützt bestimmte Large Language Models (LLMs) und -Versionen. Verwenden Sie die folgende Tabelle, um die unterstützten Modelle und Versionen für Ihr Produkt zu ermitteln.
Sie können Ihr eigenes LLM mithilfe eines der folgenden Anbieter verbinden: Amazon Web Services, Google Vertex, Microsoft Azure OpenAI oder OpenAI V1 Compliance. Führen Sie die im vorherigen Abschnitt beschriebenen Schritte aus, um eine Verbindung zu erstellen.
| Produkt | Funktionen | LLM-Anbieter | Version |
|---|---|---|---|
| Autopilot for Everyone | Chat | Anthropic | Anthropic.Claude-3.5-sonnet-20240620-v1:0 Anthropic.Claude-3.7-sonnet-20250219-v1:0 |
| OpenAI | gpt-4o-mini-2024-07-18 | ||
| Codierte Agents | LLM aufrufen | Anthropic | Anthropic.Claude-3.5-sonnet-20240620-v1:0 Anthropic.Claude-3.5-sonnet-20241022-v2:0 Anthropic.Claude-3.7-sonnet-20250219-v1:0 Anthropic.Claude-3-haiku-20240307-v1:0 |
| Gemini | gemini-1.5-pro-001 gemini-2.0-flight-001 | ||
| OpenAI | gpt-4o-2024-05-13 gpt-4o-2024-08-06 gpt-4o-2024-11-20 gpt-4o-mini-2024-07-18 o3-mini-2025-01-31 | ||
| Kontextgrundlage | Erweiterte Extraktionen | Gemini | gemini-2.5-flight |
| Einbettungen | OpenAI | Text-Einbettung-3-Groß | |
| Gemini | gemini-embedding-001 | ||
| GenAI-Aktivitäten | Erstellen, Testen und Bereitstellen | Anthropic | Anthropic.Claude-3.5-sonnet-20241022-v2:0 Anthropic.Claude-3.7-sonnet-20250219-v1:0 |
| Gemini | gemini-2.5-pro gemini-2.5-flight | ||
| OpenAI | gpt-5-2025-08-07 gpt-5-mini-2025-08-07 gpt-5-nano-2025-0807 | ||
| Test Manager | Autopilot (Tests generieren und verwalten) | Anthropic | Anthropic.Claude-3.7-sonnet-20250219-v1:0 |
| Gemini | gemini-2.5-pro gemini-2.5-flight | ||
| OpenAI | gpt-4o-2024-11-20 |