- Démarrage
- Administration de l'hôte
- Organisations
- Locataires et services
- Authentification et sécurité
- Licences
- À propos des licences
- Tarification unifiée : infrastructure du plan de licence
- Activation de votre licence
- Attribuer des licences aux locataires
- Attribuer des licences utilisateur
- Révocation des licences utilisateur
- Surveillance de l’attribution des licences
- Surallocation de licences
- Notifications d'attribution de licence
- Gestion des licences utilisateur
- Migrer de Test Suite vers Test Cloud
- Comptes et rôles
- Test dans votre organisation
- AI Trust Layer
- Prise en charge des grands modèles de langage (LLM)
- Applications externes
- Notifications
- Journalisation
- Résolution des problèmes
Guide d'administration de Test Cloud privé
Les grands modèles de langage (LLM) alimentent les fonctionnalités agentiques et d’IA générative dans Automation Suite. La politique AI Trust Layer régit la façon dont ces modèles se connectent aux produits UiPath dans votre organisation, en appliquant l'application des stratégies et la journalisation d'audit à toutes les interactions d'IA, quel que soit le modèle que vous utilisez.
Automation Suite prend en charge deux modes d'intégration généraux : la connexion à des modèles hébergés dans le cloud via vos propres abonnements, et l'exécution de modèles open source sur votre propre infrastructure. Dans les deux cas, AI Trust Layer demeure la couche de gouvernance centrale. L’intégration LLM est prise en charge sur les déploiements AKS/EKS et OpenShift.
Modes d'intégration
Modèles basés sur le cloud
Les modèles Cloud sont des LLM hébergés et gérés par des fournisseurs tiers. Vous pouvez connecter vos propres abonnements à partir des fournisseurs suivants :
- OpenAI — Disponible via une API directe ou un déploiement hébergé par Azure (Microsoft Azure OpenAI).
- Google Gemini — Disponible via Google Vertex AI.
- Anthropic Claude — Available via the Amazon Web Services connector.
Les connexions de modèle Cloud vous offrent deux options de configuration.
Apportez votre propre abonnement (BYOS)
Remplacez un abonnement de modèle géré par UiPath par votre propre abonnement, pour la même famille et la même version de modèle. Cela vous permet d’acheminer les appels de modèle via votre propre compte tout en conservant l’expérience produit UiPath intacte.
Apporter votre propre modèle (BYOM)
Ajoutez un modèle personnalisé non inclus dans l'offre gérée par UiPath tant que le modèle réussit le test de validation de la sonde AI Trust Layer.
UiPath recommande Google Gemini pour une compatibilité étendue des fonctionnalités agentiques.
Pour les étapes de configuration, consultez Configurer des LLM.
Modèles auto-hébergés
Pour les organisations qui ont besoin de déployer des modèles locaux pour répondre aux exigences de souveraineté des données ou de conformité, Automation Suite prend en charge un ensemble de modèles open source (OS) recommandés. Notez que les modèles auto-hébergés sont compatibles uniquement avec un sous-ensemble de fonctionnalités agentiques.
Les modèles auto-hébergés doivent exposer une API qui suit la norme OpenAI V1. UiPath s'y connecte via le connecteur LLM OpenAI V1 dans Integration Service, et chaque modèle doit réussir le test de validation de la sonde AI Trust Layer avant de pouvoir être utilisé.
L'exécution de modèles auto-hébergés nécessite également un moteur d'inférence pris en charge et le matériel approprié. Les moteurs d'inférence pris en charge incluent vLLM et SGLang. Pour connaître la configuration matérielle requise, reportez-vous à Cluster et nœuds Kubernetes.
Compatibilité des fournisseurs et des capacités
Le tableau suivant indique les fournisseurs pris en charge pour chaque produit et fonctionnalité, y compris les modèles auto-hébergés recommandés, le cas échéant. Pour obtenir des versions de modèle spécifiques, consultez la section Configurer des LLM.
| Produit | Fonctionnalités | OpenAI | Google Gemini | Anthropic Claude | OPS auto-hébergé |
|---|---|---|---|---|---|
| Agents | Exécution de l’agent | Pris en charge | Pris en charge | Pris en charge | GLM 4.5, GLM 4.6, GLM 4.6 V, GPT-OS 120B |
| Évaluations | Pris en charge | Pris en charge | Pris en charge | GLM 4.5, GLM 4.6, GLM 4.6 V, GPT-OS 120B | |
| Simulations | Pris en charge1 | Non pris en charge | Non pris en charge | Non pris en charge | |
| Autopilot | Génération | Non pris en charge | Pris en charge | Non pris en charge | Non pris en charge |
| Messagerie | Non pris en charge | Pris en charge | Pris en charge | Non pris en charge | |
| Autopilot for Everyone | Messagerie | Pris en charge | Non pris en charge | Pris en charge | Non pris en charge |
| Agents codés | Appel LLM | Pris en charge | Pris en charge | Pris en charge | Non pris en charge |
| Ancrage dans le contexte | Extraction avancée | Pris en charge2 | Pris en charge | Non pris en charge | Non pris en charge |
| Transformation par lots | Pris en charge | Pris en charge | Non pris en charge | GLM 4.6 V | |
| Transformation de lot avec recherche Web | Non pris en charge | Pris en charge | Non pris en charge | Non pris en charge | |
| DeepRAG | Pris en charge | Pris en charge | Non pris en charge | Non pris en charge | |
| Intégrations | Pris en charge | Pris en charge | Non pris en charge | Qwen 8B | |
| Activités GenAI | Créer, tester et déployer | Pris en charge | Pris en charge | Pris en charge | À DÉTERMINER |
| Healing Agent | Récupération améliorée par l’IA | Pris en charge | Pris en charge | Non pris en charge | GLM 4.5, GLM 4.6, Twen3 235 B |
| Gouvernance des fenêtres contextuelles | Pris en charge | Pris en charge | Non pris en charge | GLM 4.5, GLM 4.6, Twen3 235 B | |
| Automatisation de l'interface utilisateur | ScreenPlay | Pris en charge | Pris en charge | Pris en charge3 | Non pris en charge |
| Sélecteurs sémantiques | Non pris en charge | Pris en charge | Non pris en charge | Non pris en charge | |
| Test Manager | Autopilot | Pris en charge | Pris en charge | Pris en charge | Non pris en charge |
1 GPT 4.1 mini uniquement.
2 Intégrations uniquement. L'extraction avancée et DeepRAG nécessitent un fournisseur de modèle Cloud.
3 ScreenPlay uniquement. Les sélecteurs sémantiques nécessitent Google Gemini.
Gouvernance
Toutes les interactions LLM, quel que soit le fournisseur, passent par la couche de confiance AI Trust Layer. L’application de la politique AI Trust Layer via Automation Ops™ et la journalisation d’audit détaillée s’appliquent à toutes les interactions du modèle.
Les politiques de gouvernance sont spécifiquement conçues pour les LLM gérés par UiPath. Si vous désactivez un modèle géré par UiPath via une stratégie, cette restriction ne s'étend pas à vos propres modèles configurés du même type.