UiPath Documentation
private-test-cloud
2.2510
true

Guide d'administration de Test Cloud privé

Dernière mise à jour 11 mai 2026

Prise en charge des grands modèles de langage (LLM)

Les grands modèles de langage (LLM) alimentent les fonctionnalités agentiques et d’IA générative dans Automation Suite. La politique AI Trust Layer régit la façon dont ces modèles se connectent aux produits UiPath dans votre organisation, en appliquant l'application des stratégies et la journalisation d'audit à toutes les interactions d'IA, quel que soit le modèle que vous utilisez.

Automation Suite prend en charge deux modes d'intégration généraux : la connexion à des modèles hébergés dans le cloud via vos propres abonnements, et l'exécution de modèles open source sur votre propre infrastructure. Dans les deux cas, AI Trust Layer demeure la couche de gouvernance centrale. L’intégration LLM est prise en charge sur les déploiements AKS/EKS et OpenShift.

Modes d'intégration

Modèles basés sur le cloud

Les modèles Cloud sont des LLM hébergés et gérés par des fournisseurs tiers. Vous pouvez connecter vos propres abonnements à partir des fournisseurs suivants :

  • OpenAI — Disponible via une API directe ou un déploiement hébergé par Azure (Microsoft Azure OpenAI).
  • Google Gemini — Disponible via Google Vertex AI.
  • Anthropic Claude — Available via the Amazon Web Services connector.

Les connexions de modèle Cloud vous offrent deux options de configuration.

Apportez votre propre abonnement (BYOS)

Remplacez un abonnement de modèle géré par UiPath par votre propre abonnement, pour la même famille et la même version de modèle. Cela vous permet d’acheminer les appels de modèle via votre propre compte tout en conservant l’expérience produit UiPath intacte.

Apporter votre propre modèle (BYOM)

Ajoutez un modèle personnalisé non inclus dans l'offre gérée par UiPath tant que le modèle réussit le test de validation de la sonde AI Trust Layer.

UiPath recommande Google Gemini pour une compatibilité étendue des fonctionnalités agentiques.

Pour les étapes de configuration, consultez Configurer des LLM.

Modèles auto-hébergés

Pour les organisations qui ont besoin de déployer des modèles locaux pour répondre aux exigences de souveraineté des données ou de conformité, Automation Suite prend en charge un ensemble de modèles open source (OS) recommandés. Notez que les modèles auto-hébergés sont compatibles uniquement avec un sous-ensemble de fonctionnalités agentiques.

Les modèles auto-hébergés doivent exposer une API qui suit la norme OpenAI V1. UiPath s'y connecte via le connecteur LLM OpenAI V1 dans Integration Service, et chaque modèle doit réussir le test de validation de la sonde AI Trust Layer avant de pouvoir être utilisé.

L'exécution de modèles auto-hébergés nécessite également un moteur d'inférence pris en charge et le matériel approprié. Les moteurs d'inférence pris en charge incluent vLLM et SGLang. Pour connaître la configuration matérielle requise, reportez-vous à Cluster et nœuds Kubernetes.

Compatibilité des fournisseurs et des capacités

Le tableau suivant indique les fournisseurs pris en charge pour chaque produit et fonctionnalité, y compris les modèles auto-hébergés recommandés, le cas échéant. Pour obtenir des versions de modèle spécifiques, consultez la section Configurer des LLM.

ProduitFonctionnalitésOpenAIGoogle GeminiAnthropic ClaudeOPS auto-hébergé
AgentsExécution de l’agentPris en chargePris en chargePris en chargeGLM 4.5, GLM 4.6, GLM 4.6 V, GPT-OS 120B
ÉvaluationsPris en chargePris en chargePris en chargeGLM 4.5, GLM 4.6, GLM 4.6 V, GPT-OS 120B
SimulationsPris en charge1Non pris en chargeNon pris en chargeNon pris en charge
AutopilotGénérationNon pris en chargePris en chargeNon pris en chargeNon pris en charge
MessagerieNon pris en chargePris en chargePris en chargeNon pris en charge
Autopilot for EveryoneMessageriePris en chargeNon pris en chargePris en chargeNon pris en charge
Agents codésAppel LLMPris en chargePris en chargePris en chargeNon pris en charge
Ancrage dans le contexteExtraction avancéePris en charge2Pris en chargeNon pris en chargeNon pris en charge
Transformation par lotsPris en chargePris en chargeNon pris en chargeGLM 4.6 V
Transformation de lot avec recherche WebNon pris en chargePris en chargeNon pris en chargeNon pris en charge
DeepRAGPris en chargePris en chargeNon pris en chargeNon pris en charge
IntégrationsPris en chargePris en chargeNon pris en chargeQwen 8B
Activités GenAICréer, tester et déployerPris en chargePris en chargePris en chargeÀ DÉTERMINER
Healing AgentRécupération améliorée par l’IAPris en chargePris en chargeNon pris en chargeGLM 4.5, GLM 4.6, Twen3 235 B
Gouvernance des fenêtres contextuellesPris en chargePris en chargeNon pris en chargeGLM 4.5, GLM 4.6, Twen3 235 B
Automatisation de l'interface utilisateurScreenPlayPris en chargePris en chargePris en charge3Non pris en charge
Sélecteurs sémantiquesNon pris en chargePris en chargeNon pris en chargeNon pris en charge
Test ManagerAutopilotPris en chargePris en chargePris en chargeNon pris en charge

1 GPT 4.1 mini uniquement.

2 Intégrations uniquement. L'extraction avancée et DeepRAG nécessitent un fournisseur de modèle Cloud.

3 ScreenPlay uniquement. Les sélecteurs sémantiques nécessitent Google Gemini.

Gouvernance

Toutes les interactions LLM, quel que soit le fournisseur, passent par la couche de confiance AI Trust Layer. L’application de la politique AI Trust Layer via Automation Ops™ et la journalisation d’audit détaillée s’appliquent à toutes les interactions du modèle.

Les politiques de gouvernance sont spécifiquement conçues pour les LLM gérés par UiPath. Si vous désactivez un modèle géré par UiPath via une stratégie, cette restriction ne s'étend pas à vos propres modèles configurés du même type.

  • Modes d'intégration
  • Modèles basés sur le cloud
  • Modèles auto-hébergés
  • Compatibilité des fournisseurs et des capacités
  • Gouvernance

Cette page vous a-t-elle été utile ?

Connecter

Besoin d'aide ? Assistance

Vous souhaitez apprendre ? UiPath Academy

Vous avez des questions ? UiPath Forum

Rester à jour