- Démarrage
- Sécurité et conformité des données
- Organisations
- Authentification et sécurité
- Licences
- À propos des licences
- Tarification unifiée : infrastructure du plan de licence
- Activation de votre licence Enterprise
- Migrer de Test Suite vers Test Cloud
- Migration de licence
- Attribuer des licences aux locataires
- Attribuer des licences utilisateur
- Révocation des licences utilisateur
- Surveillance de l’attribution des licences
- Surallocation de licences
- Notifications d'attribution de licence
- Gestion des licences utilisateur
- Locataires et services
- Comptes et rôles
- AI Trust Layer
- Applications externes
- Notifications
- Journalisation
- Test dans votre organisation
- Résolution des problèmes
- Migrer vers Test Cloud

Guide de l'administrateur de Test Cloud
Configuration des LLM
Les configurations LLM sont disponibles sur les plans de licence suivants :
- Unified Pricing : App Test Platform Enterprise, App Test Platform Standard.
L'onglet Configurations LLM vous permet d'intégrer vos abonnements AI existants tout en conservant l'infrastructure de gouvernance fournie par UiPath. Vous pouvez :
- Remplacer l'abonnement LLM UiPath : remplacez les abonnements gérés par UiPath par les vôtres, à condition qu'ils correspondent à la même famille de modèles et à la même version déjà prise en charge par le produit UiPath. Cela permet d'échanger facilement des modèles gérés par UiPath avec vos modèles abonnés.
- Ajoutez votre propre LLM : utilisez n'importe quel LLM qui répond aux critères de compatibilité du produit. Pour garantir une intégration en douceur, le LLM choisi doit passer toute une série de tests initiés par un appel d'enquête avant de pouvoir être utilisé dans l'écosystème UiPath.
La configuration des LLM préserve la plupart des avantages de gouvernance de AI Trust Layer, y compris l’application des stratégies via Automation Ops et les journaux d’audit détaillés. Cependant, les politiques de gouvernance des modèles sont spécifiquement conçues pour les LLM gérées par UiPath. Cela signifie que si vous désactivez un modèle particulier via une politique AI Trust Layer, la restriction ne s’applique qu’à la version gérée par UiPath de ce modèle. Vos propres modèles configurés du même type restent inchangés.
Lorsque vous exploitez l'option pour utiliser votre propre LLM ou abonnement, gardez les points suivants à l'esprit :
- Exigences de compatibilité : le LLM ou l'abonnement choisi doit s'aligner sur la famille de modèles et la version actuellement prises en charge par le produit UiPath.
- Configuration : assurez-vous de configurer et de gérer correctement tous les LLM requis dans la configuration personnalisée. Si un composant est manquant, obsolète ou configuré de manière incorrecte, votre configuration personnalisée peut cesser de fonctionner. Dans de tels cas, le système revient automatiquement à un LLM géré par UiPath pour assurer la continuité du service, à moins que les LLM UiPath ne soient désactivés par le biais d’une politique Automation Ops.
- Économies (Cost-saving) : si votre configuration LLM personnalisée est complète, correcte et répond à toutes les exigences nécessaires, vous pouvez être éligible à un taux de consommation réduit.
Configuration d'une connexion LLM
Les connexions LLM reposent sur Integration Service pour établir la connexion à vos propres modèles. Vous pouvez créer des connexions vers les fournisseurs suivants :
- Azure OpenAI
- OpenAI
- Amazon Bedrock
- Google Vertex
- LLM conforme à OpenAI V1 - Utilisez cette option pour vous connecter à n'importe quel fournisseur LLM dont l'API suit la norme OpenAI V1.Pour des détails, reportez-vous à la documentation du connecteur LLM conforme à OpenAI V1.
Pour configurer une nouvelle connexion, procédez comme suit :
-
Créez une connexion au fournisseur de votre choix dans Integration Service. Pour plus de détails sur l’authentification spécifique au connecteur, consultez le Guide de l’utilisateur d’Integration Service.
Remarque :Pour empêcher tout accès non autorisé, créez la connexion Integration Service dans un dossier privé non partagé.
-
Accédez à Admin > AI Trust Layer > Configurations LLM.
-
Sélectionnez le locataire et le dossier dans lesquels vous souhaitez configurer la connexion.
-
Sélectionnez Ajouter une configuration.
-
Sélectionnez le produit et la fonctionnalité.
-
Choisissez comment vous souhaitez configurer :
- Remplacer l'abonnement au LLM UiPath : utilisez votre propre connexion au lieu d'une connexion gérée par UiPath.
- Ajoutez votre propre LLM : ajoutez une configuration LLM supplémentaire gérée entièrement par vous.
Remarque :
Lors de la configuration de votre propre LLM, vous pouvez éventuellement restreindre le nombre de modèles LLM disponibles pour une utilisation dans votre organisation. Si vous voulez vous assurer que seuls vos modèles personnalisés sont utilisés, vous pouvez désactiver les modèles tiers gérés par UiPath en appliquant une politique AI Trust Layer. Consultez la section Modèles de la documentation des politiques AI Trust Layer.
Selon le produit sélectionné, une seule option peut être disponible.
-
Configurez la connexion pour l'abonnement au LLM de remplacement d'UiPath:
- Dossier : sélectionnez le dossier dans lequel la configuration sera stockée.
- LLM remplaçant : dans la liste déroulante, sélectionnez le LLM UiPath que vous souhaitez remplacer.
- Connecteur : sélectionnez votre connecteur (par exemple, Microsoft Azure OpenAI).
- Connexion : choisissez votre connexion Integration Service. Si aucune connexion n’est disponible, sélectionnez Ajouter une nouvelle connexion pour être redirigé vers Integration Service.
- Identifiant LLM : saisissez l'identifiant de votre modèle.
- Pour les modèles hébergés sur Azure, saisissez l’identifiant du modèle.
- Pour l'inférence inter-régions AWS Bedrock, saisissez l'ID du profil d'inférence au lieu de l'ID du modèle.
-
Configurez la connexion pour Ajouter votre propre LLM:
- Dossier : sélectionnez le dossier dans lequel la configuration sera stockée.
- Nom affiché (LLM) : fournissez un alias pour votre LLM.
- Connecteur : sélectionnez votre connecteur (par exemple, Microsoft Azure OpenAI).
- Connexion : choisissez votre connexion Integration Service.
- Identifiant LLM : saisissez l'identifiant de votre modèle.
- Pour les modèles hébergés sur Azure, saisissez l’identifiant du modèle.
- Pour l'inférence inter-régions AWS Bedrock, saisissez l'ID du profil d'inférence au lieu de l'ID du modèle.
-
Sélectionnez Configuration de test pour vérifier que le modèle est accessible et qu’il répond aux critères requis.
UiPath peut confirmer l’accessibilité, en vérifiant le modèle exact utilisé sous votre responsabilité.
-
Si le test réussit, sélectionnez Enregistrer pour activer la connexion.
Gestion des connexions LLM existantes
Vous pouvez effectuer les actions suivantes sur vos connexions existantes :
- Vérifier le statut : vérifiez le statut de votre connexion Integration Service. Cette action garantit que la connexion est active et fonctionne correctement.
- Edit : modifiez tous les paramètres de votre connexion existante.
- Désactiver : suspendez temporairement la connexion. Lorsqu'elle est désactivée, la connexion reste visible dans votre liste, mais n'achemine aucun appel. Vous pouvez réactiver la connexion si nécessaire.
- Supprimer : supprimez définitivement la connexion de votre système. Cette action désactive la connexion et la supprime de votre liste.
Configurer des LLM pour votre produit
Chaque produit prend en charge des modèles LLM et des versions spécifiques. Utilisez le tableau ci-dessous pour identifier les modèles et les versions pris en charge pour votre produit.
Vous pouvez connecter votre propre LLM à l’aide de l’un des fournisseurs suivants : Amazon Web Services, Google Vertex, Microsoft Azure OpenAI ou OpenAI V1 Conliant. Suivez les étapes décrites dans la section précédente pour créer une connexion.
| Produit | Fonctionnalités | LLM | Version |
|---|---|---|---|
| Agents 1 | Concevoir, évaluer et déployer | Anthropic | anthropic.Claude-3.5-sonnet-20240620-v1:0 Anthropic.Claude-3.5-sonnet-20241022-v2:0 Anthropic.Claude-3.7-sonnet-20250219-v1:0 anthropic.Claude-3-haikou-20240307-v1:0 |
| Gemini-2.5-pro Gemini-2.5-forg | |||
| OpenAI | gpt-4o-2024-05-13 gpt-4o-2024-08-06 gpt-4o-2024-11-20 gpt-4o-mini-2025-04-14 gpt-4o-mini-2024-07-18 | ||
| Autopilot pour tout le monde | Messagerie | Anthropic | anthropic.Claude-3.5-sonnet-20240620-v1:0 Anthropic.Claude-3.7-sonnet-20250219-v1:0 |
| OpenAI | gpt-4o-mini-2024-07-18 | ||
| Activités GenAI | Créer, tester et déployer | Anthropic | anthropic.Claude-3-5-sonnet-20240620-v1:0 anthropic.Claude-3-5-sonnet-20241022-v2:0 anthropic.Claude-3-7-sonnet-20250219-v1:0 Anthropic.Claude-sonnet-4-20250514-v1:0 anthropic.Claude-sonnet-4-5-20250929-v1:0 condition |
| Gemini-2.0-ffla-001 Gemini-2.5-pro Gemini-2.5-forg | |||
| OpenAI | gpt-5-2025-08-07 gpt-5-mini-2025-08-07 gpt-5-nano-2025-08-07 gpt-5.1-2025-11-13 gpt-4o-2024-11-20 gpt-4o-mini-2024-07-18 | ||
| Healing Agent | Récupération du workflow | Gemini-2.5-forg | |
| OpenAI | gpt-4o-2024-08-06 | ||
| Automatisation de l'interface utilisateur | ScreenPlay | Anthropic | anthropic.Claude-sonnet-4-5-20250929-v1:0 |
| Gemini-2.5-forg | |||
| OpenAI | gpt-4.1-mini-2025-04-14 gpt-4.1-2025-04-14 gpt-5-2025-08-07 gpt-5-mini-2025-08-07 ordinateur-utilisation-aperçu-2025-03-11 | ||
| Test Manager | Autopilot (générer et gérer des tests) | Anthropic | Anthropic.Claude-3.7-sonnet-20250219-v1:0 (À remplacer par Anthropic.Claude-4.5-sonnet en mars 2026) |
| Gemini-2.5-pro Gemini-2.5-forg | |||
| OpenAI | gpt-4o-2024-11-20 |
1 Lorsque vous configurez le déploiement de votre modèle pour les agents, assurez-vous que votre LLM prend en charge les fonctionnalités suivantes :
- Appel d’outils (fonction) : votre modèle doit être en mesure d’appeler des outils ou des fonctions pendant l’exécution.
- Désactivation des appels d’outils parallèles : si cette option est prise en charge par votre fournisseur LLM, le modèle doit offrir la possibilité de désactiver les appels d’outils parallèles.
Remarque :
Lors de l’utilisation de modèles personnalisés, le système ne peut pas déterminer la véritable capacité de jetons du modèle. Les agents utilisent par défaut une limite de jetons de 4 096, même si le modèle sous-jacent prend en charge une valeur plus élevée. Ce comportement est intentionnel, car UiPath ne peut pas déduire les limites de jeton pour les déploiements définis par le client.