- Démarrage
- Sécurité et conformité des données
- Organisations
- Authentification et sécurité
- Licences
- À propos des licences
- Tarification unifiée : infrastructure du plan de licence
- Activation de votre licence Enterprise
- Migrer de Test Suite vers Test Cloud
- Migration de licence
- Attribuer des licences aux locataires
- Attribuer des licences utilisateur
- Révocation des licences utilisateur
- Surveillance de l’attribution des licences
- Surallocation de licences
- Notifications d'attribution de licence
- Gestion des licences utilisateur
- Locataires et services
- Comptes et rôles
- AI Trust Layer
- Applications externes
- Notifications
- Journalisation
- Test dans votre organisation
- Résolution des problèmes
- Migrer vers Test Cloud
Guide de l'administrateur de Test Cloud
Les configurations LLM sont disponibles sur les plans de licence suivants :
- Unified Pricing : Enterprise Platform, plate-forme standard, plate-forme Basic, App Test Platform Enterprise, App Test Platform Standard.
- Flex : Plate-forme avancée, Plate-forme Flex.
L'onglet Configurations LLM vous permet d'intégrer vos abonnements AI existants tout en conservant l'infrastructure de gouvernance fournie par UiPath. Vous pouvez :
- Remplacer l'abonnement LLM UiPath : remplacez les abonnements gérés par UiPath par les vôtres, à condition qu'ils correspondent à la même famille de modèles et à la même version déjà prise en charge par le produit UiPath. Cela permet d'échanger facilement des modèles gérés par UiPath avec vos modèles abonnés.
- Ajoutez votre propre LLM : utilisez n'importe quel LLM qui répond aux critères de compatibilité du produit. Pour garantir une intégration en douceur, le LLM choisi doit passer toute une série de tests initiés par un appel d'enquête avant de pouvoir être utilisé dans l'écosystème UiPath.
La configuration des LLM préserve la plupart des avantages de gouvernance de AI Trust Layer, y compris l’application des stratégies via Automation Ops et les journaux d’audit détaillés. Cependant, les politiques de gouvernance des modèles sont spécifiquement conçues pour les LLM gérées par UiPath. Cela signifie que si vous désactivez un modèle particulier via une politique AI Trust Layer, la restriction ne s’applique qu’à la version gérée par UiPath de ce modèle. Vos propres modèles configurés du même type restent inchangés.
Lorsque vous exploitez l'option pour utiliser votre propre LLM ou abonnement, gardez les points suivants à l'esprit :
- Exigences de compatibilité : le LLM ou l'abonnement choisi doit s'aligner sur la famille de modèles et la version actuellement prises en charge par le produit UiPath.
- Configuration : assurez-vous de configurer et de gérer correctement tous les LLM requis dans la configuration personnalisée. Si un composant est manquant, obsolète ou configuré de manière incorrecte, votre configuration personnalisée peut cesser de fonctionner. Dans de tels cas, le système revient automatiquement à un LLM géré par UiPath pour assurer la continuité du service, à moins que les LLM UiPath ne soient désactivés par le biais d’une politique Automation Ops.
- Économies (Cost-saving) : si votre configuration LLM personnalisée est complète, correcte et répond à toutes les exigences nécessaires, vous pouvez être éligible à un taux de consommation réduit.
Définir une configuration LLM
La configuration LLM repose sur Integration Service pour établir la connexion à vos propres modèles. Vous pouvez créer des connexions vers les fournisseurs suivants :
- Azure OpenAI
- OpenAI
- Amazon Bedrock
- Google Vertex
- LLM conforme à OpenAI V1 - Utilisez cette option pour vous connecter à n'importe quel fournisseur LLM dont l'API suit la norme OpenAI V1.Pour des détails, reportez-vous à la documentation du connecteur LLM conforme à OpenAI V1.
Remarque :
Pour utiliser les connexions Integration Service, vous devez ajouter les plages d'adresses IP sortantes Integration Service à votre liste d'autorisation.
Pour configurer une nouvelle connexion, procédez comme suit :
1. Créez la connexion Integration Service.
-
Dans Integration Service, créez une connexion à votre fournisseur LLM.
-
Choisissez le dossier dans lequel la connexion sera stockée.
-
Terminez l'authentification tel que requis par le connecteur sélectionné.
Remarque :Le dossier que vous choisissez contrôle à la fois la sécurité et la visibilité. Pour empêcher tout accès non autorisé, créez la connexion Integration Service dans un dossier privé non partagé. Cependant, notez que la visibilité du modèle est déterminée par l’accès à ce dossier. Si un administrateur n'y a pas accès, la configuration de modèle associée n'apparaîtra pas dans la liste.
2. Ajoutez une nouvelle configuration LLM.
-
Accédez à Admin > AI Trust Layer > Configurations LLM.
-
Sélectionnez le Locataire.
-
Sélectionnez Ajouter une configuration.
-
Choisissez le produit (par exemple, Agents) et la fonctionnalité (par exemple, conception, évaluation et déploiement).
-
Sélectionnez le dossier Connexions.
3. Configurez le modèle.
Dans la section Configuration du modèle , remplissez les champs suivants :
- Nom LLM : ce champ prend en charge deux options de configuration, selon votre cas d'utilisation :
- Sélectionner un modèle dans la liste – le choix d'un modèle dans la liste prédéfinie remplace l'abonnement LLM géré par UiPath par votre propre abonnement pour ce même modèle. Ce scénario est appelé Apporter votre propre abonnement (BYOS).
- Ajouter un alias personnalisé : la saisie d'un nom personnalisé vous permet de configurer un modèle qui n'est pas inclus dans la liste prédéfinie des modèles recommandés pour ce produit. Ce scénario est appelé Apporter votre propre modèle (BYOM).
Remarque :
L'option Ajouter un alias personnalisé est disponible uniquement pour les produits qui prennent en charge les modèles personnalisés. Par exemple, il ne s’affiche pas pour Autopilot for Everyone, qui ne prend en charge qu’un ensemble limité de modèles prédéfinis.
- Type d'API : le point de terminaison de l'API pris en charge par le LLM. Cela doit correspondre au point de terminaison exposé par votre fournisseur.
- Connecteur : le connecteur Integration Service (par exemple, Microsoft Azure OpenAI, Amazon Bedrock).
- Connexion : la connexion Integration Service spécifique créée précédemment. Si aucune connexion n’est disponible, créez-en une dans Integration Service.
- Identifiant LLM : l’identifiant du modèle exactement tel qu’il apparaît dans votre abonnement LLM.
- Pour les modèles hébergés sur Azure : saisissez le nom/l'identifiant du déploiement du modèle.
- Pour l'inférence inter-régions AWS Bedrock : saisissez l'ID du profil d'inférence. Vous devez ajouter l'ID du modèle à votre code de région, par exemple :
eu.anthropic.claude-3-5-sonnet-20240620-v1:0. - Pour les autres fournisseurs : utilisez le nom du modèle tel que défini dans votre abonnement.
Lors de la configuration de votre propre LLM, vous pouvez éventuellement restreindre le nombre de modèles LLM disponibles pour une utilisation dans votre organisation. Si vous voulez vous assurer que seuls vos modèles personnalisés sont utilisés, vous pouvez désactiver les modèles tiers gérés par UiPath en appliquant une politique AI Trust Layer. Consultez la section Modèles de la documentation des politiques AI Trust Layer.
4. Validez et enregistrez.
-
Sélectionnez Configuration de test pour vérifier que le point de terminaison est accessible.
- La plateforme valide la connectivité.
- S'assurer que le bon modèle est configuré reste de votre responsabilité.
-
Si la validation réussit, sélectionnez Enregistrer pour activer la configuration.
Gestion des connexions LLM existantes
Vous pouvez effectuer les actions suivantes sur vos connexions existantes :
- Vérifier le statut : vérifiez le statut de votre connexion Integration Service. Cette action garantit que la connexion est active et fonctionne correctement.
- Edit : modifiez tous les paramètres de votre connexion existante.
- Désactiver : suspendez temporairement la connexion. Lorsqu'elle est désactivée, la connexion reste visible dans votre liste, mais n'achemine aucun appel. Vous pouvez réactiver la connexion si nécessaire.
- Supprimer : supprimez définitivement la connexion de votre système. Cette action désactive la connexion et la supprime de votre liste.
Configurer des LLM pour votre produit
Chaque produit prend en charge des modèles LLM et des versions spécifiques. Utilisez le tableau ci-dessous pour identifier les modèles et les versions pris en charge pour votre produit.
Vous pouvez connecter votre propre LLM à l’aide de l’un des fournisseurs suivants : Amazon Web Services, Google Vertex, Microsoft Azure OpenAI ou OpenAI V1 Conliant. Suivez les étapes décrites dans la section précédente pour créer une connexion.
| Produit | Fonctionnalités | LLM | Version |
|---|---|---|---|
| Agents 1 | Concevoir, évaluer et déployer | Anthropic | anthropic.Claude-3.5-sonnet-20240620-v1:0 Anthropic.Claude-3.5-sonnet-20241022-v2:0 Anthropic.Claude-3.7-sonnet-20250219-v1:0 anthropic.Claude-3-haikou-20240307-v1:0 |
| Gemini-2.5-pro Gemini-2.5-forg | |||
| OpenAI | gpt-4o-2024-05-13 gpt-4o-2024-08-06 gpt-4o-2024-11-20 gpt-4o-mini-2025-04-14 gpt-4o-mini-2024-07-18 | ||
| Autopilot | Génération | Gemini-2.5-fcin-light Gemini-2.5-forg Gemini-2.5-pro Gemini-intégration-001 | |
| Messagerie | Anthropic | condition anthropic.Claude-sonnet-4-6 Anthropic.Claude- Éléments 4-6-v1 | |
| Gemini-2.5-pro Gemini-2.5-forg Gemini-3-f dossier-aperçu Gemini-3-pro-aperçu Gemini-3.1-pro-aperçu | |||
| Autopilot pour tout le monde | Messagerie | Anthropic | anthropic.Claude-3.5-sonnet-20240620-v1:0 Anthropic.Claude-3.7-sonnet-20250219-v1:0 |
| OpenAI | gpt-4o-mini-2024-07-18 | ||
| Agents codés | Appel LLM | Anthropic | Anthropic.Claude-sonnet-4-20250514-v1:0 anthropic.Claude-sonnet-4-5-20250929-v1:0 condition |
| Gemini-2.5-forg Gemini-2.5-pro | |||
| OpenAI | gpt-4.1-2025-04-14 gpt-4.1-mini-2025-04-14 gpt-5-2025-08-07 gpt-5-mini-2025-08-07 gpt-5.1-2025-11-13 | ||
| Ancrage dans le contexte | Intégrations | Gemini | Gemini-intégration-001 |
| Ingestion avancée | Gemini | Gemini-2.5-forg | |
| DeepRAG | Gemini | Gemini-2.5-forg | |
| Transformation par lots | Gemini | Gemini-2.5-forg Gemini-2.5-fcin-light | |
| Transformation de lot avec recherche Web | Gemini | Gemini-2.5-forg Gemini-2.5-fcin-light | |
| Activités GenAI | Créer, tester et déployer | Anthropic | anthropic.Claude-3-5-sonnet-20240620-v1:0 anthropic.Claude-3-5-sonnet-20241022-v2:0 anthropic.Claude-3-7-sonnet-20250219-v1:0 Anthropic.Claude-sonnet-4-20250514-v1:0 anthropic.Claude-sonnet-4-5-20250929-v1:0 condition |
| Gemini-2.0-ffla-001 Gemini-2.5-pro Gemini-2.5-forg | |||
| OpenAI | gpt-5-2025-08-07 gpt-5-mini-2025-08-07 gpt-5-nano-2025-08-07 gpt-5.1-2025-11-13 gpt-4o-2024-11-20 gpt-4o-mini-2024-07-18 | ||
| Healing Agent | Récupération du workflow | Gemini-2.5-forg | |
| OpenAI | gpt-4o-2024-08-06 | ||
| Automatisation de l'interface utilisateur | ScreenPlay | Anthropic | anthropic.Claude-sonnet-4-5-20250929-v1:0 |
| Gemini-2.5-forg | |||
| OpenAI | gpt-4.1-mini-2025-04-14 gpt-4.1-2025-04-14 gpt-5-2025-08-07 gpt-5-mini-2025-08-07 ordinateur-utilisation-aperçu-2025-03-11 | ||
| Sélecteurs sémantiques | Gemini-2.5-forg | ||
| Test Manager | Autopilot
| Anthropic | Anthropic.Claude-3.7-sonnet-20250219-v1:0 (À remplacer par Anthropic.Claude-4.5-sonnet en mars 2026) |
| Gemini-2.5-pro Gemini-2.5-forg | |||
| OpenAI | gpt-4o-2024-11-20 |
1 Lorsque vous configurez le déploiement de votre modèle pour les agents, assurez-vous que votre LLM prend en charge les fonctionnalités suivantes :
- Appel d’outils (fonction) : votre modèle doit être en mesure d’appeler des outils ou des fonctions pendant l’exécution.
- Désactivation des appels d’outils parallèles : si cette option est prise en charge par votre fournisseur LLM, le modèle doit offrir la possibilité de désactiver les appels d’outils parallèles.
Remarque :
Lors de l’utilisation de modèles personnalisés, le système ne peut pas déterminer la véritable capacité de jetons du modèle. Les agents utilisent par défaut une limite de jetons de 4 096, même si le modèle sous-jacent prend en charge une valeur plus élevée. Ce comportement est intentionnel, car UiPath ne peut pas déduire les limites de jeton pour les déploiements définis par le client.