- Démarrage
- Sécurité et conformité des données
- Organisations
- Authentification et sécurité
- Comprendre les modèles d'authentification
- Configuration de l'intégration de Microsoft Entra ID
- Exigences de complexité du mot de passe des utilisateurs locaux
- Licences
- À propos des licences
- Tarification unifiée : infrastructure du plan de licence
- Flex : infrastructure du plan de licence
- Activation de votre licence Enterprise
- Mise à niveau et rétrogradation des licences
- Migration de licence
- Demander un essai de service
- Attribuer des licences aux locataires
- Attribuer des licences utilisateur
- Révocation des licences utilisateur
- Surveillance de l’attribution des licences
- Surallocation de licences
- Notifications d'attribution de licence
- Gestion des licences utilisateur
- Locataires et services
- Comptes et rôles
- Test dans votre organisation
- AI Trust Layer
- Applications externes
- Notifications
- Journalisation
- Résolution des problèmes
- Migrer vers Automation Cloud

Guide d'administration d'Automation Cloud
- Unified Pricing : Enterprise Platform, plate-forme standard, plate-forme Basic, App Test Platform Enterprise, App Test Platform Standard.
- Flex : Plate-forme avancée, Plate-forme Flex.
L'onglet Configurations LLM (LLM configurations) vous permet d'intégrer vos abonnements AI existants tout en conservant l'infrastructure de gouvernance fournie par UiPath. Vous pouvez :
- Remplacer l'abonnement LLM UiPath : remplacez les abonnements gérés par UiPath par les vôtres, à condition qu'ils correspondent à la même famille de modèles et à la même version déjà prise en charge par le produit UiPath. Cela permet d'échanger facilement des modèles gérés par UiPath avec vos modèles abonnés.
- Ajoutez votre propre LLM : utilisez n'importe quel LLM qui répond aux critères de compatibilité du produit. Pour garantir une intégration en douceur, le LLM choisi doit passer toute une série de tests initiés par un appel d'enquête avant de pouvoir être utilisé dans l'écosystème UiPath.
La configuration des LLM préserve la plupart des avantages de gouvernance de AI Trust Layer, y compris l’application des stratégies via Automation Ops et les journaux d’audit détaillés. Cependant, les politiques de gouvernance des modèles sont spécifiquement conçues pour les LLM gérées par UiPath. Cela signifie que si vous désactivez un modèle particulier via une politique AI Trust Layer, la restriction ne s’applique qu’à la version gérée par UiPath de ce modèle. Vos propres modèles configurés du même type restent inchangés.
Lorsque vous exploitez l'option pour utiliser votre propre LLM ou abonnement, gardez les points suivants à l'esprit :
- Exigences de compatibilité : le LLM ou l'abonnement choisi doit s'aligner sur la famille de modèles et la version actuellement prises en charge par le produit UiPath.
-
Configuration : assurez-vous de configurer et de gérer correctement tous les LLM requis dans la configuration personnalisée. Si un composant est manquant, obsolète ou configuré de manière incorrecte, votre configuration personnalisée peut cesser de fonctionner. Dans de tels cas, le système revient automatiquement à un LLM géré par UiPath pour assurer la continuité du service, à moins que les LLM UiPath ne soient désactivés par le biais d’une politique Automation Ops.
-
Économies (Cost-saving) : si votre configuration LLM personnalisée est complète, correcte et répond à toutes les exigences nécessaires, vous pouvez être éligible à un taux de consommation réduit.
- Azure OpenAI
- OpenAI
- Amazon Bedrock
- Google Vertex
- Ouvrir le LLM conforme à AI V1 (Open AI V1 Compliant LLM) : utilisez cette option pour vous connecter à n'importe quel fournisseur LLM dont l'API suit la norme OpenAI V1. Pour plus de détails, consultez la documentation du connecteur LLM conforme à OpenAI V1.
Pour configurer une nouvelle connexion, procédez comme suit :
- Dans Integration Service, créez une connexion à votre fournisseur LLM.
- Choisissez le dossier dans lequel la connexion sera stockée.
- Terminez l'authentification tel que requis par le connecteur sélectionné.
- Accédez à Admin > AI Trust Layer > Configurations LLM.
- Sélectionnez le Locataire.
- Sélectionnez Ajouter une configuration.
- Choisissez le produit (par exemple, Agents) et la fonctionnalité (par exemple, conception, évaluation et déploiement).
- Sélectionnez le dossier Connexions.
3. Configurez le modèle.
Dans la section Configuration du modèle , remplissez les champs suivants :
- Nom LLM : ce champ prend en charge deux options de configuration, selon votre cas d'utilisation :
- Sélectionner un modèle dans la liste – le choix d'un modèle dans la liste prédéfinie remplace l'abonnement LLM géré par UiPath par votre propre abonnement pour ce même modèle. Ce scénario est appelé Apporter votre propre abonnement (BYOS).
- Ajouter un alias personnalisé : la saisie d'un nom personnalisé vous permet de configurer un modèle qui n'est pas inclus dans la liste prédéfinie des modèles recommandés pour ce produit. Ce scénario est appelé Apporter votre propre modèle (BYOM).
Remarque : l'option Ajouter un alias personnalisé n'est disponible que pour les produits qui prennent en charge les modèles personnalisés. Par exemple, il ne s’affiche pas pour Autopilot for Everyone, qui ne prend en charge qu’un ensemble limité de modèles prédéfinis.
- Type d'API : le point de terminaison de l'API pris en charge par le LLM. Cela doit correspondre au point de terminaison exposé par votre fournisseur.
- Connecteur : le connecteur Integration Service (par exemple, Microsoft Azure OpenAI, Amazon Bedrock).
- Connexion : la connexion Integration Service spécifique créée précédemment. Si aucune connexion n’est disponible, créez-en une dans Integration Service.
- Identifiant LLM : l’identifiant du modèle exactement tel qu’il apparaît dans votre abonnement LLM.
- Pour les modèles hébergés sur Azure : saisissez le nom/l'identifiant du déploiement du modèle.
- Pour l'inférence inter-régions AWS Bedrock : saisissez l'ID du profil d'inférence.
- Pour les autres fournisseurs : utilisez le nom du modèle tel que défini dans votre abonnement.
4. Validez et enregistrez.
- Sélectionnez Configuration de test pour vérifier que le point de terminaison est accessible.
- La plateforme valide la connectivité.
- S'assurer que le bon modèle est configuré reste de votre responsabilité.
- Si la validation réussit, sélectionnez Enregistrer pour activer la configuration.
Vous pouvez effectuer les actions suivantes sur vos connexions existantes :
- Vérifier le statut : vérifiez le statut de votre connexion Integration Service. Cette action garantit que la connexion est active et fonctionne correctement.
- Modifier (Edit ) : modifiez les paramètres de votre connexion existante.
- Désactiver (Disable ) : suspend temporairement la connexion. Lorsqu'elle est désactivée, la connexion reste visible dans votre liste mais n'achemine aucun appel. Vous pouvez réactiver la connexion si nécessaire.
- Supprimer (Delete ) : supprimez définitivement la connexion de votre système. Cette action désactive la connexion et la supprime de votre liste.
Chaque produit prend en charge des modèles LLM et des versions spécifiques. Utilisez le tableau ci-dessous pour identifier les modèles et les versions pris en charge pour votre produit.
Vous pouvez connecter votre propre LLM à l’aide de l’un des fournisseurs suivants : Amazon Web Services, Google Vertex, Microsoft Azure OpenAI ou OpenAI V1 Conliant. Suivez les étapes décrites dans la section précédente pour créer une connexion.
| Produit | Fonctionnalités | LLM | Version |
|---|---|---|---|
| Agents1 | Concevoir, évaluer et déployer | Anthropic |
anthropic.Claude-3.5-sonnet-20240620-v1:0 Anthropic.Claude-3.5-sonnet-20241022-v2:0 Anthropic.Claude-3.7-sonnet-20250219-v1:0 anthropic.Claude-3-haikou-20240307-v1:0 |
| Gemini-2.5-pro | |||
| Gemini-2.5-forg | |||
| OpenAI |
gpt-4o-2024-05-13 gpt-4o-2024-08-06 gpt-4o-2024-11-20 gpt-4o-mini-2025-04-14 gpt-4o-mini-2024-07-18 | ||
| Autopilot | Génération | Gemini-2.5-fcin-light
Gemini-2.5-forg Gemini-2.5-pro Gemini-intégration-001 | |
| Messagerie | Anthropic | condition
anthropic.Claude-sonnet-4-6 Anthropic.Claude- Éléments 4-6-v1 | |
| Gemini-2.5-pro
Gemini-2.5-forg Gemini-3-f dossier-aperçu Gemini-3-pro-aperçu Gemini-3.1-pro-aperçu | |||
| Autopilot pour tout le monde | Messagerie | Anthropic |
anthropic.Claude-3.5-sonnet-20240620-v1:0 Anthropic.Claude-3.7-sonnet-20250219-v1:0 |
| OpenAI | gpt-4o-mini-2024-07-18 | ||
| Agents codés | Appel LLM | Anthropic |
Anthropic.Claude-sonnet-4-20250514-v1:0 anthropic.Claude-sonnet-4-5-20250929-v1:0 condition |
|
Gemini-2.5-forg Gemini-2.5-pro | |||
| OpenAI |
gpt-4.1-2025-04-14 gpt-4.1-mini-2025-04-14 gpt-5-2025-08-07 gpt-5-mini-2025-08-07 gpt-5.1-2025-11-13 | ||
| Activités GenAI | Créer, tester et déployer | Anthropic |
anthropic.Claude-3-5-sonnet-20240620-v1:0 anthropic.Claude-3-5-sonnet-20241022-v2:0 anthropic.Claude-3-7-sonnet-20250219-v1:0 Anthropic.Claude-sonnet-4-20250514-v1:0 anthropic.Claude-sonnet-4-5-20250929-v1:0 condition |
|
Gemini-2.0-ffla-001 Gemini-2.5-pro Gemini-2.5-forg | |||
| OpenAI |
gpt-5-2025-08-07 gpt-5-mini-2025-08-07 gpt-5-nano-2025-08-07 gpt-5.1-2025-11-13 gpt-4o-2024-11-20 gpt-4o-mini-2024-07-18 | ||
| Healing Agent | Récupération du workflow | Gemini-2.5-forg | |
| OpenAI | gpt-4o-2024-08-06 | ||
| Automatisation de l'interface utilisateur | ScreenPlay | Anthropic | anthropic.Claude-sonnet-4-5-20250929-v1:0 |
| Gemini-2.5-forg | |||
| OpenAI |
gpt-4.1-mini-2025-04-14 gpt-4.1-2025-04-14 gpt-5-2025-08-07 gpt-5-mini-2025-08-07 ordinateur-utilisation-aperçu-2025-03-11 | ||
| Sélecteurs sémantiques | Gemini-2.5-forg | ||
| Test Manager | Autopilot
| Anthropic | Anthropic.Claude-3.7-sonnet-20250219-v1:0 (À remplacer par Anthropic.Claude-4.5-sonnet en mars 2026) |
|
Gemini-2.5-pro Gemini-2.5-forg | |||
| OpenAI | gpt-4o-2024-11-20 |
- Appel d'outil (fonction) : votre modèle doit être capable d'appeler des outils ou des fonctions lors de l'exécution.
- Désactivation des appels d’outils parallèles : si votre fournisseur LLM le prend en charge, le modèle doit offrir la possibilité de désactiver les appels d’outils parallèles.
Remarque : lors de l’utilisation de modèles personnalisés, le système ne peut pas déterminer la véritable capacité de jetons du modèle. Les agents utilisent par défaut une limite de jetons de 4 096, même si le modèle sous-jacent prend en charge une valeur plus élevée. Ce comportement est intentionnel, car UiPath ne peut pas déduire les limites de jeton pour les déploiements définis par le client.