UiPath Documentation
automation-cloud
latest
false
Important :
Veuillez noter que ce contenu a été localisé en partie à l’aide de la traduction automatique. La localisation du contenu nouvellement publié peut prendre 1 à 2 semaines avant d’être disponible.
UiPath logo, featuring letters U and I in white

Guide d'administration d'Automation Cloud

Dernière mise à jour 30 mars 2026

Configuration des LLM

Remarque : Les configurations LLM sont disponibles sur les plans de licence suivants :
  • Unified Pricing : Enterprise Platform, plate-forme standard, plate-forme Basic, App Test Platform Enterprise, App Test Platform Standard.
  • Flex : Plate-forme avancée, Plate-forme Flex.

L'onglet Configurations LLM (LLM configurations) vous permet d'intégrer vos abonnements AI existants tout en conservant l'infrastructure de gouvernance fournie par UiPath. Vous pouvez :

  • Remplacer l'abonnement LLM UiPath : remplacez les abonnements gérés par UiPath par les vôtres, à condition qu'ils correspondent à la même famille de modèles et à la même version déjà prise en charge par le produit UiPath. Cela permet d'échanger facilement des modèles gérés par UiPath avec vos modèles abonnés.
  • Ajoutez votre propre LLM : utilisez n'importe quel LLM qui répond aux critères de compatibilité du produit. Pour garantir une intégration en douceur, le LLM choisi doit passer toute une série de tests initiés par un appel d'enquête avant de pouvoir être utilisé dans l'écosystème UiPath.

La configuration des LLM préserve la plupart des avantages de gouvernance de AI Trust Layer, y compris l’application des stratégies via Automation Ops et les journaux d’audit détaillés. Cependant, les politiques de gouvernance des modèles sont spécifiquement conçues pour les LLM gérées par UiPath. Cela signifie que si vous désactivez un modèle particulier via une politique AI Trust Layer, la restriction ne s’applique qu’à la version gérée par UiPath de ce modèle. Vos propres modèles configurés du même type restent inchangés.

Lorsque vous exploitez l'option pour utiliser votre propre LLM ou abonnement, gardez les points suivants à l'esprit :

  • Exigences de compatibilité : le LLM ou l'abonnement choisi doit s'aligner sur la famille de modèles et la version actuellement prises en charge par le produit UiPath.
  • Configuration : assurez-vous de configurer et de gérer correctement tous les LLM requis dans la configuration personnalisée. Si un composant est manquant, obsolète ou configuré de manière incorrecte, votre configuration personnalisée peut cesser de fonctionner. Dans de tels cas, le système revient automatiquement à un LLM géré par UiPath pour assurer la continuité du service, à moins que les LLM UiPath ne soient désactivés par le biais d’une politique Automation Ops.

  • Économies (Cost-saving) : si votre configuration LLM personnalisée est complète, correcte et répond à toutes les exigences nécessaires, vous pouvez être éligible à un taux de consommation réduit.

Définir une configuration LLM

La configuration LLM repose sur Integration Service pour établir la connexion à vos propres modèles. Vous pouvez créer des connexions vers les fournisseurs suivants :
  • Azure OpenAI
  • OpenAI
  • Amazon Bedrock
  • Google Vertex
  • Ouvrir le LLM conforme à AI V1 (Open AI V1 Compliant LLM) : utilisez cette option pour vous connecter à n'importe quel fournisseur LLM dont l'API suit la norme OpenAI V1. Pour plus de détails, consultez la documentation du connecteur LLM conforme à OpenAI V1.
Remarque : pour utiliser les connexions Integration Service, vous devez ajouter les plages d'adresses IP sortantes Integration Service à votre liste d'autorisation.

Pour configurer une nouvelle connexion, procédez comme suit :

1. Créez la connexion Integration Service.
  1. Dans Integration Service, créez une connexion à votre fournisseur LLM.
  2. Choisissez le dossier dans lequel la connexion sera stockée.
  3. Terminez l'authentification tel que requis par le connecteur sélectionné.
Remarque : le dossier que vous choisissez contrôle à la fois la sécurité et la visibilité. Pour empêcher tout accès non autorisé, créez la connexion Integration Service dans un dossier privé non partagé. Cependant, notez que la visibilité du modèle est déterminée par l’accès à ce dossier. Si un administrateur n'y a pas accès, la configuration de modèle associée n'apparaîtra pas dans la liste.
2. Ajoutez une nouvelle configuration LLM.
  1. Accédez à Admin > AI Trust Layer > Configurations LLM.
  2. Sélectionnez le Locataire.
  3. Sélectionnez Ajouter une configuration.
  4. Choisissez le produit (par exemple, Agents) et la fonctionnalité (par exemple, conception, évaluation et déploiement).
  5. Sélectionnez le dossier Connexions.

3. Configurez le modèle.

Dans la section Configuration du modèle , remplissez les champs suivants :

  • Nom LLM : ce champ prend en charge deux options de configuration, selon votre cas d'utilisation :
    • Sélectionner un modèle dans la liste – le choix d'un modèle dans la liste prédéfinie remplace l'abonnement LLM géré par UiPath par votre propre abonnement pour ce même modèle. Ce scénario est appelé Apporter votre propre abonnement (BYOS).
    • Ajouter un alias personnalisé : la saisie d'un nom personnalisé vous permet de configurer un modèle qui n'est pas inclus dans la liste prédéfinie des modèles recommandés pour ce produit. Ce scénario est appelé Apporter votre propre modèle (BYOM).
      Remarque : l'option Ajouter un alias personnalisé n'est disponible que pour les produits qui prennent en charge les modèles personnalisés. Par exemple, il ne s’affiche pas pour Autopilot for Everyone, qui ne prend en charge qu’un ensemble limité de modèles prédéfinis.
  • Type d'API : le point de terminaison de l'API pris en charge par le LLM. Cela doit correspondre au point de terminaison exposé par votre fournisseur.
  • Connecteur : le connecteur Integration Service (par exemple, Microsoft Azure OpenAI, Amazon Bedrock).
  • Connexion : la connexion Integration Service spécifique créée précédemment. Si aucune connexion n’est disponible, créez-en une dans Integration Service.
  • Identifiant LLM : l’identifiant du modèle exactement tel qu’il apparaît dans votre abonnement LLM.
    • Pour les modèles hébergés sur Azure : saisissez le nom/l'identifiant du déploiement du modèle.
    • Pour l'inférence inter-régions AWS Bedrock : saisissez l'ID du profil d'inférence.
    • Pour les autres fournisseurs : utilisez le nom du modèle tel que défini dans votre abonnement.
Remarque : lors de la configuration de votre propre LLM, vous pouvez éventuellement restreindre le nombre de modèles LLM disponibles pour une utilisation dans votre organisation. Si vous voulez vous assurer que seuls vos modèles personnalisés sont utilisés, vous pouvez désactiver les modèles tiers gérés par UiPath en appliquant une politique AI Trust Layer. Consultez la section Modèles de la documentation des politiques AI Trust Layer.

4. Validez et enregistrez.

  1. Sélectionnez Configuration de test pour vérifier que le point de terminaison est accessible.
    • La plateforme valide la connectivité.
    • S'assurer que le bon modèle est configuré reste de votre responsabilité.
  2. Si la validation réussit, sélectionnez Enregistrer pour activer la configuration.


Gestion des connexions LLM existantes

Vous pouvez effectuer les actions suivantes sur vos connexions existantes :

  • Vérifier le statut : vérifiez le statut de votre connexion Integration Service. Cette action garantit que la connexion est active et fonctionne correctement.
  • Modifier (Edit ) : modifiez les paramètres de votre connexion existante.
  • Désactiver (Disable ) : suspend temporairement la connexion. Lorsqu'elle est désactivée, la connexion reste visible dans votre liste mais n'achemine aucun appel. Vous pouvez réactiver la connexion si nécessaire.
  • Supprimer (Delete ) : supprimez définitivement la connexion de votre système. Cette action désactive la connexion et la supprime de votre liste.

Configurer des LLM pour votre produit

Chaque produit prend en charge des modèles LLM et des versions spécifiques. Utilisez le tableau ci-dessous pour identifier les modèles et les versions pris en charge pour votre produit.

Vous pouvez connecter votre propre LLM à l’aide de l’un des fournisseurs suivants : Amazon Web Services, Google Vertex, Microsoft Azure OpenAI ou OpenAI V1 Conliant. Suivez les étapes décrites dans la section précédente pour créer une connexion.

ProduitFonctionnalitésLLMVersion
Agents1Concevoir, évaluer et déployerAnthropic

anthropic.Claude-3.5-sonnet-20240620-v1:0

Anthropic.Claude-3.5-sonnet-20241022-v2:0

Anthropic.Claude-3.7-sonnet-20250219-v1:0

anthropic.Claude-3-haikou-20240307-v1:0

GoogleGemini-2.5-pro
Gemini-2.5-forg
OpenAI

gpt-4o-2024-05-13

gpt-4o-2024-08-06

gpt-4o-2024-11-20

gpt-4o-mini-2025-04-14

gpt-4o-mini-2024-07-18

AutopilotGénérationGoogleGemini-2.5-fcin-light

Gemini-2.5-forg

Gemini-2.5-pro

Gemini-intégration-001

MessagerieAnthropiccondition

anthropic.Claude-sonnet-4-6

Anthropic.Claude- Éléments 4-6-v1

GoogleGemini-2.5-pro

Gemini-2.5-forg

Gemini-3-f dossier-aperçu

Gemini-3-pro-aperçu

Gemini-3.1-pro-aperçu

Autopilot pour tout le mondeMessagerieAnthropic

anthropic.Claude-3.5-sonnet-20240620-v1:0

Anthropic.Claude-3.7-sonnet-20250219-v1:0

OpenAIgpt-4o-mini-2024-07-18
Agents codésAppel LLMAnthropic

Anthropic.Claude-sonnet-4-20250514-v1:0

anthropic.Claude-sonnet-4-5-20250929-v1:0

condition

Google

Gemini-2.5-forg

Gemini-2.5-pro

OpenAI

gpt-4.1-2025-04-14

gpt-4.1-mini-2025-04-14

gpt-5-2025-08-07

gpt-5-mini-2025-08-07

gpt-5.1-2025-11-13

Activités GenAICréer, tester et déployerAnthropic

anthropic.Claude-3-5-sonnet-20240620-v1:0

anthropic.Claude-3-5-sonnet-20241022-v2:0

anthropic.Claude-3-7-sonnet-20250219-v1:0

Anthropic.Claude-sonnet-4-20250514-v1:0

anthropic.Claude-sonnet-4-5-20250929-v1:0

condition

Google

Gemini-2.0-ffla-001

Gemini-2.5-pro

Gemini-2.5-forg

OpenAI

gpt-5-2025-08-07

gpt-5-mini-2025-08-07

gpt-5-nano-2025-08-07

gpt-5.1-2025-11-13

gpt-4o-2024-11-20

gpt-4o-mini-2024-07-18

Healing AgentRécupération du workflowGoogleGemini-2.5-forg
OpenAIgpt-4o-2024-08-06
Automatisation de l'interface utilisateurScreenPlayAnthropicanthropic.Claude-sonnet-4-5-20250929-v1:0
GoogleGemini-2.5-forg
OpenAI

gpt-4.1-mini-2025-04-14

gpt-4.1-2025-04-14

gpt-5-2025-08-07

gpt-5-mini-2025-08-07

ordinateur-utilisation-aperçu-2025-03-11

Sélecteurs sémantiquesGoogleGemini-2.5-forg
Test ManagerAutopilot
  • Recherche d’Autopilot
  • Rechercher des tests obsolètes
  • Générer des cas de test
  • Importer des cas de test
  • Générer des rapports
  • Évaluation des prérequis
AnthropicAnthropic.Claude-3.7-sonnet-20250219-v1:0 (À remplacer par Anthropic.Claude-4.5-sonnet en mars 2026)
Google

Gemini-2.5-pro

Gemini-2.5-forg

OpenAIgpt-4o-2024-11-20
1 Lorsque vous configurez le déploiement de votre modèle pour les agents, assurez-vous que votre LLM prend en charge les fonctionnalités suivantes :
  • Appel d'outil (fonction) : votre modèle doit être capable d'appeler des outils ou des fonctions lors de l'exécution.
  • Désactivation des appels d’outils parallèles : si votre fournisseur LLM le prend en charge, le modèle doit offrir la possibilité de désactiver les appels d’outils parallèles.
    Remarque : lors de l’utilisation de modèles personnalisés, le système ne peut pas déterminer la véritable capacité de jetons du modèle. Les agents utilisent par défaut une limite de jetons de 4 096, même si le modèle sous-jacent prend en charge une valeur plus élevée. Ce comportement est intentionnel, car UiPath ne peut pas déduire les limites de jeton pour les déploiements définis par le client.

Cette page vous a-t-elle été utile ?

Connecter

Besoin d'aide ? Assistance

Vous souhaitez apprendre ? UiPath Academy

Vous avez des questions ? UiPath Forum

Rester à jour