UiPath Documentation
test-cloud
latest
false

Guide de l'administrateur de Test Cloud

Dernière mise à jour 5 mai 2026

Apportez votre propre LLM pour l’ancrage dans le contexte

L’ancrage dans le contexte prend en charge les activités Apporter votre propre modèle (BYOM) et Apporter votre propre abonnement (BYOS) via UiPath AI Trust Layer. Les administrateurs peuvent remplacer les modèles d'intégration et d'inférence gérés par UiPath par leurs propres abonnements, ou connecter des modèles non inclus dans l'ensemble par défaut, tout en conservant les capacités de gouvernance et d'audit de la politique AI Trust Layer.

Fonctionnalités et modèles pris en charge

Les fonctionnalités suivantes d’ancrage dans le contexte prennent en charge la configuration LLM personnalisée via tout fournisseur dont l’API suit la norme OpenAI V1, connecté via le connecteur LLM OpenAI V1. Chaque fonctionnalité a des exigences de modèle spécifiques.

FonctionnalitésModèles pris en chargeModèle recommandéPrérequisSpécifications recommandées
Ingestion avancéeN’importe quel LLM compatible OpenAI V1Gemini-2.5-forgAppel d'outils forcé ; prise en charge des images multimodales16 000 jetons d’entrée ; 32 000 jetons de sortie
Transformation par lotsN’importe quel LLM compatible OpenAI V1Gemini-2.5-forg (smartling), Gemini-2.5-frash-light (rapide)Appel d’outils forcé128 000 jetons d’entrée
Transformation de lot avec recherche WebN’importe quel modèle de recherche sur le Web GeminiS/OOutil de recherche Web GeminiS/O
DeepRAGN’importe quel LLM compatible OpenAI V1Gemini-2.5-forgAppel d'outils forcé ; nombre > 1 assistance1 M de jetons d’entrée ; 64 000 jetons de sortie
IntégrationsN’importe quel modèle d’intégration compatible avec OpenAI V1Gemini-intégration-001< 4 096 dimensions ; ≥ 8 000 jetons d’entréeS/O

Pour connaître l'étendue complète du modèle dans tous les produits UiPath, consultez la section Configurer les LLM.

Prérequis — sans cette fonctionnalité, la fonctionnalité ne fonctionne pas.
Recommandé — sans cette fonctionnalité, la fonctionnalité n'est pas testée et peut mal fonctionner, ou échouer plus souvent.

Configuration et routage

La configuration personnalisée LLM pour l’ancrage dans le contexte est gérée via l’onglet Configurations LLM dans Admin > AI Trust Layer. Pour les étapes de configuration, sélectionnez Ancrage dans le contexte en tant que produit lorsque vous suivez les étapes de la section Configuration des LLM.

Pour de plus amples informations sur la façon dont les fonctionnalités d'IA acheminent les requêtes vers les modèles, y compris le comportement de secours et la gouvernance du modèle, consultez la section Fonctionnalités d'IA et routage des modèles.

  • Fonctionnalités et modèles pris en charge
  • Configuration et routage

Cette page vous a-t-elle été utile ?

Connecter

Besoin d'aide ? Assistance

Vous souhaitez apprendre ? UiPath Academy

Vous avez des questions ? UiPath Forum

Rester à jour