- Démarrage
- Sécurité et conformité des données
- Organisations
- Authentification et sécurité
- Licences
- À propos des licences
- Tarification unifiée : infrastructure du plan de licence
- Activation de votre licence Enterprise
- Migrer de Test Suite vers Test Cloud
- Migration de licence
- Attribuer des licences aux locataires
- Attribuer des licences utilisateur
- Révocation des licences utilisateur
- Surveillance de l’attribution des licences
- Surallocation de licences
- Notifications d'attribution de licence
- Gestion des licences utilisateur
- Locataires et services
- Comptes et rôles
- AI Trust Layer
- À propos de AI Trust Layer
- Apportez votre propre LLM pour l’ancrage dans le contexte
- Utilisation de DeepRAG
- Licences d'ancrage en contexte
- Applications externes
- Notifications
- Journalisation
- Test dans votre organisation
- Résolution des problèmes
- Migrer vers Test Cloud
Guide de l'administrateur de Test Cloud
L’ancrage dans le contexte prend en charge les activités Apporter votre propre modèle (BYOM) et Apporter votre propre abonnement (BYOS) via UiPath AI Trust Layer. Les administrateurs peuvent remplacer les modèles d'intégration et d'inférence gérés par UiPath par leurs propres abonnements, ou connecter des modèles non inclus dans l'ensemble par défaut, tout en conservant les capacités de gouvernance et d'audit de la politique AI Trust Layer.
Fonctionnalités et modèles pris en charge
Les fonctionnalités suivantes d’ancrage dans le contexte prennent en charge la configuration LLM personnalisée via tout fournisseur dont l’API suit la norme OpenAI V1, connecté via le connecteur LLM OpenAI V1. Chaque fonctionnalité a des exigences de modèle spécifiques.
| Fonctionnalités | Modèles pris en charge | Modèle recommandé | Prérequis | Spécifications recommandées |
|---|---|---|---|---|
| Ingestion avancée | N’importe quel LLM compatible OpenAI V1 | Gemini-2.5-forg | Appel d'outils forcé ; prise en charge des images multimodales | 16 000 jetons d’entrée ; 32 000 jetons de sortie |
| Transformation par lots | N’importe quel LLM compatible OpenAI V1 | Gemini-2.5-forg (smartling), Gemini-2.5-frash-light (rapide) | Appel d’outils forcé | 128 000 jetons d’entrée |
| Transformation de lot avec recherche Web | N’importe quel modèle de recherche sur le Web Gemini | S/O | Outil de recherche Web Gemini | S/O |
| DeepRAG | N’importe quel LLM compatible OpenAI V1 | Gemini-2.5-forg | Appel d'outils forcé ; nombre > 1 assistance | 1 M de jetons d’entrée ; 64 000 jetons de sortie |
| Intégrations | N’importe quel modèle d’intégration compatible avec OpenAI V1 | Gemini-intégration-001 | < 4 096 dimensions ; ≥ 8 000 jetons d’entrée | S/O |
Pour connaître l'étendue complète du modèle dans tous les produits UiPath, consultez la section Configurer les LLM.
Prérequis — sans cette fonctionnalité, la fonctionnalité ne fonctionne pas.
Recommandé — sans cette fonctionnalité, la fonctionnalité n'est pas testée et peut mal fonctionner, ou échouer plus souvent.
Configuration et routage
La configuration personnalisée LLM pour l’ancrage dans le contexte est gérée via l’onglet Configurations LLM dans Admin > AI Trust Layer. Pour les étapes de configuration, sélectionnez Ancrage dans le contexte en tant que produit lorsque vous suivez les étapes de la section Configuration des LLM.
Pour de plus amples informations sur la façon dont les fonctionnalités d'IA acheminent les requêtes vers les modèles, y compris le comportement de secours et la gouvernance du modèle, consultez la section Fonctionnalités d'IA et routage des modèles.