- Démarrage
- Sécurité et conformité des données
- Organisations
- Authentification et sécurité
- Licences
- À propos des licences
- Tarification unifiée : infrastructure du plan de licence
- Flex : infrastructure du plan de licence
- Activation de votre licence Enterprise
- Mise à niveau et rétrogradation des licences
- Demander un essai de service
- Attribuer des licences aux locataires
- Attribuer des licences utilisateur
- Révocation des licences utilisateur
- Surveillance de l’attribution des licences
- Surallocation de licences
- Notifications d'attribution de licence
- Gestion des licences utilisateur
- Locataires et services
- Comptes et rôles
- Test dans votre organisation
- AI Trust Layer
- Applications externes
- Notifications
- Journalisation
- Résolution des problèmes
- Migrer vers Automation Cloud

Guide d'administration d'Automation Cloud
La politique AI Trust Layer constitue le cadre de gouvernance et de contrôle d'UiPath pour toutes les activités d'IA générative, au niveau des produits et des services. Il offre un contrôle centralisé, une sécurité et une observabilité sur la façon dont les LLM gérés par UiPath et tiers sont utilisés.
AI Trust Layer garantit que chaque demande d’IA générative respecte les règles de sécurité, de confidentialité et d’utilisation à l’échelle de l’organisation. Il applique ces politiques de manière cohérente à tous les produits en agissant comme point de contrôle partagé pour tout le trafic LLM.
La politique AI Trust Layer régit l'utilisation de GenAI dans les éléments suivants :
- Produits et services UiPath tels que AutopilotTM, Studio, Test Manager, Process Mining, et plus encore.
- LLM gérés par UiPath et LLM tiers, y compris les configurations LLM.
- Sélection du modèle, contrôles d'accès, confidentialité des données et suivi de l'utilisation.
- Passerelle LLM: la passerelle LLM est l'interface entre les services UiPath et les fournisseurs LLM tiers. Il sert de point d’entrée central pour tout le trafic LLM, en appliquant une logique de gouvernance et de configuration avant que les demandes n’atteignent des modèles externes. Les fonctionnalités spécifiques à la passerelle LLM incluent les éléments suivants :
- Gérer les politiques AI Trust Layer: vérifiez les politiques AI Trust Layer existantes dans Automation Ops > Gouvernance, ainsi que leurs déploiements.
- Configuration LLM: intégrez vos abonnements IA existants tout en conservant l'infrastructure de gouvernance fournie par UiPath, en remplaçant l'abonnement LLM UiPath ou en fournissant votre propre LLM.
- Enterprise Context Service (également appelé Enterprise Context Service, ou ECS) : Enterprise Context Service améliore les invites avec un contexte pertinent avant qu'elles ne soient envoyées à un LLM. Vous pouvez utiliser l’ancrage dans le contexte pour créer et gérer des index de données utilisés par les fonctionnalités et les agents UiPath GenAI.
La gestion des index est disponible dans Orchestrator.
- Observeabilité LLM: l’observabilité LLM est responsable de la surveillance, de la visibilité de l’utilisation et de la journalisation d’audit de toutes les interactions LLM à travers les services UiPath. Les fonctionnalités spécifiques à l’observabilité LLM incluent :
- Résumé de l’utilisation: suit l’utilisation du LLM par locataire, service et modèle.
- Journalisation d'audit: capture les détails des interactions LLM à des fins de traçabilité, de conformité et de débogage.
- Masquage PII: garantit que les informations permettant d'identifier une personne sont anonymes avant d'atteindre les LLM utilisés dans les fonctionnalités d'IA générative.
Bien que AI Trust Layer comprend des sous-services, il régit également les flux impliquant d’autres services et composants, notamment :
- Fonctionnalités d’IA générative UiPath reposant sur l’accès aux LLM, telles que les fonctionnalités fournies par AutopilotTM, IXP, Autopilot for Everyone, Agents
- LLM spécialisés, tels que CommPath et DocPath
- Connecteurs GenAI
Ces services interagissent avec AI Trust Layer, mais peuvent disposer de leurs propres espaces de configuration. Par exemple, Autopilot for Everyone est régi par AI Trust Layer, en termes de LLM utilisés, mais est géré à partir d’un onglet distinct au niveau de l’organisation et du locataire.