- Démarrage
- Sécurité et conformité des données
- Organisations
- Authentification et sécurité
- Licences
- Activation de votre licence Enterprise
- Mise à niveau et rétrogradation des licences
- Demander un essai de service
- Attribuer des licences aux locataires
- Attribuer des licences utilisateur
- Révocation des licences utilisateur
- Surveillance de l’attribution des licences
- Surallocation de licences
- Notifications d'attribution de licence
- Gestion des licences utilisateur
- Locataires et services
- Comptes et rôles
- AI Trust Layer
- Applications externes
- Notifications
- Journalisation
- Résolution des problèmes
- Migrer vers Automation Cloud™
Gestion de AI Trust Layer
L'onglet Paramètres (Settings) de la page AI Trust Layer vous permet de gérer l'utilisation des modèles d'IA tiers pour vos organisations, locataires ou groupes d'utilisateurs via les politiques AI Trust Layer. Cela vous aide à contrôler l'accès des utilisateurs aux fonctionnalités d'IA générative et garantit une gouvernance appropriée dans votre organisation.
Vous obtenez un aperçu de toutes les stratégies actives et de leurs statuts actuels. En plus de cela, vous pouvez afficher et gérer les politiques et leurs déploiements, comme suit :
-
Lorsque vous sélectionnez le nom de la politique, vous êtes redirigé vers la politique AI Trust Layer correspondante dans Automation Ops™ > Gouvernance(Governance). Ici, vous pouvez consulter les détails de la politique et, si nécessaire, apporter des modifications. Pour plus de détails, consultez Paramètres des politiques AI Trust Layer.
-
Lorsque vous sélectionnez Gérer les déploiements ( Manage Deployments), vous êtes redirigé vers Automation Ops™ > Gouvernance > Déploiement(Deployment), où vous pouvez passer en revue tous vos déploiements de politiques. Pour plus de détails, consultez la section Déployer les politiques au niveau du locataire.
The Context Grounding tab on the AI Trust Layer page allows you to manage and govern the data you use as context with UiPath® GenAI features. For more details about context grounding, see About Context Grounding.
You can check the Context Grounding indexes available across specific tenants. Data about the index data source, update time, and last query time is also available.
Moreover, you can perform the following operations:
-
Ajoutez un nouvel index. Pour plus de détails, consultez la section Ajout d’un nouvel index.
-
View details for the index attributes, using the See more actions menu.
-
Permanently delete the index, including all embeddings and data representation within the index. You can delete the index form the See more actions menu.
Remarque :Si les activités GenAI ou Autopilot for Everyone utilisent un index supprimé, vous devez les reconfigurer avec un nouvel index, sinon ils échoueront.
-
Sync the index to update it with the most recent data from the data source. The sync operation overwrites the embeddings and captures only the data currently available in the data source. You can sync the index from the See more actions menu.
L’onglet Audit de la page AI Trust Layer offre une vue complète des opérations liées à l’IA, avec des détails sur les demandes et les actions, les produits et fonctionnalités à l’origine des demandes, ainsi que les modèles utilisés et leur emplacement. Vous pouvez surveiller toutes les opérations liées à l'IA et garantir leur conformité aux directives et politiques établies. Notez que vous pouvez afficher les entrées de journal créées au cours des 60 derniers jours.
Les données d'audit sont affichées sous forme de tableau, chacune de ses colonnes fournissant des informations spécifiques sur les opérations liées à l'IA :
-
Date (UTC): affiche la date et l’heure exactes auxquelles chaque opération a été demandée. Il permet un suivi précis des demandes selon leur ordre chronologique, facilitant ainsi les audits en temps opportun.
-
Produit(Product) : Produit spécifique qui a initié chaque opération. Cette visibilité permet de remonter toute opération vers son produit d'origine pour une meilleure compréhension et responsabilité.
-
Fonctionnalité ( Feature) : fonctionnalité spécifique du produit qui a initié l'opération, facilitant la traçabilité des problèmes vers des fonctionnalités particulières, le cas échéant.
-
Locataire(Tenant) : le locataire spécifique au sein de votre organisation qui a initié l'opération. Ces informations permettent d'obtenir une vue d'ensemble plus détaillée et aident à reconnaître les modèles ou les problèmes au niveau du locataire.
-
Utilisateur: l’utilisateur individuel au sein du locataire qui a initié l’opération. Il permet de traçage des activités à un niveau granulaire de l'utilisateur, améliorant les capacités de surveillance.
-
Modèle utilisé: le modèle d'IA spécifique utilisé pour traiter chaque opération. Cet aperçu permet de mieux comprendre quels modèles gèrent quels types de requêtes.
-
Emplacement du modèle: l’emplacement où le modèle utilisé est hébergé. Ces informations peuvent répondre aux exigences potentielles de dépannage ou d’audit qui pourraient découler des performances du modèle dans des emplacements spécifiques.
-
Statut(Status) : le statut de chaque opération — indiquant si elle a réussi, échoué ou bloquée. Ce moyen rapide d'identifier les problèmes opérationnels est crucial pour maintenir un environnement fluide et efficace.
Par ailleurs, la capacité de filtrage vous permet d’affiner votre audit en fonction de critères tels que la date, le produit, le modèle utilisé ou le statut.
Furthermore, when you select an entry from the Audit table, you can access a Details section for a more in-depth review.
L’onglet Résumé de l’utilisation ( Usage Summary ) de la page AI Trust Layer fournit un aperçu de l’utilisation et des restrictions du modèle dans différentes régions. Il représente les données passées de votre journal d'audit et reflète les paramètres de vos politiques de gouvernance.
Vous pouvez afficher les données affichées selon les critères suivants :
-
Nombre total d'actions LLM par statut ( Total LLM Actions per Status) : permet de surveiller le statut de différents modèles dans toutes les régions. Pour personnaliser la visualisation des données, vous pouvez filtrer par région, modèle et statut.
-
Nombre total d'actions LLM par produit ( Total LLM Actions per Product) : permet de surveiller l'adoption de la fonctionnalité d'IA au sein de votre organisation. Pour personnaliser la visualisation des données, vous pouvez filtrer par locataire et par produit.
Cet onglet Autopilot for everyone de la page AI Trust Layer vous permet de gérer l’utilisation d’Autopilot pour tout le monde dans votre organisation.
Vous pouvez effectuer les actions suivantes :