- Démarrage
- Sécurité et conformité des données
- Organisations
- Authentification et sécurité
- Licences
- Activation de votre licence Enterprise
- Mise à niveau et rétrogradation des licences
- Demander un essai de service
- Attribuer des licences aux locataires
- Attribuer des licences utilisateur
- Révocation des licences utilisateur
- Surveillance de l’attribution des licences
- Surallocation de licences
- Notifications d'attribution de licence
- Gestion des licences utilisateur
- Locataires et services
- Comptes et rôles
- AI Trust Layer
- Applications externes
- Notifications
- Journalisation
- Résolution des problèmes
- Migrer vers Automation Cloud™
Gestion de AI Trust Layer
L'onglet Paramètres (Settings) de la page AI Trust Layer vous permet de gérer l'utilisation des modèles d'IA tiers pour vos organisations, locataires ou groupes d'utilisateurs via les politiques AI Trust Layer. Cela vous aide à contrôler l'accès des utilisateurs aux fonctionnalités d'IA générative et garantit une gouvernance appropriée dans votre organisation.
Vous obtenez un aperçu de toutes les stratégies actives et de leurs statuts actuels. En plus de cela, vous pouvez afficher et gérer les politiques et leurs déploiements, comme suit :
-
Lorsque vous sélectionnez le nom de la politique, vous êtes redirigé vers la politique AI Trust Layer correspondante dans Automation Ops™ > Gouvernance(Governance). Ici, vous pouvez consulter les détails de la politique et, si nécessaire, apporter des modifications. Pour plus de détails, consultez Paramètres des politiques AI Trust Layer.
-
Lorsque vous sélectionnez Gérer les déploiements ( Manage Deployments), vous êtes redirigé vers Automation Ops™ > Gouvernance > Déploiement(Deployment), où vous pouvez passer en revue tous vos déploiements de politiques. Pour plus de détails, consultez la section Déployer les politiques au niveau du locataire.
L’onglet Ancrage dans le contexte (Context Griding ) de la page AI Trust Layer vous permet de gérer et de gérer les données que vous utilisez comme contexte avec les fonctionnalités UiPath GenAI . Pour plus de détails sur l'ancrage dans le contexte, consultez À propos de l'ancrage dans le contexte.
Vous pouvez vérifier les index d'ancrage en contexte disponibles pour tous les locataires spécifiques. Les données sur la source de données d'index, l'heure de mise à jour et l'heure de la dernière requête sont également disponibles.
De plus, vous pouvez effectuer les opérations suivantes :
-
Ajoutez un nouvel index. Pour plus de détails, consultez la section Ajout d’un nouvel index.
-
Afficher les détails des attributs d’index à l’aide des actions Voir plus Menu.
-
Supprimez définitivement l’index, y compris toutes les intégrations et la représentation des données dans l’index. Vous pouvez supprimer le formulaire d'index Afficher plus d'actions Menu.
Remarque :Si les activités GenAI ou Autopilot for Everyone utilisent un index supprimé, vous devez les reconfigurer avec un nouvel index, sinon ils échoueront.
-
Synchronisez l’index pour le mettre à jour avec les données les plus récentes de la source de données. L'opération de synchronisation écrase les intégrations et capture uniquement les données actuellement disponibles dans la source de données. Vous pouvez synchroniser l’index à partir de la section Voir plus d’actions Menu.
L’onglet Audit de la page AI Trust Layer offre une vue complète des opérations liées à l’IA, avec des détails sur les demandes et les actions, les produits et fonctionnalités à l’origine des demandes, ainsi que les modèles utilisés et leur emplacement. Vous pouvez surveiller toutes les opérations liées à l'IA et garantir leur conformité aux directives et politiques établies. Notez que vous pouvez afficher les entrées de journal créées au cours des 60 derniers jours.
Les données d'audit sont affichées sous forme de tableau, chacune de ses colonnes fournissant des informations spécifiques sur les opérations liées à l'IA :
-
Date (UTC): affiche la date et l’heure exactes auxquelles chaque opération a été demandée. Il permet un suivi précis des demandes selon leur ordre chronologique, facilitant ainsi les audits en temps opportun.
-
Produit(Product) : Produit spécifique qui a initié chaque opération. Cette visibilité permet de remonter toute opération vers son produit d'origine pour une meilleure compréhension et responsabilité.
-
Fonctionnalité ( Feature) : fonctionnalité spécifique du produit qui a initié l'opération, facilitant la traçabilité des problèmes vers des fonctionnalités particulières, le cas échéant.
-
Locataire(Tenant) : le locataire spécifique au sein de votre organisation qui a initié l'opération. Ces informations permettent d'obtenir une vue d'ensemble plus détaillée et aident à reconnaître les modèles ou les problèmes au niveau du locataire.
-
Utilisateur: l’utilisateur individuel au sein du locataire qui a initié l’opération. Il permet de traçage des activités à un niveau granulaire de l'utilisateur, améliorant les capacités de surveillance.
-
Modèle utilisé: le modèle d'IA spécifique utilisé pour traiter chaque opération. Cet aperçu permet de mieux comprendre quels modèles gèrent quels types de requêtes.
-
Emplacement du modèle: l’emplacement où le modèle utilisé est hébergé. Ces informations peuvent répondre aux exigences potentielles de dépannage ou d’audit qui pourraient découler des performances du modèle dans des emplacements spécifiques.
-
Statut(Status) : le statut de chaque opération — indiquant si elle a réussi, échoué ou bloquée. Ce moyen rapide d'identifier les problèmes opérationnels est crucial pour maintenir un environnement fluide et efficace.
Par ailleurs, la capacité de filtrage vous permet d’affiner votre audit en fonction de critères tels que la date, le produit, le modèle utilisé ou le statut.
En outre, lorsque vous sélectionnez une entrée dans la table Audit, vous pouvez accéder à une section Détails (Details) pour une révision plus approfondie.
Si vous utilisez les fonctionnalités GenAI, vous devez savoir que vos journaux d'audit peuvent inclure des informations personnelles identifiables (PII) et des informations médicales protégées (PHI). Ces détails peuvent apparaître dans les journaux lors du traitement de documents ou de la gestion des invites d'entrée via l'automatisation Attended et Unattended. Vous pouvez afficher les invites d'entrée et de sortie dans la section Détails (Details) lorsque vous consultez des demandes spécifiques.
Les informations qui peuvent contenir des informations personnelles (PII et PHI) incluent les invites utilisateur et de produit envoyées aux modèles LLM ainsi que les réponses générées par ces modèles.
Vous pouvez suivre l’origine des informations personnelles (PII ou PHI) dans vos journaux en examinant les horodatages de la demande, le contenu d’entrée et les métadonnées associées telles que l’ID de l’action, le locataire, le produit, la fonctionnalité et l’utilisateur.
Si vos règles de conformité nécessitent de masquer les données PII et PHI dans les journaux d'audit, vous pouvez le faire en désactivant le mécanisme d'enregistrement des invites d'entrée et de sortie à l'aide des paramètres de politique AI Trust Layer. Pour ce faire, procédez comme suit :
-
Accédez à Automation Ops™ > Gouvernance (Governance) et sélectionnez la politique AI Trust Layer.
-
Sous l’onglet Basculement des fonctionnalités , veillez à définir Activer l’enregistrement des invites pour l’audit ? option sur Non (No).
Remarque :Cette configuration vous permet de masquer le contenu sensible des entrées de journal, de maintenir les exigences de conformité et de contrôler la visibilité des données sensibles tout en préservant les capacités d'audit. Cependant, veuillez noter qu'une fois masquée, vous ne pouvez pas révoquer les invites pour une utilisation ultérieure.
L’onglet Résumé de l’utilisation ( Usage Summary ) de la page AI Trust Layer fournit un aperçu de l’utilisation et des restrictions du modèle dans différentes régions. Il représente les données passées de votre journal d'audit et reflète les paramètres de vos politiques de gouvernance.
Vous pouvez afficher les données affichées selon les critères suivants :
-
Nombre total d'actions LLM par statut ( Total LLM Actions per Status) : permet de surveiller le statut de différents modèles dans toutes les régions. Pour personnaliser la visualisation des données, vous pouvez filtrer par région, modèle et statut.
-
Nombre total d'actions LLM par produit ( Total LLM Actions per Product) : permet de surveiller l'adoption de la fonctionnalité d'IA au sein de votre organisation. Pour personnaliser la visualisation des données, vous pouvez filtrer par locataire et par produit.
Cet onglet Autopilot for everyone de la page AI Trust Layer vous permet de gérer l’utilisation d’Autopilot pour tout le monde dans votre organisation.
Vous pouvez effectuer les actions suivantes :