- Introdução
- Segurança de dados e conformidade
- Organizações
- Autenticação e segurança
- Licenciamento
- Sobre as licenças
- Preço unificado: estrutura do plano de licenciamento
- Flex: estrutura do plano de licenciamento
- Ativar sua licença Enterprise
- Fazendo o upgrade e downgrade de licenças
- Migração de licença
- Solicitando uma Avaliação de Serviço
- Atribuição de Licenças a Tenants
- Atribuição de licenças aos usuários
- Desalocando licenças de usuário
- Monitoring license allocation
- Atribuição excessiva de licenças
- Notificações de licenciamento
- Gerenciamento de Licenças de Usuário
- Tenants e serviços
- Contas e funções
- Testes em sua organização
- AI Trust Layer
- Aplicativos Externos
- Notificações
- Geração de logs
- Solução de problemas
- Migraçlão para o Automation Cloud

Guia de administração do Automation Cloud
Ao usar funcionalidades de IA generativa na UiPath, é importante entender que os logs de auditoria podem incluir Informações de identificação pessoal (PII) ou Informações de saúde protegidas (PHI). Esses detalhes podem aparecer tanto nos prompts de entrada enviados para Modelos de Linguagem Abrangente (LLMs) quanto nas respostas que eles geram. Isso se aplica a interações executadas por meio de automações attended e unattended.
A seção Detalhes de cada entrada de log de auditoria exibe o conteúdo completo de entrada e saída quando o salvamento de solicitações está habilitado. Isso inclui metadados como:
- ID da Ação
- Tenant
- Produto
- Recurso
- Usuário
- Carimbo de data/hora
Se suas regras de conformidade exigirem a ocultação de dados de PII e PHI em logs de auditoria, você pode configurar a política de AI Trust Layer para controlar a visibilidade:
- Acesse Automation Ops™ > Governança e selecione ou crie uma política da AI Trust Layer.
- Na guia Alternâncias de funcionalidades , certifique-se de definir Habilitar a economia de prompts para auditoria? para Não.
Com essa configuração, nem as solicitações nem as saídas do LLM são retidas nos logs de auditoria. O log exibirá os metadados da entrada, mas o conteúdo de entrada/saída aparecerá como "Bloqueado por política".
Essa configuração permite que você oculte conteúdo confidencial de entradas de log, mantenha os requisitos de conformidade e controle a visibilidade de dados confidenciais enquanto preserva os recursos de auditoria. Uma vez ocultos, você não pode recuperar os prompts para uso posterior.
Revisão de PII e PHI
Você pode optar por manter os logs de auditoria enquanto mascara conteúdo confidencial habilitando a opção de mascaramento de PII. Para obter detalhes, consulte Mascaramento de PII.
O log de auditoria da AI Trust Layer oferece visibilidade completa de como as informações de identificação pessoal (PII) são tratadas durante interações com Modelos de Linguagem Abrangente (LLMs).
Com o log de auditoria, você pode:
- Verifique se o PII foi detectado em um prompt fornecido.
- Confirme se o mascaramento (pseudônimo) foi aplicado às entidades detectadas.
- Revise a entrada real enviada para o LLM, garantindo que nenhuma PII bruta tenha sido exposta.
Esse nível de transparência suporta os esforços de conformidade, cria confiança nas partes interessadas e fornece uma trilha de auditoria detalhada para cada interação em que o mascaramento de PII em andamento está habilitado.