- Introdução
- Segurança de dados e conformidade
- Organizações
- Autenticação e segurança
- Compreensão dos modelos de autenticação
- Configuração da integração do Azure AD
- Requisitos de complexidade de senha de usuários locais
- Licenciamento
- Sobre as licenças
- Preço unificado: estrutura do plano de licenciamento
- Flex: estrutura do plano de licenciamento
- Ativar sua licença Enterprise
- Fazendo o upgrade e downgrade de licenças
- Atribuição de Licenças a Tenants
- Atribuição de licenças aos usuários
- Desalocando licenças de usuário
- Monitoring license allocation
- Atribuição excessiva de licenças
- Notificações de licenciamento
- Gerenciamento de Licenças de Usuário
- Tenants e serviços
- Contas e funções
- AI Trust Layer
- Sobre a Camada de Confiança da IA
- Gerenciando a AI Trust Layer
- Aplicativos Externos
- Notificações
- Geração de logs
- Solução de problemas
- Migraçlão para o Automation Cloud

Guia de administração do Automation Cloud
Gerenciando a AI Trust Layer
A guia Resumo de uso na página Camada de Confiança da IA fornece uma visão geral do uso do modelo e restrições em diferentes regiões. Ele representa os dados históricos do seu log de auditoria e reflete as configurações das suas políticas de governança.
Você pode visualizar os dados exibidos com base nos seguintes critérios:
- Total de ações de LLM por status: permite monitorar o status de diferentes modelos em todas as regiões. Para personalizar a visualização de dados, você pode filtrar por região, modelo, status e origem.
- Total de ações de LLM por produto: permite monitorar a adoção de funcionalidades de IA em sua organização. Para personalizar a visualização de dados, é possível filtrar por tenant e produto.
A guia Auditoria na página AI Trust Layer oferece uma visualização abrangente das operações relacionadas à IA, com detalhes sobre solicitações e ações, os produtos e funcionalidades que iniciam as solicitações, bem como os modelos usados e sua localização. Você pode monitorar todas as operações relacionadas a IA e garantir sua conformidade com as diretrizes e políticas estabelecidas. Os logs de auditoria também fornecem visibilidade das entradas e saídas para funcionalidades generativas de atividades, agentes, Autopilot for Everyone e Document Understanding da Gen AI. Observe que você pode exibir as entradas de logs criadas nos últimos 60 dias.
Os dados de auditoria são exibidos como uma tabela, com cada uma de suas colunas fornecendo uma informação específica sobre as operações relacionadas à IA:
- Data (UTC): exibe a data e hora exatas em que cada operação foi solicitada. Permite o rastreamento preciso das solicitações de acordo com sua ordem cronológica, facilitando auditorias oportunas.
- Produto: o produto específico que iniciou cada operação. Essa visibilidade permite rastrear qualquer operação de volta ao seu produto de origem para aprimorar a compreensão e a responsabilidade.
- Funcionalidade: a funcionalidade específica do produto que iniciou a operação, facilitando a rastreabilidade do problema para funcionalidades específicas, caso ocorra alguma.
- Tenant: o tenant específico dentro da sua organização que iniciou a operação. Esse insight permite uma visão geral mais detalhada e ajuda a reconhecer padrões ou problemas no nível do tenant.
- Usuário: o usuário individual dentro do tenant que iniciou a operação. Permite rastrear atividades em um nível granular do usuário, aprimorando os recursos de supervisão. Para atividades da GenAI, o usuário é representado pela pessoa que criou a conexão. Um valor N/A indica uma comunicação de serviço a serviço em que um usuário não está disponível.
- Modelo Usado: o modelo de IA específico usado para processar cada operação. Esse insight fornece uma melhor compreensão de quais modelos estão lidando com quais tipos de solicitações.
- Local do modelo: o local em que o modelo usado está hospedado. Essas informações podem ajudar na solução de possíveis problemas ou requisitos de auditoria que podem surgir do desempenho do modelo em locais específicos.
- Status: o status de cada operação — mostrando se foi bem-sucedida, com falha ou bloqueada. Essa maneira rápida de identificar problemas operacionais é crucial para manter um ambiente tranquilo e eficiente.
Além disso, o recurso de filtragem permite que você limite sua auditoria com base em critérios como data, produto, modelo usado, status ou origem. O filtro Origem permite que você escolha entre visualizar todas as chamadas, apenas chamadas gerenciadas pela UiPath ou chamadas de conexão exclusivamente personalizadas (usando assinaturas gerenciadas pelo cliente, conforme definido em Configuração de LLMs).
Além disso, ao selecionar uma entrada na tabela Auditoria, você pode acessar uma seção Detalhes para uma revisão mais aprofundada, que inclui todos os dados disponíveis na tabela Auditoria, bem como a origem da chamada LLM e a implantação exata associada à chamada.
Essa funcionalidade está disponível no plano de licenciamento Enterprise.
A opção Exportar permite exportar logs de auditoria.
Exportação de logs
Como acionar e baixar uma exportação
- Acesse Admin > AI Trust Layer e selecione a aba Auditoria .
- Selecione Exportar.
- Escolha exportar com ou sem entradas e saídas.
Apenas uma exportação pode ser processada por vez. Você deve aguardar a conclusão da exportação antes de iniciar uma nova.
Observação: o sistema processa exportações de forma assíncrona, com aquelas entradas e saídas que exigem tempo adicional. - Após a conclusão da exportação, você recebe notificações por e-mail e no painel Notificações .
- Os arquivos exportados são acessíveis através da opção Visualizar exportações na AI Trust Layer > aba Auditoria por um período de sete dias.
A interface exibe o número de exportações restantes com entradas e saídas para o mês atual. Observe que, quando você atingir o limite mensal, a exportação com entradas e saídas será suspensa até o próximo mês.
Filtragem de dados para exportações
Use as opções de filtros disponíveis para restringir os dados que você deseja exportar:
-
Produto – Selecione os produtos dos quais você deseja exportar dados.
-
Modelo usado – Escolha modelos específicos para filtrar a exportação.
-
Status – Filtre por solicitações com falha ou bem-sucedidas. Um status Falha aparece quando uma política do Automation Ops bloqueia um modelo, produto ou funcionalidade.
-
Data – Selecione um intervalo de tempo (por exemplo, Último dia, Última semana, Últimos 30 dias) e escolha entre os fusos horários locais ou UTC.
A filtragem permite que você sobreponha os limites de tamanho e máximo de linhas por exportação, selecionando apenas os dados que você deseja exportar.
Visualização de exportações
O painel Exibir exportações exibe os dados exportados, o usuário que gerou a solicitação e o status da exportação. Esse painel também é onde você pode baixar suas exportações selecionando a ação Download .
Se ocorrer um erro, seu limite mensal de exportação não será afetado e você poderá gerar uma nova exportação.
Status | Definição |
---|---|
Pendente | A solicitação está sendo processada. O status muda para Concluído ou Falha após o processamento ser concluído. |
Com falha | Às vezes, uma solicitação pode falhar.
Uma solicitação com falha não conta para seu limite mensal de exportação se você estiver exportando com entradas e saídas. |
Concluído | O processamento foi concluído, e o arquivo está pronto para download. |
baixou | O arquivo foi baixado. |
Expirada | O arquivo atingiu o fim de sua janela de disponibilidade de 7 dias e não pode mais ser baixado. |
Estrutura do CSV
Os logs de auditoria consistem nas seguintes colunas:
Nome da coluna | Tipo | Description |
---|---|---|
Data | DateTime | Quando a ação foi registrada. |
ID da Ação | String/UUID | Um identificador exclusivo para a ação específica. Pode ser usado para rastrear informações em toda a UiPath Platform e obter mais insights. |
Produto | String | Nome do produto em que a ação ocorreu. |
Recurso | String | Nome da funcionalidade que disparou a ação. |
Usuário | String | O usuário que disparou a ação. |
Tenant | String | O tenant onde a ação ocorreu. |
Modelo | String | O modelo que processou a entrada. |
Localização do modelo | String | A região do modelo. |
Status | String | O status da ação que pode ser falha ou bem-sucedida. |
Limitações de exportação
Entradas e saídas com mais de 32.767 caracteres são truncadas no final. Uma mensagem é adicionada automaticamente à linha truncada para informar que o truncamento das informações ocorreu.
As entradas e saídas são processadas para remover vírgulas (”,”) para que você possa processar informações facilmente sem mau funcionamento do CSV.
Duração e período de cortesia da licença
Durante o período de cortesia, os dados armazenados anteriormente permanecem acessíveis. No entanto, nenhum dado novo é salvo no armazenamento Quente ou Frio durante esse período. É importante observar que os dados no armazenamento frio expirarão eventualmente. A linha do tempo de expiração é calculada com base na duração da sua licença mais dois ou três anos adicionais, dependendo do seu tipo de licença anterior. Essa abordagem garante que você tenha tempo suficiente para acessar seus dados históricos, mesmo após a expiração da sua licença.
Retenção e armazenamento de dados
Recurso | Enterprise Standard | Enterprise Avançado |
---|---|---|
Armazenamento ativo (UI visível) | 60 dias | 60 dias |
Armazenamento pré-configurado (exportação disponível) | 90 dias | 180 dias |
Armazenamento codificado (arquivado) | 2 anos | 3 anos |
Máximo de linhas por exportação | 200.000 | 200.000 |
Tamanho máximo de exportação | 1 GB | 1 GB |
Exportações com entradas e saídas | 4 por mês | 4 por mês |
Exportações sem entradas e saídas | Ilimitado | Ilimitado |
Desabilitando o armazenamento de entradas e saídas
Você pode desabilitar o salvamento de entradas e saídas nas exportações, implantando uma política do Automation Ops aplicável no nível de tenant, grupo ou usuário. Para obter detalhes, consulte Configurações para políticas da AI Trust Layer.
Assim que essa funcionalidade for desabilitada, as entradas e saídas não serão mais salvas e não poderão ser recuperadas.
Se você usar as funcionalidades da GenAI, deve estar ciente de que seus logs de auditoria podem incluir Informações Pessoalmente Identificáveis (PII) e Informações Protegidas de Saúde (PHI). Esses detalhes podem aparecer em logs ao processar documentos ou gerenciar prompts de entrada por meio de automação assistida e não assistida. Você pode visualizar os prompts de entrada e saída na seção Detalhes ao revisar solicitações específicas.
As informações que podem conter PII e PHI incluem prompts de usuário e produto enviados para modelos LLM, bem como as respostas geradas por esses modelos.
Você pode rastrear a origem do PII ou PHI em seus logs, revisando os carimbos de data/hora das solicitações, conteúdo de entrada e metadados associados, como ID da Ação, Tenant, Produto, Funcionalidade e Usuário.
Se suas regras de conformidade exigirem a ocultação de dados de PII e PHI em logs de auditoria, você poderá fazê-lo desabilitando o mecanismo de salvamento de prompts de entrada e saída usando as configurações de política da AI Trust Layer. Para fazer isso, siga as seguintes etapas:
-
Acesse Automation Ops™ > Governança e selecione a política AI Trust Layer.
-
Na guia Alternâncias de funcionalidades, certifique-se de definir Habilitar solicitação de salvamento para auditoria? para Não.
Observação:Essa configuração permite ocultar conteúdo confidencial das entradas de log, manter os requisitos de conformidade e controlar a visibilidade de dados confidenciais, preservando os recursos de auditoria. No entanto, observe que, uma vez oculto, você não pode revogar os prompts para uso posterior.
A guia Governança de IA na página AI Trust Layer permite que você gerencie o uso de modelos de IA de terceiros para suas organizações, tenants ou grupos de usuários por meio de políticas AI Trust Layer . Isso ajuda você a controlar o acesso do usuário às funcionalidades de IA generativa e garante uma governança adequada em toda a sua organização.
Você obtém uma visão geral de todas as políticas ativas e seus status atuais. Além disso, você pode visualizar e gerenciar políticas e suas implantações, da seguinte maneira:
-
Quando seleciona o nome da política, você é redirecionado para a respectiva política do AI Trust Layer em Automation Ops™ > Governança. Agora você pode visualizar os detalhes da política e, se necessário, fazer alterações. Para obter detalhes, consulte Configurações para políticas da AI Trust Layer. Você também pode criar diretamente uma política da AI Trust Layer selecionando Adicionar política.
-
Quando selecionar Gerenciar implantações, você será redirecionado para o Automation Ops™ > Governança > Implantação, onde você pode revisar todas as suas implantações de políticas. Para obter mais detalhes, consulte Implantar políticas ao nível de tenant.
Essa guia Autopilot for Everyone na página AI Trust Layer permite que você gerencie o uso Autopilot for Everyone em sua organização.
É possível executar as seguintes ações:
Essa funcionalidade está disponível nos planos de licenciamento Enterprise - Advanced (Flex) e Enterprise (Unified Pricing).
A guia Configurações do LLM permite que você integre suas assinaturas de IA existentes enquanto mantém a estrutura de governança fornecida pela UiPath. Você pode:
- Traga sua própria assinatura: substitua as assinaturas gerenciadas pela UiPath pelas suas próprias, desde que elas correspondam à mesma família de modelos e à versão já suportada pelo produto UiPath. Isso permite a troca perfeita de modelos gerenciados pela UiPath com seus modelos assinados.
- Traga seu próprio LLM: use qualquer LLM que atenda aos critérios de compatibilidade do produto. Para garantir uma integração perfeita, seu LLM escolhido deve passar por uma série de testes iniciados por meio de uma chamada de investigação antes de poder ser usado dentro do ecossistema da UiPath.
A configuração de LLMs preserva a maioria dos benefícios de governança da AI Trust Layer, incluindo a aplicação de políticas por meio do Automation Ops e logs de auditoria detalhados. No entanto, as políticas de governança do modelo são projetadas especificamente para LLMs gerenciados pela UiPath. Isso significa que se você desabilitar um modelo específico por meio de uma política do AI Trust Layer, a restrição se aplicará apenas à versão gerenciada pela UiPath desse modelo. Seus próprios modelos configurados do mesmo tipo permanecem inalterados.
Ao aproveitar a opção de usar seu próprio LLM ou assinatura, tenha os seguintes pontos em mente:
- Requisitos de compatibilidade: seu LLM ou assinatura escolhida deve se alinhar à família de modelos e à versão atualmente suportada pelo produto UiPath.
-
Configuração: certifique-se de configurar e manter corretamente todos os LLMs necessários na configuração personalizada. Se algum componente estiver ausente, desatualizado ou configurado incorretamente, sua configuração personalizada pode parar de funcionar. Nesses casos, o sistema reverterá automaticamente para um LLM gerenciado pela UiPath para garantir a continuidade do serviço.
-
Economia de custos: se sua configuração de LLM personalizada estiver completa, correta e atender a todos os requisitos necessários, você pode se qualificar para uma taxa de consumo reduzida.
As conexões LLM dependem do Integration Service para estabelecer a conexão com seus próprios modelos.
Você pode criar conexões para os seguintes provedores:
- Azure Open AI
- OpenAI
- Amazon Bedrock
- Google Vertex
- LLM em conformidade com Open AI V1 – Use essa opção para se conectar a qualquer provedor LLM cuja API siga o padrão OpenAI V1. Para obter detalhes, consulte a documentação do conector LLM em conformidade com o OpenAI V1.
Para configurar uma nova conexão, siga as seguintes etapas:
Você pode executar as seguintes ações em suas conexões existentes:
-
Verificar conexão - Verifique o status da sua conexão do Integration Service. Essa ação garante que a conexão esteja ativa e funcionando corretamente.
-
Editar – Modifique qualquer parâmetro da sua conexão existente.
-
Desabilitar - Suspender temporariamente a conexão. Quando desabilitada, a conexão permanece visível na sua lista, mas não roteia nenhuma chamada. Você pode reabilitar a conexão quando necessário.
-
Excluir - Remove permanentemente a conexão do seu sistema. Essa ação desabilita a conexão e a remove da sua lista.
Ao trabalhar com Agentes, você pode incorporar seu próprio LLM usando o conector OpenAI V1 Compatível.
Siga as etapas descritas na seção anterior para criar uma conexão.
Ao configurar sua implantação de modelo, certifique-se de que seu LLM ofereça suporte aos seguintes recursos:
-
Chamada da ferramenta (função) - Seu modelo deve poder chamar ferramentas ou funções durante a execução.
-
Desabilitando chamadas de ferramentas paralelas - Se for compatível com seu provedor LLM, o modelo deve oferecer a opção de desabilitar chamadas de ferramentas paralelas.
A criação de índices está sendo migrada da AI Trust Layer para o Orchestrator. Para obter detalhes, consulte Índices no Orchestrator.
A guia Embasamento de contexto na AI Trust Layer permanecerá disponível temporariamente. Seu único propósito agora é redirecionar você para a nova experiência de criação de índices do Orchestrator. A guia será totalmente desativada em uma atualização futura.
- Verificando o resumo de uso
- Visualização de logs de auditoria
- Exportação de logs de auditoria
- Manuseio de dados de PII e PHI em logs de auditoria
- Gerenciamento de políticas da Camada de confiança da IA
- Gerenciamento Autopilot for Everyone
- Configuração de LLMs
- Configuração de uma conexão LLM
- Gerenciamento de conexões existentes do LLM
- Configuração de LLMs para agentes
- Governando dados contextuais para funcionalidades da GenAI