- Introdução
- Segurança de dados e conformidade
- Organizações
- Autenticação e segurança
- Licenciamento
- Sobre as licenças
- Preço unificado: estrutura do plano de licenciamento
- Ativar sua licença Enterprise
- Migre do Test Suite para o Test Cloud
- Migração de licença
- Atribuição de Licenças a Tenants
- Atribuição de licenças aos usuários
- Desalocando licenças de usuário
- Monitoring license allocation
- Atribuição excessiva de licenças
- Notificações de licenciamento
- Gerenciamento de Licenças de Usuário
- Tenants e serviços
- Contas e funções
- AI Trust Layer
- Sobre a Camada de Confiança da IA
- Traga seu próprio LLM para Contextualização
- Usando o DeepRAG
- Contexto Embasamento licenciamento
- Aplicativos Externos
- Notificações
- Geração de logs
- Testes em sua organização
- Solução de problemas
- Migração para o Test Cloud
Guia do administrador do Test Cloud
A Contextualização é compatível com traga seu próprio modelo (BYOM) e traga sua própria assinatura (BYOS) por meio da AI Trust Layer da UiPath. Os administradores podem substituir os modelos de incorporação e inferência gerenciados pela UiPath por suas próprias assinaturas ou conectar modelos não incluídos no conjunto padrão, enquanto mantêm a governança e os recursos de auditoria da AI Trust Layer.
Funcionalidades e modelos compatíveis
As funcionalidades de Contextualização a seguir são compatíveis com a configuração personalizada de LLM por meio de qualquer provedor cuja API siga o padrão OpenAI V1, conectada por meio do conector de LLM compatível com OpenAI V1. Cada funcionalidade tem requisitos de modelo específicos.
| Recurso | Modelos suportados | Modelo recomendado | Requisitos | Especificações recomendadas |
|---|---|---|---|---|
| Ingestão Avançada | Qualquer LLM compatível com OpenAI V1 | Gemini-2.5- Flash | Chamada de ferramenta forçada; suporte de imagem multimodal | 16 mil tokens de entrada; 32 mil tokens de saída |
| Transformação em lote | Qualquer LLM compatível com OpenAI V1 | Gemini-2.5- Flash (smart), gemini-2.5-flight-light (rádio) | Chamada de ferramenta forçada | 128 mil tokens de entrada |
| Transformação em lote com a Pesquisa na Web | Qualquer modelo de pesquisa da Web do Gemini | N/A | Ferramenta de pesquisa na Web do Gemini | N/A |
| DeepRAG | Qualquer LLM compatível com OpenAI V1 | Gemini-2.5- Flash | Chamada de ferramenta forçada; contagem > 1 suporte | 1 milhão de tokens de entrada; 64 mil tokens de saída |
| Incorporações | Qualquer modelo de incorporação compatível com OpenAI V1 | Gemini-embedding-001 | < 4.096 dimensões; ≥ 8k tokens de entrada | N/A |
Para obter o escopo completo do modelo em todos os produtos da UiPath, consulte Configuração de LLMs.
Requisitos — sem esse recurso, a funcionalidade não funciona.
Recomendado — sem esse recurso, a funcionalidade não foi testada e pode ter um desempenho pior ou falhar com mais frequência.
Configuração e roteamento
A configuração personalizada do LLM para a Contextualização é gerenciada através da aba Configurações do LLM em Admin > AI Trust Layer. Para obter etapas de configuração, selecione Contextualização como o produto ao seguir as etapas em Configuração de LLMs.
Para obter detalhes sobre como as funcionalidades de IA encaminham solicitações para modelos, incluindo o comportamento de fallback e a governança do modelo, consulte as funcionalidades de IA e o roteamento de modelos.