UiPath Documentation
test-cloud
latest
false

Guia do administrador do Test Cloud

Última atualização 6 de mai de 2026

Traga seu próprio LLM para Contextualização

A Contextualização é compatível com traga seu próprio modelo (BYOM) e traga sua própria assinatura (BYOS) por meio da AI Trust Layer da UiPath. Os administradores podem substituir os modelos de incorporação e inferência gerenciados pela UiPath por suas próprias assinaturas ou conectar modelos não incluídos no conjunto padrão, enquanto mantêm a governança e os recursos de auditoria da AI Trust Layer.

Funcionalidades e modelos compatíveis

As funcionalidades de Contextualização a seguir são compatíveis com a configuração personalizada de LLM por meio de qualquer provedor cuja API siga o padrão OpenAI V1, conectada por meio do conector de LLM compatível com OpenAI V1. Cada funcionalidade tem requisitos de modelo específicos.

RecursoModelos suportadosModelo recomendadoRequisitosEspecificações recomendadas
Ingestão AvançadaQualquer LLM compatível com OpenAI V1Gemini-2.5- FlashChamada de ferramenta forçada; suporte de imagem multimodal16 mil tokens de entrada; 32 mil tokens de saída
Transformação em loteQualquer LLM compatível com OpenAI V1Gemini-2.5- Flash (smart), gemini-2.5-flight-light (rádio)Chamada de ferramenta forçada128 mil tokens de entrada
Transformação em lote com a Pesquisa na WebQualquer modelo de pesquisa da Web do GeminiN/AFerramenta de pesquisa na Web do GeminiN/A
DeepRAGQualquer LLM compatível com OpenAI V1Gemini-2.5- FlashChamada de ferramenta forçada; contagem > 1 suporte1 milhão de tokens de entrada; 64 mil tokens de saída
IncorporaçõesQualquer modelo de incorporação compatível com OpenAI V1Gemini-embedding-001< 4.096 dimensões; ≥ 8k tokens de entradaN/A

Para obter o escopo completo do modelo em todos os produtos da UiPath, consulte Configuração de LLMs.

Requisitos — sem esse recurso, a funcionalidade não funciona.
Recomendado — sem esse recurso, a funcionalidade não foi testada e pode ter um desempenho pior ou falhar com mais frequência.

Configuração e roteamento

A configuração personalizada do LLM para a Contextualização é gerenciada através da aba Configurações do LLM em Admin > AI Trust Layer. Para obter etapas de configuração, selecione Contextualização como o produto ao seguir as etapas em Configuração de LLMs.

Para obter detalhes sobre como as funcionalidades de IA encaminham solicitações para modelos, incluindo o comportamento de fallback e a governança do modelo, consulte as funcionalidades de IA e o roteamento de modelos.

  • Funcionalidades e modelos compatíveis
  • Configuração e roteamento

Esta página foi útil?

Conectar

Precisa de ajuda? Suporte

Quer aprender? Academia UiPath

Tem perguntas? Fórum do UiPath

Fique por dentro das novidades