- Introdução
- Administração do host
- Organizações
- Tenants e serviços
- Autenticação e segurança
- Licenciamento
- Sobre as licenças
- Preço unificado: estrutura do plano de licenciamento
- Ativar sua licença
- Atribuição de Licenças a Tenants
- Atribuição de licenças aos usuários
- Desalocando licenças de usuário
- Monitoring license allocation
- Atribuição excessiva de licenças
- Notificações de licenciamento
- Gerenciamento de Licenças de Usuário
- Migre do Test Suite para o Test Cloud
- Contas e funções
- Testes em sua organização
- AI Trust Layer
- Aplicativos Externos
- Notificações
- Geração de logs
- Solução de problemas
Guia do administrador do Test Cloud privado
Modelos de conector são configurações de conector predefinidas do Integration Service para provedores de LLM comuns. Quando você cria um conector personalizado por meio da AI Trust Layer, a seleção de um modelo preenche previamente o conector com os recursos de API necessários, configuração de autenticação e ganchos de JavaScript para esse provedor, reduzindo a configuração manual.
Crie um conector personalizado a partir de um modelo
- No Automation Suite, navegue até AI Trust Layer > Configurações do LLM.
- Selecione Adicionar configuração.
- Selecione os valores de Tenant, Produto e Recurso para a configuração.
- Em Configuração do modelo, configure os campos Nome do LLM e Tipo de API .
- No campo Conector , selecione Criar conector personalizado.
- Na caixa de diálogo Criar conector personalizado , selecione um dos modelos disponíveis.
- Selecione Criar conector. Você é redirecionado para o Construtor de Conector, onde pode editar a configuração, salvá-la e publicar o conector.
Resultado
O conector personalizado é criado e pré-configurado com base no modelo selecionado. Você pode editar os hooks JavaScript do conector para personalizar ainda mais a solicitação de LLM e o comportamento de resposta.
Modelos disponíveis
Os modelos disponíveis na caixa de diálogo Criar conector personalizado dependem do tipo de API selecionado na configuração do modelo.
AWS Bedrock
Disponível para o tipo de API: AWS Bedrock
Quando usar: use esse modelo ao se conectar à sua própria instância de LLM do Amazon Bedrock e você precisar controlar ou modificar atributos de solicitação e resposta de LLM.
Autenticação: esse modelo segue a autenticação padrão do AWS Bedrock, com base na chave de API.
Azure OpenAI
Disponível para tipo de API: OpenAI
Quando usar: use esse modelo ao se conectar à sua própria instância do Azure OpenAI LLM e você precisar controlar ou modificar atributos de solicitação e resposta de LLM.
Autenticação: esse modelo segue a autenticação padrão do Azure OpenAI.
Google Vertex AI
Quando usar: use esse modelo ao se conectar à sua própria instância de LLM do Google Vertex AI e você precisa controlar ou modificar atributos de solicitação e resposta de LLM.
Autenticação: este modelo segue a autenticação de IA padrão do Google Vertex, com base na chave de API.
Compatível com OpenAI V1
Disponível para tipo de API: OpenAI
Quando usar: use esse modelo ao se conectar à sua própria instância OpenAI ou compatível com OpenAI V1 — por exemplo, Fireworks — e você precisa controlar ou modificar atributos de solicitação e resposta de LLM.
Autenticação: esse modelo segue a autenticação padrão compatível com OpenAI V1, com base na chave de API.
Gateway de IA personalizado
Disponível para o tipo de API: Todos
Quando usar: use esse modelo quando seus LLMs estiverem atrás de um gateway de IA.
Autenticação: para obter detalhes de configuração, consulte a documentação de autenticação do Connector Builder.
O modelo inclui dois recursos de API necessários para o tipo de autenticação Personalizada :
/onProvision— Chamado quando a conexão do Integration Service é criada. Busca um token temporário do seu Provedor de Identidade e o salva na conexão com uma hora de expiração./onRefresh— Usado para atualizar o token. O URL de destino, hook pré-solicitação e hook pós-solicitação devem corresponder àqueles configurados para/onProvision.
Se você escolher um tipo de autenticação diferente de Personalizado, remova os recursos de API /onRefresh e /onProvision do conector.
Editar os ganchos JavaScript
Depois de criar um conector a partir de um modelo, você pode personalizar seu comportamento editando os scripts JavaScript pré-solicitação e pós-solicitação. Para obter detalhes, consulte a documentação do Connector Builder.
Antes de editar os scripts, revise os fragmentos de código disponíveis e a documentação para cada palavra-chave reservada.