activities
latest
false
Importante :
A tradução automática foi aplicada parcialmente neste conteúdo. A tradução dos pacotes de Conetores disponíveis no Integration Service é efetuada automaticamente.
UiPath logo, featuring letters U and I in white
Atividades do Integration Service
Last updated 5 de nov de 2024

Gerar conclusão de texto

Description

Dado um prompt e outras entradas, como o ID do modelo, etc., gera uma resposta de conclusão de texto.

Compatibilidade do projeto

Windows | Multiplataforma

Configuração

  • ID da conexão — a conexão estabelecida no Integration Service. Acesse o menu suspenso para escolher, adicionar ou gerenciar conexões.

  • Modelo — O Modelo de Linguagem Abrangente (LLM) a ser utilizado para as conclusões de texto.
    Observação: essa atividade permite aos usuários selecionar qualquer modelo GPT-3 que tenha sido implantado na sua instância Azure. Se você não vir um modelo no menu suspenso, entre em contato com seu administrador do Azure e certifique-se de que ele implantou o modelo na produção.
  • Solicitação — a solicitação que você deseja usar para gerar a conclusão de texto. Este campo é compatível com String entrada do tipo.
Gerenciar propriedades

Use o assistente Gerenciar Propriedades para configurar ou usar qualquer um dos campos padrão ou personalizados do objeto. Você pode selecionar campos para adicioná-los à tela da atividade. Os campos padrão ou personalizados adicionados ficam disponíveis no painel Propriedades (no Studio Desktop) ou em Mostrar propriedades adicionais (no Studio Web).

Propriedades adicionais
  • Versão da API — a versão da API a ser usada para essa operação. ele segue o formato AAAA-MM-DD. Este campo é compatível com String entrada do tipo.
  • Máx. de tokens — o número máximo de tokens a serem gerados na conclusão. A contagem de tokens do seu prompt mais max_tokens não podem exceder o tamanho do contexto do modelo. A maioria dos modelos tem um comprimento de contexto de 2048 tokens (exceto os modelos mais recentes, que suportam 4096). Leia mais informações sobre tokens.
  • N — o número de opções de conclusão que você deseja que a IA retorne. O valor mínimo deste campo é 1. O valor padrão é 1.
  • Temperatura — o valor da tem pertura de amostra a ser usada. Valores mais altos significa que o modelo assume mais riscos. Tente 0.9 para respostas ou conclusões mais criativas e 0 (também chamado de amostra de argmax) para aquelas com uma resposta bem definida ou mais exata. A recomendação geral é alterar, do valor padrão, esse ou o Valor de Exemplo do Nucleus, mas não ambos. O padrão é 1.
  • P superior - Um número entre 0 e 1. Quanto menor for o número, menos tokens serão considerados. O padrão é 1.
  • Stream - Especifica se o progresso parcial deve ser transmitido de volta. Se definido, os tokens são enviados como eventos server-sent somente de dados à medida que ficam disponíveis, com o fluxo encerrado por uma mensagem data:[DONE] . O padrão é false.
  • Probs de Log — inclui as probabilidades de log nos tokens mais prováveis do logprob, bem como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos 5 tokens mais prováveis. A API sempre retorna o logprob do token de amostra, portanto, pode haver até logprobs+1 elementos na resposta. O valor máximo de logprobs é 5. O padrão é nulo.
  • Eco — além da conclusão, se este campo estiver definido como true , repetirá a solicitação. O valor padrão é false .
  • Interrupção - Até 4 sequências em que a API para de gerar mais tokens. O texto retornado não contém a sequência de parada. O padrão é nulo.
  • Penalidade de presença - Um número entre -2.0 e 2.0. Os valores positivos penalizam novos tokens com base na possibilidade de eles aparecerem no texto até o momento, aumentando a probabilidade de o modelo falar sobre novos tópicos. O padrão é 0.
  • Penalidade de frequência - Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade de o modelo repetir a mesma linha textual. O padrão é 0.
  • Melhor de — gera best_of conclusões no lado do servidor e retorna best (aquela com a maior probabilidade de log por token). Não é possível transmitir os resultados. Quando usado com N, best_of controla o número de conclusões de candidatos e N especifica quantos devem ser retornados — best_of deve ser maior que N. O padrão é 1.
Saída
  • Texto Gerado Superior — a string de conclusão do texto gerado superior. Se você estiver interessado em retornar apenas uma única resposta (ou seja, N=1, que é o padrão), essa será a saída que você provavelmente precisará usar. É um tipo de dados "Texto" fácil de atribuir uma variável e usar diretamente em outras atividades/entradas de texto.
  • Gerar conclusão de texto — o objeto TextCompletion completo, que inclui:
    • Escolhas ou respostas do modelo. Você pode definir o número total de respostas que deseja voltar do modelo usando o campo N nas opções adicionais da atividade, que é padrão para 1. Isso retornará como uma matriz com o primeiro objeto começando em 0. Ex. Referenciando um único objeto em uma matriz dentro de um controle For Each: Response.Choices(0).Text. Leia mais sobre o objeto de resposta de Conclusão de Texto.
  • Description
  • Compatibilidade do projeto
  • Configuração

Esta página foi útil?

Obtenha a ajuda que você precisa
Aprendendo RPA - Cursos de automação
Fórum da comunidade da Uipath
Uipath Logo White
Confiança e segurança
© 2005-2024 UiPath. Todos os direitos reservados.