Actividades
Más reciente
False
Imagen de fondo del banner
Actividades de Integration Service
Última actualización 23 de abr. de 2024

Generar finalización de texto

UiPath.OpenAI.IntegrationService.Activities.GenerateTextCompletion

Descripción

Dada una solicitud y otras entradas como el ID del modelo, etc., esta actividad genera una respuesta de finalización de texto. Esta funcionalidad utiliza modelos de generación de texto GPT-3 heredados como Curie, Ada y Babbage. Más información sobre las diferencias entre los modelos y la finalización de texto.

Compatibilidad de proyectos

Windows | Multiplataforma

Configuración

  • ID de conexión : la conexión establecida en Integration Service. Accede al menú desplegable para elegir, añadir o gestionar conexiones.

  • Solicitud : la solicitud que quieres utilizar para la generación de la finalización del texto. Puedes obtener más información sobre las solicitudes aquí.
Administrar propiedades

Utiliza el asistente Administrar propiedades para configurar o utilizar cualquiera de los campos estándar o personalizados del objeto. Puedes seleccionar campos para añadirlos al lienzo de actividad. Los campos estándar o personalizados añadidos están disponibles en el panel Propiedades (en Studio Desktop) o en Mostrar opciones adicionales (en Studio Web).

Opciones adicionales
    • Nombre del modelo: el modelo de lenguaje grande (LLM) que quieres usar para completar el texto. Puedes leer más sobre las diferencias entre estos modelos en la documentación de OpenAI.
    • Máximo de tokens : el número máximo de tokens permitidos para la solicitud y la respuesta generada. Menos tokens son menos costosos. La mayoría de los modelos admiten un máximo de 4096 tokens, sin embargo, algunos modelos solo admiten 2048. El valor predeterminado es 1920. Más información sobre los tokens.
    • N : el número de opciones de finalización que quieres que devuelva la IA. El valor mínimo de este campo es 1. El valor predeterminado es 1.
    • Temperatura : un número entre 0 y 2. Valores más altos como 0.8 hacen que la salida sea más aleatoria, mientras que valores más bajos como 0.2 la hacen más enfocada y determinista. El valor predeterminado es 1.
    • P superior : un número entre 0 y 1. Cuanto menor sea el número, se tendrán en cuenta menos tokens. El valor predeterminado es 1.
    • Sufijo : el sufijo que aparece después de completar el texto insertado. El valor predeterminado es null.
    • Transmisión : especifica si se debe transmitir el progreso parcial. Si se establece, los tokens se envían como eventos enviados por el servidor de solo datos a medida que están disponibles, con la secuencia finalizada con un mensaje data:[DONE] . El valor predeterminado es false.
    • Problemas de registro : incluye las probabilidades de registro en los tokens más probables logprob, así como los tokens elegidos. Por ejemplo, si logprobs es 5, la API devuelve una lista de los 5 tokens más probables. La API siempre devuelve el logprob del token de muestra, por lo que puede haber hasta logprobs+1 elementos en la respuesta. El valor máximo para logprobs es 5. El valor predeterminado es null.
    • Copiar : además de la finalización, si el campo se establece en true, se repite la solicitud. El valor predeterminado es false.
    • Detener : hasta 4 secuencias en las que la API deja de generar más tokens. El texto devuelto no contiene la secuencia de detención. El valor predeterminado es null.
    • Sanción de presencia : un número entre -2.0 y 2.0. Los valores positivos sancionan los nuevos tokens en función de si aparecen en el texto hasta el momento, lo que aumenta la probabilidad del modelo de hablar sobre nuevos temas. El valor predeterminado es 0.
    • Sanción de frecuencia : número entre -2.0 y 2.0. Los valores positivos sancionan los nuevos tokens en función de su frecuencia existente en el texto hasta el momento, disminuyendo la probabilidad del modelo de repetir la misma línea palabra por palabra. El valor predeterminado es 0.
    • Lo mejor de : genera best_of completaciones del lado del servidor y devuelve el best (el que tiene la probabilidad de registro más alta por token). Los resultados no se pueden transmitir. Cuando se usa con N, best_of controla el número de finalizaciones candidatas y N especifica cuántas devolver; best_of debe ser mayor que N. Por defecto es 1.
      • Dado que este parámetro genera muchas finalizaciones, puede consumir rápidamente su cuota de tokens. Úselo con cuidado y asegúrese de tener una configuración razonable para Máximo de tokens y Detener.

    • Usuario : un identificador único que representa a tu usuario final, que puede ayudar a OpenAI a supervisar y detectar abusos. El valor predeterminado es null.
Salida
  • Texto generado más arriba: la cadena de finalización de texto más generada. Si está interesado en devolver solo una única respuesta (por ejemplo, N=1, que es el valor predeterminado), esta será la salida que más probablemente querrás utilizar. Es un tipo de datos Text al que es fácil asignar una variable y utilizarlo directamente en otras actividades/entradas de texto.
  • Generar finalización de texto : variable de salida generada automáticamente. El objeto GenerateTextCompletion completo que incluye:
    • Opciones : o respuestas del modelo. Puedes establecer el número total de respuestas que quieres obtener del modelo utilizando el campo 'N' en las opciones adicionales de la actividad que por defecto es 1. Esto devolverá como una matriz con el primer objeto a partir de 0. Ej. Hacer referencia a un solo objeto en una matriz dentro de un control 'Para cada': Response.Choices(0).Text. Para obtener más información sobre otras partes del objeto de respuesta de finalización de texto, consulta la documentación Crear finalización .
  • Descripción
  • Compatibilidad de proyectos
  • Configuración

Was this page helpful?

Obtén la ayuda que necesitas
RPA para el aprendizaje - Cursos de automatización
Foro de la comunidad UiPath
Logotipo blanco de UiPath
Confianza y seguridad
© 2005-2024 UiPath. All rights reserved.