agents
latest
false
  • Primeros pasos
    • Acerca de esta guía
    • Acerca de agentes
    • Capacidades del agente en UiPath Platform™
  • Agentes de UiPath en Studio Web
  • Agentes de UiPath en Agent Builder
  • Agentes codificados de UiPath
Importante :
La localización de contenidos recién publicados puede tardar entre una y dos semanas en estar disponible.
UiPath logo, featuring letters U and I in white

Guía del usuario de agentes

Última actualización 14 de may. de 2025

Evaluaciones

Acerca de las evaluaciones

Cuando diseñas un agente, el objetivo es que sea fiable: algo en lo que puedas confiar para que te dé el resultado correcto de forma consistente. Las evaluaciones te ayudan a determinar si tu agente está haciendo un buen trabajo o si necesita mejoras.

Terminología

Una evaluación es un par entre una entrada y una aserción, o evaluador, realizada en la salida. El evaluador es una condición o regla definida que se utiliza para evaluar si la salida del agente cumple con la salida esperada.

Los conjuntos de evaluación son agrupaciones lógicas de evaluaciones y evaluadores.

Los resultados de evaluación son seguimientos de ejecuciones de evaluación completadas que evalúan el rendimiento de un agente. Durante estas ejecuciones, la precisión, la eficiencia y la capacidad de toma de decisiones del agente se miden y se puntúan en función del rendimiento del agente.

La puntuación de evaluación determina el rendimiento del agente en función de las aserciones en una evaluación específica. La puntuación está en una escala de 0 a 100. Si has fallado en las ejecuciones de evaluación, debes volver a ejecutarlas y depurarlas.

Crear evaluaciones

Antes de crear una evaluación, primero debes probar tu agente para ver si la salida es correcta o no. Si tu agente está generando la salida correcta, puedes crear evaluaciones a partir de las ejecuciones correctas. Si tu agente no genera la salida correcta, puedes crear evaluaciones desde cero.

Crear evaluaciones a partir de ejecuciones de pruebas

  1. Después de diseñar tu agente, selecciona Probar en la nube.
  2. En la ventana de Configuración de prueba, confirma los recursos utilizados en la solución y proporciona la entrada para la ejecución de prueba.

  3. Selecciona Ejecutar.

    Los resultados se muestran en el panel Ejecutar salida.

  4. Si la salida es correcta, selecciona el botón Añadir a conjunto de evaluación ahora disponible en la pestaña General.

    Si la salida no es correcta, puedes:

    • Refinar la solicitud: ajusta la solicitud y prueba el agente hasta que la salida sea correcta.
    • Crear evaluaciones a partir de salidas incorrectas: genera evaluaciones basadas en las salidas incorrectas y edítalas manualmente para que se alineen con el resultado esperado.
  5. Las ejecuciones de prueba se muestran en la ventana Añadir a conjunto de evaluación. Selecciona Añadir a conjunto predeterminado para cualquier ejecución que desees añadir a una evaluación.

    Si ya has creado un conjunto de evaluación, puedes seleccionarlo de la lista desplegable disponible.

  6. A continuación, ve al panel Conjuntos de evaluación y selecciona Ver detalles para el conjunto de evaluación.

  7. Selecciona Evaluar conjunto para ejecutar las evaluaciones. También puedes seleccionar evaluaciones específicas a partir del conjunto que deseas evaluar.

  8. Ve a la pestaña Resultados para ver la puntuación y los detalles de la evaluación.

Crear evaluaciones desde cero

  1. Después de diseñar tu agente, ve a la pestaña Conjuntos de evaluación y selecciona Crear nuevo.

    También puedes seleccionar Importar para utilizar los datos JSON existentes de evaluaciones de otros agentes.

  2. Añade un nombre relevante para el conjunto de evaluación.
  3. Selecciona Añadir al conjunto para crear nuevas evaluaciones. Para cada nueva evaluación del conjunto:

    1. Añade un nombre.

    2. Añade valores para los campos de Entrada (heredados de los argumentos de entrada definidos) y la Salida esperada.

    3. Selecciona Guardar.

  4. A continuación, selecciona Establecer evaluadores para asignar evaluadores al conjunto de evaluación.

    Puedes asignar uno o varios evaluadores a un conjunto.

  5. Selecciona Guardar cambios.

  6. En la página principal de Conjuntos de evaluación, selecciona Ejecutar conjunto de evaluación para cada conjunto que deseas ejecutar.

  7. Ve a la pestaña Resultados para ver la puntuación y los detalles de la evaluación.

Definir evaluadores

Utiliza el panel Evaluadores para crear y gestionar tus evaluadores. De forma predeterminada, cada agente tiene un Evaluador predeterminado basado en LLM.

Para crear tus propios evaluadores:

  1. Selecciona Crear nuevo:

  2. Selecciona el tipo de evaluador:

    1. LLM como juez: similitud semántica: crea tu propio evaluador basado en LLM.

    2. Coincidencia exacta: comprueba si la salida del agente coincide con la salida esperada.

    3. Similitud de JSON: comprueba si dos estructuras o valores JSON son similares.

  3. Selecciona Continuar.

  4. Configura el evaluador:

    1. Añade un nombre y una descripción relevantes.

    2. Selecciona los Campos de salida de destino:
      • Objetivo en nivel raíz (* Todos): evalúa toda la salida.

      • Objetivo específico del campo: evalúa los campos específicos de primer nivel. Utiliza el menú desplegable para seleccionar un campo. Los campos de salida enumerados se heredan de los argumentos de salida que definiste para la solicitud del sistema.

    3. Añade una solicitud (solo para el evaluador basado en LLM).

Elegir el tipo de evaluador

Si no sabes qué tipo de evaluador se adapta a tus necesidades, consulta las siguientes recomendaciones:

  • LLM-como-juez:

    • Recomendado como enfoque predeterminado cuando se orienta a la salida raíz.

    • Proporciona evaluación flexible de salidas complejas.

    • Puede evaluar la calidad y la corrección más allá de la coincidencia exacta.

    • Se recomienda usarlo al evaluar el razonamiento, las respuestas de lenguaje natural o los resultados estructurados complejos.

  • Determinista (coincidencia exacta o similitud de JSON):

    • Recomendado cuando se esperan coincidencias exactas.

    • Más eficaz cuando los requisitos de salida están definidos de forma estricta.

    • Funciona con objetos complejos, pero es mejor usarlo con:

      • Respuestas booleanas (verdadero/falso)

      • Valores numéricos específicos

      • Coincidencias exactas de las cadenas

      • Matrices de primitivas.

Trabajar con evaluaciones

Estructurar tu solicitud de evaluación

Una salida bien estructurada hace que las evaluaciones sean más fiables. Por eso es bueno tener salidas estructuradas: garantiza la coherencia y facilita las comparaciones.

Este es un ejemplo de una solicitud predefinida que evalúa toda la salida:

Ejemplo de solicitud

Como evaluador experto, analiza la similitud semántica de estos contenidos JSON para determinar una puntuación de 0 a 100. Céntrate en comparar el significado y la equivalencia contextual de los campos correspondientes, teniendo en cuenta expresiones válidas alternativas, sinónimos y variaciones razonables en el lenguaje para mantener altos estándares de precisión e integridad.Justifica tu puntuación, explicando de forma breve y concisa por qué has otorgado esa puntuación.

Salida esperada: {{ExpectedOutput}}

Salida real: {{ActualOutput}}

Número de evaluaciones

La puntuación del agente considera más de 30 evaluaciones como un buen punto de referencia.

Para agentes simples, procura realizar aproximadamente 30 evaluaciones en entre 1 y 3 conjuntos de evaluación.Para agentes más complejos, te recomendamos que cuentes al menos con el doble de esa cantidad o más.

El número de evaluaciones depende de:

  • Complejidad del agente
    • Número de parámetros de entrada
    • Complejidad de la estructura de salida
    • Patrones de uso de herramientas
    • Ramas de decisión.
  • Entrada
    • Rango de posibles entradas: tipos de datos, rangos de valores, campos opcionales
    • Casos límite
  • Patrones de uso
    • Casos de uso comunes
    • Distintas personalidades
    • Escenarios de error

Conjuntos de evaluación

Agrupar evaluaciones en conjuntos ayuda a organizarlas mejor. Por ejemplo, puedes tener:

  • Un conjunto para una evaluación completa de salida.
  • Otro para casos límite
  • Otro para manejar errores ortográficos.

Principios de cobertura

  • Cobertura lógica: asigna combinaciones de entrada, casos límite y condiciones de límite.
  • Gestión de redundancias: procura realizar entre 3 y 5 evaluaciones diferentes por caso lógicamente equivalente.
  • Calidad sobre cantidad: más evaluaciones no siempre significan mejores resultados. Concéntrate en pruebas significativas.

Cuándo crear evaluaciones

Crea evaluaciones una vez que los argumentos sean estables o completos. Eso también significa que tu caso de uso se ha establecido y la solicitud, las herramientas y los contextos están finalizados. Si modificas los argumentos, debes ajustar tus evaluaciones en consecuencia. Para minimizar el trabajo adicional, es mejor empezar con agentes estables que tengan casos de uso bien definidos. Puedes exportar e importar conjuntos de evaluación entre agentes dentro de la misma organización o entre diferentes organizaciones.Mientras el diseño de tu agente esté completo, puedes mover las evaluaciones según sea necesario sin tener que volver a crearlas desde cero.

¿Te ha resultado útil esta página?

Obtén la ayuda que necesitas
RPA para el aprendizaje - Cursos de automatización
Foro de la comunidad UiPath
Uipath Logo White
Confianza y seguridad
© 2005-2025 UiPath. Todos los derechos reservados.