agents
latest
false
Importante :
La localización de contenidos recién publicados puede tardar entre una y dos semanas en estar disponible.
UiPath logo, featuring letters U and I in white

Guía del usuario de agentes

Última actualización 19 de dic. de 2025

Evaluaciones

Acerca de las evaluaciones

Cuando diseñas un agente, el objetivo es que sea fiable: algo en lo que puedas confiar para que te dé el resultado correcto de forma consistente. Las evaluaciones te ayudan a determinar si tu agente está haciendo un buen trabajo o si necesita mejoras.

Terminología

Una evaluación es un par entre una entrada y una aserción (o evaluador) realizada en la salida. El evaluador es una condición o regla definida que se utiliza para evaluar si la salida del agente cumple con el resultado o la trayectoria esperados.

Los conjuntos de evaluación son agrupaciones lógicas de evaluaciones y evaluadores.

Los resultados de la evaluación son seguimientos de las ejecuciones de evaluación completadas que evalúan el rendimiento de un agente. Durante estas ejecuciones, la precisión, la eficiencia y la capacidad de toma de decisiones del agente se miden y se puntúan en función del rendimiento del agente.

La puntuación de evaluación determina el rendimiento del agente en función de las aserciones en una evaluación específica. La puntuación es en una escala de 0 a 100. Si has fallado las ejecuciones de evaluación, debes diagnosticar la causa, depurar y volver a ejecutarlas.

Crear evaluaciones

Antes de crear evaluaciones a escala, puedes probar primero tu agente en escenarios desactivados para ver si el agente puede realizar su tarea y si la salida es correcta o no. Si tu agente genera la salida correcta, puedes crear evaluaciones a partir de las ejecuciones correctas. Si tu agente no genera la salida correcta, puedes corregir la salida y crear una evaluación con la salida esperada, puedes crear evaluaciones desde cero.

Crear evaluaciones a partir de ejecuciones de pruebas

  1. Después de diseñar tu agente, selecciona Configuración de depuración.
  2. En la ventana Configuración de depuración, confirma los recursos utilizados en la solución y:
    1. Proporciona la entrada para la ejecución de la prueba:
      • Proporciona entradas manualmente escribiendo el contenido, o
      • Simula entradas: utiliza un LLM para generar entradas para los argumentos de tu agente. Puedes dejar que el LLM genere automáticamente entradas o proporcione instrucciones para dirigirlo hacia ejemplos específicos.
    2. Configura si quieres probar con herramientas reales o simular una, más o todas tus herramientas.
      • Simular herramientas: utiliza un LLM para simular una o más herramientas de agente. Describe cómo debe responder cada herramienta y simula los conjuntos de herramientas parciales o completos en los que se basa tu agente.
  3. Selecciona Guardar y depurar. Los resultados se muestran en el panel inferior Seguimiento de ejecución . Los indicadores están disponibles para mostrar cuando tu agente se está ejecutando con datos reales o simulados.
  4. Si la salida es correcta, selecciona el botón Añadir al conjunto de evaluación. Si la salida no es correcta, puedes:
    • Refinar la solicitud: ajusta la solicitud y prueba el agente hasta que la salida sea correcta.
    • Crear evaluaciones a partir de salidas incorrectas: genera evaluaciones basadas en las salidas incorrectas y edítalas manualmente para que se alineen con el resultado esperado.
  5. Las ejecuciones de pruebas se enumeran en la ventana Añadir al conjunto de evaluación . Selecciona Añadir al conjunto predeterminado para cualquier ejecución que quieras añadir a una evaluación. Si ya has creado un conjunto de evaluación, puedes seleccionarlo de la lista desplegable disponible.
  6. A continuación, ve al panel Conjuntos de evaluación. Hay tres opciones disponibles:
    1. Utiliza el conjunto de evaluación prediseñado para organizar tus evaluaciones.
    2. Genera un nuevo conjunto con entradas y herramientas simuladas.
    3. Añade evaluaciones en conjuntos existentes con datos reales y simulados.
  7. Selecciona Evaluar conjunto para ejecutar las evaluaciones. También puedes seleccionar evaluaciones específicas a partir del conjunto que deseas evaluar.
  8. Ve a la pestaña Resultados para ver la puntuación y los detalles de la evaluación.

Crear evaluaciones desde cero

  1. Después de diseñar tu agente, ve a la pestaña Conjuntos de evaluación y selecciona Crear nuevo. También puedes seleccionar Importar para utilizar datos JSON existentes de evaluaciones de otros agentes.
  2. Añade un nombre relevante para el conjunto de evaluación.
  3. Selecciona Añadir al conjunto para crear nuevas evaluaciones. Para cada nueva evaluación del conjunto:
    1. Añade un nombre.
    2. Añade valores para los campos de Entrada (heredados de los argumentos de entrada definidos) y la Salida esperada.
    3. Selecciona Guardar.
  4. A continuación, selecciona Establecer evaluadores para asignar evaluadores al conjunto de evaluación. Puedes asignar uno o varios evaluadores a un conjunto.
  5. Selecciona Guardar cambios.
  6. En la página principal de Conjuntos de evaluación, selecciona Ejecutar conjunto de evaluación para cada conjunto que deseas ejecutar.
  7. Ve a la pestaña Resultados para ver la puntuación y los detalles de la evaluación.

Crear evaluaciones a partir de seguimientos de runtime

Puedes crear evaluaciones de agentes directamente a partir de los seguimientos de runtime, lo que te permite convertir los comentarios de producción en casos de prueba accionables para mejoras en tiempo de diseño.

  1. Primero, ejecuta tu agente.
  2. En Orchestrator, ve a Automatizaciones > Trabajos y abre los seguimientos de trabajo para la ejecución del agente. Como alternativa, ve a la página Gestión de instancias de agente para ver los seguimientos de las ejecuciones de agente.
  3. Proporciona comentarios para las ejecuciones del agente:
    • Para cada seguimiento, selecciona el icono de pulgares arriba o abajo.
    • Añade un comentario para hacer que la evaluación sea procesable.
  4. Obtener seguimientos de runtime en la definición del agente:
    • Vuelve a tu agente en Studio Web y ve a Evaluaciones > Conjuntos de evaluación.
    • En el botón Crear, selecciona Obtener seguimientos de runtime para extraer seguimientos que hayan recibido comentarios.
  5. Añadir seguimientos a un conjunto de evaluación:
    • De los seguimientos recuperados, selecciona Añadir al conjunto de evaluación.
    • Edita la entrada y la salida esperada si es necesario.
    • Guarda el seguimiento en el conjunto de evaluación elegido.
  6. Guarda el seguimiento en el conjunto de evaluación elegido.

Una vez añadidos, los seguimientos de runtime están claramente etiquetados como ejecuciones de runtime dentro del conjunto de evaluación, lo que facilita la distinción de las ejecuciones de prueba sin conexión. Estos seguimientos también actualizan la puntuación de evaluación general del agente automáticamente, lo que te brinda visibilidad inmediata de cómo los comentarios del mundo real mejoran el rendimiento del agente.

Generar evaluaciones

También puedes crear conjuntos de evaluación con simulaciones. Genera nuevos conjuntos de evaluación (o añádelos a los ya existentes) utilizando entradas y herramientas simuladas.

  1. Selecciona Crear.
  2. Selecciona Generar nuevo conjunto de evaluación. Puedes dejar que el LLM genere automáticamente el conjunto de evaluación en función de tu agente existente, sus ejecuciones de diseño, argumentos o proporcionar solicitudes para dirigirlo hacia ejemplos específicos. Para obtener más información, consulta Configurar simulaciones en evaluaciones.

Definir evaluadores

Utiliza el panel Evaluadores para crear y gestionar tus evaluadores. De forma predeterminada, cada agente tiene un Evaluador predeterminado basado en LLM.

Para crear tus propios evaluadores:

  1. Selecciona Crear nuevo:
  2. Selecciona el tipo de evaluador: a. LLM como juez: similitud semántica : crea tu propio evaluador basado en LLM. b. Coincidencia exacta : comprueba si la salida del agente coincide con la salida esperada. c. Similitud de JSON : comprueba si dos estructuras o valores JSON son similares. D. Evaluador de trayectoria : utiliza IA para juzgar al agente en función del historial de ejecución y el comportamiento esperado.
  3. Selecciona Continuar.
  4. Configura el evaluador: a. Añade un nombre y una descripción relevantes. b. Selecciona los campos de salida de destino:
    • Orientación a nivel de raíz (Todos): evalúa toda la salida.
    • Segmentación específica de campo: evalúa campos específicos de primer nivel. Utiliza el menú desplegable para seleccionar un campo. Los campos de salida enumerados se heredan de los argumentos de salida que definiste para la solicitud del sistema. c. Añade una solicitud (solo para el evaluador basado en LLM).

Elegir el tipo de evaluador

Si no sabes qué tipo de evaluador se adapta a tus necesidades, consulta las siguientes recomendaciones:

  • LLM-como-juez:
    • Recomendado como enfoque predeterminado cuando se orienta a la salida raíz.
    • Proporciona evaluación flexible de salidas complejas.
    • Puede evaluar la calidad y la corrección más allá de la coincidencia exacta.
    • Se recomienda usarlo al evaluar el razonamiento, las respuestas de lenguaje natural o los resultados estructurados complejos.
  • Determinista (coincidencia exacta o similitud de JSON):
    • Recomendado cuando se esperan coincidencias exactas.
    • Más eficaz cuando los requisitos de salida están definidos de forma estricta.
    • Funciona con objetos complejos, pero es mejor usarlo con:
      • Respuestas booleanas (verdadero/falso)
      • Valores numéricos específicos
      • Coincidencias exactas de las cadenas
      • Matrices de primitivas.

Configurar simulaciones en evaluaciones

Nota:

Esta característica está disponible en vista previa.

Las simulaciones mejoran las evaluaciones de agentes al permitir pruebas seguras, rápidas y rentables a través de herramientas y comportamientos de escalada simulados en lugar de puntos finales reales. Ofrecen un control granular en el nivel de evaluación, lo que permite a los equipos definir qué componentes simular y combinar ejecuciones reales y simuladas dentro del mismo conjunto de evaluación. Esta flexibilidad admite entradas fijas o generadas y tanto la salida literal como la clasificación basada en el comportamiento, mejorando la cobertura de la prueba, la reproducibilidad y la capacidad de evaluar si los agentes se comportan como se espera.

Para obtener más información, consulta Configurar simulaciones para herramientas de agente.

Cómo configurar simulaciones de evaluación

Para configurar nuevos conjuntos de evaluación utilizando simulaciones, sigue estos pasos:

  1. En la pestaña Conjuntos de evaluación, selecciona Crear y luego Generar nuevo conjunto de evaluación.
  2. Introduce una descripción de los casos de evaluación que quieres generar. Puedes proporcionar contexto de alto nivel, escenarios específicos o pegar contenido relevante para guiar la generación. Si dejas este campo en blanco, los casos de evaluación se seguirán generando automáticamente para ti.
  3. Selecciona Generar evaluaciones. Autopilot genera varias evaluaciones. Para cada evaluación, puedes ver y editar las instrucciones de simulación, las instrucciones de generación de entrada y las notas de comportamiento esperadas.
  4. Selecciona qué evaluaciones quieres utilizar y luego Añadir conjunto.

Generar un nuevo conjunto de evaluación

Añadir evaluaciones generadas a un conjunto

Para configurar simulaciones para evaluaciones existentes, sigue estos pasos:

  1. Abre cualquier conjunto de evaluación y selecciona Editar en cualquier evaluación. Se muestra el panel Editar evaluación.
  2. En la sección Organizar, define o genera datos de entrada utilizando valores manuales o instrucciones de generación de runtime. Si defines los datos de entrada manualmente, puedes establecer el campo Pruebas en Verdadero para indicar que forma parte de un escenario de prueba.
  3. En la sección Acto, elige si cada herramienta debe simular comportamiento o ejecutar llamadas reales y añade instrucciones de simulación. La ejecución de herramientas es la configuración predeterminada.
  4. En la sección Afirmar, especifica si la evaluación se basa en la coincidencia de salida o en la trayectoria del agente, y describe el comportamiento y el resultado esperados.
  5. Selecciona Guardar para aplicar tu configuración.

Figura 1. Configurar simulaciones de herramientas en evaluaciones

docs image

Testing model settings within evaluations

You can use evaluation sets to compare different model configurations and understand how they affect your agent’s behavior. Evaluations allow you to test multiple model/temperature combinations side by side, using the same scenarios and expected outputs. This helps you identify the configuration that delivers the right balance of accuracy, speed, and cost.

  1. From the Agent Builder Explorer panel, select Evaluation sets.

  2. Select an evaluation set.

  3. Select the gear icon to open Evaluation settings. docs image

  4. In the Evaluation set properties panel, add multiple temperature and model combinations. For example:

    • Temperature 0.2, Model A
    • Temperature 0.5, Model A
    • Temperature 0.7, Model A
    • Temperature 0.5, Model B

    Each configuration creates a separate evaluation run.

    docs image

  5. Select Evaluate set to run all configurations. After the runs complete, open the Results tab to compare them.

    docs image

Trabajar con evaluaciones

Dónde trabajar con las evaluaciones

Puedes trabajar con evaluaciones en dos lugares, dependiendo de tu flujo de trabajo:

  • Panel inferior en el lienzo de diseño : proporciona acceso rápido a las evaluaciones mientras estás creando o probando activamente tu agente. El panel incluye:

    • Pestaña Historial para ver ejecuciones anteriores con seguimientos completos y añadirlas directamente a los conjuntos de evaluación.
    • Pestaña Evaluaciones para ver tus conjuntos de evaluación, revisar puntuaciones recientes, profundizar en detalles o volver a ejecutar pruebas individualmente o como un conjunto completo. También puedes comparar las salidas reales frente a las esperadas y actualizar las evaluaciones con la salida real cuando sea correcto.
    • Pestaña Seguimiento de ejecución para seguir los detalles de seguimiento de la ejecución actual en tiempo real. Para los agentes conversacionales, esta pestaña está disponible como Chat y proporciona una ventana de chat interactiva para probar el agente, al tiempo que muestra el seguimiento de ejecución para cada intercambio conversacional.
  • Pestaña Evaluaciones en la definición del agente : proporciona el espacio de trabajo de evaluación completo. Desde aquí, puedes crear y organizar conjuntos de evaluación, asignar evaluadores, configurar entradas y salidas esperadas y ejecutar evaluaciones a escala. Este es el mejor lugar para configurar escenarios de evaluación estructurados y gestionar los activos de evaluación a lo largo del tiempo.

El uso del panel inferior ayuda durante la iteración y la depuración diarias, mientras que la pestaña Evaluaciones dedicada es más adecuada para la gestión y configuración completo del conjunto de evaluación.

Estructurar tu solicitud de evaluación

Una salida bien estructurada hace que las evaluaciones sean más fiables. Por eso es bueno tener salidas estructuradas: garantiza la coherencia y facilita las comparaciones.

Este es un ejemplo de una solicitud predefinida que evalúa toda la salida:

Ejemplo de solicitud

Como evaluador experto, analiza la similitud semántica de estos contenidos JSON para determinar una puntuación de 0 a 100. Céntrate en comparar el significado y la equivalencia contextual de los campos correspondientes, teniendo en cuenta expresiones válidas alternativas, sinónimos y variaciones razonables en el lenguaje para mantener altos estándares de precisión e integridad.Justifica tu puntuación, explicando de forma breve y concisa por qué has otorgado esa puntuación.

Expected Output: {{ExpectedOutput}}

ActualOutput: {{ActualOutput}}

Número de evaluaciones

La Puntuación de agente tiene en cuenta más de 30 evaluaciones como un buen punto de referencia.

Para agentes simples, procura realizar aproximadamente 30 evaluaciones en entre 1 y 3 conjuntos de evaluación.Para agentes más complejos, te recomendamos que cuentes al menos con el doble de esa cantidad o más.

El número de evaluaciones depende de:

  • Complejidad del agente
    • Número de parámetros de entrada
    • Complejidad de la estructura de salida
    • Patrones de uso de herramientas
    • Ramas de decisión.
  • Entrada
    • Rango de posibles entradas: tipos de datos, rangos de valores, campos opcionales
    • Casos límite
  • Patrones de uso
    • Casos de uso comunes
    • Distintas personalidades
    • Escenarios de error

Conjuntos de evaluación

Agrupar evaluaciones en conjuntos ayuda a organizarlas mejor. Por ejemplo, puedes tener:

  • Un conjunto para una evaluación completa de salida.
  • Otro para casos límite
  • Otro para manejar errores ortográficos.

Principios de cobertura

  • Cobertura lógica: asigna combinaciones de entrada, casos límite y condiciones de límite.
  • Gestión de redundancias: procura realizar entre 3 y 5 evaluaciones diferentes por caso lógicamente equivalente.
  • Calidad sobre cantidad: más evaluaciones no siempre significan mejores resultados. Concéntrate en pruebas significativas.

Cuándo crear evaluaciones

Crea evaluaciones una vez que los argumentos sean estables o completos. Eso también significa que tu caso de uso se ha establecido y la solicitud, las herramientas y los contextos están finalizados. Si modificas los argumentos, debes ajustar tus evaluaciones en consecuencia. Para minimizar el trabajo adicional, es mejor empezar con agentes estables que tengan casos de uso bien definidos. Puedes exportar e importar conjuntos de evaluación entre agentes dentro de la misma organización o entre diferentes organizaciones.Mientras el diseño de tu agente esté completo, puedes mover las evaluaciones según sea necesario sin tener que volver a crearlas desde cero.

¿Te ha resultado útil esta página?

Obtén la ayuda que necesitas
RPA para el aprendizaje - Cursos de automatización
Foro de la comunidad UiPath
Uipath Logo
Confianza y seguridad
© 2005-2025 UiPath. Todos los derechos reservados.