test-manager
latest
false
- Primeros pasos
- Gestión de proyecto
- Documentos
- Trabajo con el análisis de impacto de cambios
- Creación de casos de prueba
- Assigning test cases to requirements
- Clonación de casos de prueba
- Exportar casos de prueba
- Linking test cases in Studio to Test Manager
- Delete test cases
- Casos de prueba manuales
- Importar casos de prueba manuales
- Documentar casos de prueba con Task Capture
- Parámetros
- Aplicar filtros y vistas
- Importar conjuntos de pruebas de Orchestrator
- Creating test sets
- Añadir casos de prueba a un conjunto de pruebas
- Asignar usuarios predeterminados en la ejecución del conjunto de pruebas
- Habilitación de la cobertura de actividad
- Habilitar Healing Agent
- Configurar conjuntos de pruebas para carpetas de ejecución y robots específicos
- Anular parámetros
- Clonación de conjuntos de pruebas
- Exportar conjuntos de pruebas
- Aplicar filtros y vistas
- Ejecución de pruebas manuales
- Ejecución de pruebas automatizadas
- Ejecutar casos de prueba sin un conjunto de pruebas
- Ejecutar pruebas mixtas
- Crear ejecuciones pendientes
- Aplicar una orden de ejecución
- Volver a ejecutar ejecuciones de prueba
- Programar ejecuciones
- Solución de problemas de ejecuciones automatizadas
- Preguntas frecuentes: paridad de características: Test Manager frente a Orchestrator
- Pruebas de rendimiento: descripción general
- Requisitos de software y sistema
- Requisitos del sistema del robot local
- Crear pruebas automatizadas
- Ejecutar escenarios de rendimiento
- Limitaciones conocidas para las pruebas de rendimiento
- Mejores prácticas para pruebas de rendimiento
- Solución de problemas de pruebas de rendimiento
- Pruebas de accesibilidad para Test Cloud
- Buscar con Autopilot
- Operaciones y utilidades del proyecto
- Configuración de Test Manager
- Configuración del nivel de tenant
- Gestión de acceso de usuario y grupo
- Búsqueda de Autopilot
- Campos personalizados
- Biblioteca de solicitudes
- Configuración general del proyecto
- Configuración del proyecto de automatización
- Mis notificaciones
- Cifrado de claves administradas por el cliente
- Registros de auditoría
- Integración de herramientas de ALM
- Integración de API
- Solución de problemas
Importante :
La localización de contenidos recién publicados puede tardar entre una y dos semanas en estar disponible.

Guía de usuario de Test Manager
Última actualización 11 de mar. de 2026
Antes de crear y ejecutar escenarios de pruebas de rendimiento en Test Manager, asegúrate de que tu organización y tenant cumplen los requisitos previos de infraestructura, robot y automatización de pruebas necesarios. La configuración depende del tipo de robot utilizado para ejecutar la carga con: robots en la nube o robots unattended en las instalaciones.
Las pruebas de rendimiento reutilizan tus casos de prueba funcionales automatizados existentes. Asegúrate de crear tus pruebas de Studio en función de las siguientes condiciones:
- Utiliza una versión de UiPath Studio igual o superior a 2025.10.
- Utiliza un tipo de proyecto de Probar automatización.
- Utilizando las últimas versiones del paquete de actividades:
System.Activitiesversión 25.4.2 o posteriorTesting.Activitiesversión 25.10.0 o posteriorUIAutomation.Activitiesversión 25.10.2 o posteriorWebAPI.Activitiesversión 2.1.0 o superior
Configura los tipos de robots que necesites.
- Los robots en la nube sin servidor consumen Platform Units y son los más adecuados para las pruebas web y de API. Se escalan automáticamente en Test Cloud, pero no son compatibles con las automatizaciones de escritorio.
- Los robots locales consumen 250 tiempos de ejecución por paquete de usuarios virtuales y son necesarios para las pruebas de rendimiento de escritorio. Estos tiempos de ejecución deben asignarse dentro de las plantillas de máquina en Orchestrator. Consulta los requisitos del sistema para robots locales.
Los escenarios de rendimiento a menudo requieren datos de prueba dinámicos a escala. Test Manager puede conectarse a entidades de Data Fabric, que sirven como origen de datos de prueba parametrizados durante la ejecución del escenario. Esto garantiza una entrada realista y variada para los usuarios virtuales concurrentes.