test-manager
latest
false
- Primeros pasos
- Gestión de proyecto
- Documentos
- Trabajo con el análisis de impacto de cambios
- Creación de casos de prueba
- Assigning test cases to requirements
- Clonación de casos de prueba
- Exportar casos de prueba
- Linking test cases in Studio to Test Manager
- Delete test cases
- Casos de prueba manuales
- Importar casos de prueba manuales
- Documentar casos de prueba con Task Capture
- Parámetros
- Aplicar filtros y vistas
- Importar conjuntos de pruebas de Orchestrator
- Creating test sets
- Assigning test cases to a test set
- Habilitación de la cobertura de actividad
- Configurar conjuntos de pruebas para carpetas de ejecución y robots específicos
- Anular parámetros
- Clonación de conjuntos de pruebas
- Exportar conjuntos de pruebas
- Aplicar filtros y vistas
- Ejecución de pruebas manuales
- Ejecución de pruebas automatizadas
- Ejecutar casos de prueba sin un conjunto de pruebas
- Ejecutar pruebas mixtas
- Crear ejecuciones pendientes
- Aplicar una orden de ejecución
- Volver a ejecutar ejecuciones de prueba
- Programar ejecuciones
- Solución de problemas de ejecuciones automatizadas
- Crear pruebas automatizadas
- Paso 1: completar los requisitos previos para los escenarios de rendimiento
- Paso 2: añadir escenarios de rendimiento
- Paso 3: añadir casos de prueba a grupos de carga
- Paso 4: configurar los ajustes del grupo de carga
- Ejecutar escenarios de rendimiento
- Limitaciones conocidas para las pruebas de rendimiento
- Mejores prácticas para pruebas de rendimiento
- Solución de problemas de pruebas de rendimiento
- Buscar con Autopilot
- Operaciones y utilidades del proyecto
- Configuración de Test Manager
- Integración de herramientas de ALM
- Integración de API
- Solución de problemas
Importante :
La localización de contenidos recién publicados puede tardar entre una y dos semanas en estar disponible.

Guía de usuario de Test Manager
Última actualización 11 de nov. de 2025
Los grupos de carga definen los casos de prueba específicos que se ejecutarán en paralelo a escala. Cada grupo puede representar una carga de trabajo distinta (por ejemplo, flujo de inicio de sesión frente a flujo de transacción).
En los sistemas del mundo real, el tráfico de aplicaciones rara vez proviene de un único tipo de usuario o sigue un patrón uniforme. Al diseñar escenarios con tipos de casos de prueba, perfiles de carga y tiempos de ejecución variados, se simulan condiciones de uso realistas, lo que hace más probable descubrir cuellos de botella y validar que la aplicación puede manejar demandas reales a escala de producción.
Al combinar varios grupos de carga dentro de un escenario, puedes:
- Mezcle diferentes tipos de automatización: incluya API, IU web y casos de prueba de escritorio para reflejar la diversidad de cómo los usuarios y los sistemas interactúan con la aplicación. Por ejemplo, las llamadas a la API pueden ejecutarse en gran volumen mientras que menos usuarios de escritorio o web realizan transacciones más complejas.
- Simula patrones de tráfico realistas: los diferentes grupos de carga te permiten modelar tiempos variados, aumentos y cargas máximas. Algunos usuarios pueden iniciar sesión continuamente, mientras que otros generan actividad en ráfagas o picos, como se muestra en la captura de pantalla en la que un grupo se ejecuta de forma constante mientras que otros aumentan y disminuyen en diferentes momentos.
- Detectar efectos de interacción: la ejecución de diferentes cargas de trabajo en paralelo resalta cómo un proceso puede afectar al rendimiento de otro. Por ejemplo, un aumento en las solicitudes de API puede ralentizar las transacciones web, o una gran actividad de inicio de sesión podría afectar a los tiempos de procesamiento de back-end.
- Estresar el sistema de forma integral: varios grupos juntos crean una carga de trabajo de extremo a extremo más auténtica, garantizando que el sistema se valide contra el estrés combinado, no solo casos de prueba aislados. Esto mejora la confianza en que el rendimiento en el entorno de prueba refleja el comportamiento de producción.
- Inicia sesión en Test Manager.
- Ve a Escenarios de rendimiento y abre un escenario.
- Selecciona Añadir grupo de carga o selecciona el campo Caso de prueba en un grupo de carga vacío para abrir el cuadro de diálogo de selección.
- Para establecer el contexto de ejecución, en Carpeta predeterminada, selecciona la carpeta de Orchestrator donde están asignados tu usuario y robot.
- Elige el caso de prueba que deseas ejecutar a escala.
-
Selecciona el tipo de robot.
- Los robots sin servidor en la nube consumen Platform Units y se recomiendan para pruebas web y de API.
- Los robots locales consumen tiempos de ejecución (250 por paquete de usuarios virtuales), que deben configurarse en plantillas de máquina en Orchestrator.
- Selecciona la versión del paquete de la automatización que deseas ejecutar. De forma predeterminada, se elige automáticamente la última versión.
- Confirme su selección.