- Primeros pasos
- Gestión de proyecto
- Documentos
- Trabajo con el análisis de impacto de cambios
- Creación de casos de prueba
- Assigning test cases to requirements
- Clonación de casos de prueba
- Exportar casos de prueba
- Linking test cases in Studio to Test Manager
- Delete test cases
- Casos de prueba manuales
- Importar casos de prueba manuales
- Documentar casos de prueba con Task Capture
- Parámetros
- Aplicar filtros y vistas
- Importar conjuntos de pruebas de Orchestrator
- Creating test sets
- Añadir casos de prueba a un conjunto de pruebas
- Asignar usuarios predeterminados en la ejecución del conjunto de pruebas
- Habilitación de la cobertura de actividad
- Habilitar Healing Agent
- Configurar conjuntos de pruebas para carpetas de ejecución y robots específicos
- Anular parámetros
- Clonación de conjuntos de pruebas
- Exportar conjuntos de pruebas
- Aplicar filtros y vistas
- Ejecución de pruebas manuales
- Ejecución de pruebas automatizadas
- Ejecutar casos de prueba sin un conjunto de pruebas
- Ejecutar pruebas mixtas
- Crear ejecuciones pendientes
- Aplicar una orden de ejecución
- Volver a ejecutar ejecuciones de prueba
- Programar ejecuciones
- Solución de problemas de ejecuciones automatizadas
- Preguntas frecuentes: paridad de características: Test Manager frente a Orchestrator
- Crear pruebas automatizadas
- Ejecutar escenarios de rendimiento
- Limitaciones conocidas para las pruebas de rendimiento
- Mejores prácticas para pruebas de rendimiento
- Solución de problemas de pruebas de rendimiento
- Pruebas de accesibilidad para Test Cloud
- Buscar con Autopilot
- Operaciones y utilidades del proyecto
- Configuración de Test Manager
- Configuración del nivel de tenant
- Gestión de acceso de usuario y grupo
- Búsqueda de Autopilot
- Campos personalizados
- Biblioteca de solicitudes
- Configuración general del proyecto
- Configuración del proyecto de automatización
- Mis notificaciones
- Cifrado de claves administradas por el cliente
- Registros de auditoría
- Integración de herramientas de ALM
- Integración de API
- Solución de problemas

Guía de usuario de Test Manager
Asegúrese de que los casos de prueba sean robustos, con datos estables y libres de escamas antes de escalar.
Utilice el aumento gradual para simular un tráfico realista y evitar fases pico poco realistas largas o cortas.
Prepara conjuntos de datos parametrizados (a través de Data Fabric) para evitar entradas duplicadas que podrían sesgar los resultados.
- Asegúrese de que haya suficientes recursos de infraestructura.
- Valide las pruebas localmente antes de publicarlas.
- Utiliza las últimas versiones del paquete.
The following recommendations expand on the general best practices for performance testing, specifically for browser automation scenarios. Performance testing requires running multiple virtual users (VUs) simultaneously on the same machine, which introduces constraints that do not exist in single-user execution.
- Avoid local file system operations.
Any step that reads from or writes to a local file relies on Windows file handles. Windows locks a file handle when it is opened by one process, blocking all other processes from accessing the same file. This causes failures when multiple VUs run concurrently.
Ejemplos comunes:
- Reading test data from Excel or CSV — Multiple VUs cannot open the same file simultaneously. Use Data Fabric instead to serve test data concurrently without file handle contention.
- Writing screenshots into Word documents — Evidence capture is typically only relevant for functional testing and should not be part of a performance test. In a load test, hundreds of VUs run in loops — each iteration would generate its own documents, quickly producing an unmanageable volume of artifacts.
- Any other local file interaction — Configuration files, log files, intermediate data stores — all are subject to file handle locking.
- Prefer Chromium API - Avoid Hardware Events and Computer Vision.
Approach Descripción Multi-VU Compatibility Chromium API (simulated DOM events) Triggers events directly on DOM elements within the browser instance via selectors. No real input occurs at OS level — the browser handles the interaction internally. Excellent — independent per instance; works on background windows. Eventos de hardware Generates real mouse/key input at OS level. The OS delivers it to the currently active (foreground) window. Poor — input goes to whichever window is in the foreground, not necessarily the intended browser instance. Computer Vision Locates elements by visual pattern matching on screen. Not viable — background browser instances are invisible to image recognition. - Always default to Chromium API.
Chromium API operates directly on the DOM and works regardless of whether the browser window is in the foreground, minimized, or hidden.
- Avoid Hardware Events.
Hardware events are delivered by the OS to the active window. With multiple VUs, a hardware event intended for one browser instance will be sent to whichever window is currently in the foreground. Hardware events are not suited when multiple automations run in parallel on the same machine.
- Avoid Computer Vision.
Computer Vision cannot interact with background windows and is therefore incompatible with multi-VU execution. Incorrect or ambiguous selectors are the most common reason a framework falls back to computer vision. Ensure selectors are correct and validated during development. Strict selectors (IDs, data-test attributes, ARIA roles) work well, particularly for applications like SAP Fiori. Fuzzy selectors are also compatible with performance testing as long as they reliably match the intended element without triggering a computer vision fallback.
- Dry Run recommendation
When you add a test case to a performance scenario for the first time, the tool prompts you to perform a dry run. A dry run runs multiple instances on the same machine to confirm there are no file locks, input conflicts, or selector issues before scaling to full load.