- Primeros pasos
- Gestión de proyecto
- Documentos
- Trabajo con el análisis de impacto de cambios
- Creación de casos de prueba
- Assigning test cases to requirements
- Clonación de casos de prueba
- Exportar casos de prueba
- Linking test cases in Studio to Test Manager
- Delete test cases
- Casos de prueba manuales
- Importar casos de prueba manuales
- Documentar casos de prueba con Task Capture
- Parámetros
- Aplicar filtros y vistas
- Importar conjuntos de pruebas de Orchestrator
- Creating test sets
- Assigning test cases to a test set
- Habilitación de la cobertura de actividad
- Configurar conjuntos de pruebas para carpetas de ejecución y robots específicos
- Anular parámetros
- Clonación de conjuntos de pruebas
- Exportar conjuntos de pruebas
- Aplicar filtros y vistas
- Ejecución de pruebas manuales
- Ejecución de pruebas automatizadas
- Ejecutar casos de prueba sin un conjunto de pruebas
- Ejecutar pruebas mixtas
- Crear ejecuciones pendientes
- Aplicar una orden de ejecución
- Volver a ejecutar ejecuciones de prueba
- Programar ejecuciones
- Solución de problemas de ejecuciones automatizadas
- Buscar con Autopilot
- Operaciones y utilidades del proyecto
- Configuración de Test Manager
- Integración de herramientas de ALM
- Integración de API
- Solución de problemas

Guía de usuario de Test Manager
Para habilitar los informes con Insights, sigue estos pasos:
- Habilita el servicio de Insights en el mismo tenant que tu instancia de Test Manager.
Necesitas un rol de administrador de la organización de Automation Cloud para habilitar un servicio.
- Desde Test Manager, activa la configuración Habilitar informes con Insights a nivel de tenant.
Necesitas un rol de tenant de Administrador de Test Manager para habilitar la integración con Insights.
Para obtener más información sobre la activación de la configuración, consulta Configuración a nivel de tenant.
Una vez que habilites la integración de Insights en tu tenant de Test Manager, podrás acceder a los análisis de todos tus proyectos de prueba dentro de ese tenant. Insights recupera datos de Test Manager, en función de un modelo de datos específico, y los presenta a través del panel predefinido Informe de ejecución de Test Manager . Este panel proporciona una descripción general de todas tus ejecuciones de prueba dentro de tu tenant.
Insights utiliza registros de casos de prueba de Test Manager para generar los paneles personalizables. Para obtener más información sobre el modelo de datos utilizado por Insights para generar los paneles, consulta la sección Modelo de datos de Test Manager .
Terms and concepts
La estructura del modelo de datos de Test Manager se basa en los siguientes conceptos:
Concepto |
Descripción |
---|---|
Explore |
El punto de partida de la exploración. Los datos emergen a través de Exploraciones, que pueden considerarse una entidad general que se corresponde con los campos que contiene. |
Ver |
Una vista representa una tabla de datos, tanto si es nativa de tu base de datos como si se creó con la funcionalidad de tabla derivada de Looker. Dentro de cada vista hay definiciones de campo, cada una de las cuales normalmente corresponde a una columna de la tabla subyacente o a un cálculo en Looker. |
Dimension |
Como parte de una vista dentro de Explorar, la dimensión es un campo agrupable y se puede utilizar para filtrar los resultados de las consultas. Puede ser uno de los siguientes:
|
Measure |
Como parte de una vista dentro de Explorar, el parámetro Medida declara una nueva medida (agregación) y especifica un nombre para esa medida. Ejemplos de tipos de medidas:
integer , string .
|
Dimensiones y medidas
Registros de casos de prueba
Las siguientes tablas describen las dimensiones y medidas disponibles para los registros de casos de prueba.
Dimensión | Tipo | Descripción |
---|---|---|
Correo electrónico del asignado | String | La dirección de correo electrónico del usuario al que se asignó un caso de prueba. |
Nombre de proyecto de automatización | String | El nombre de la automatización vinculada al caso de prueba. |
Fecha límite | Fecha | La fecha en la que se programó la ejecución de un caso de prueba manual. |
Inicio de ejecución | Fecha | La fecha en que se inició la ejecución de la prueba. |
Ejecutado por | String | El nombre de usuario o nombre del robot que ejecutó la prueba. |
Fin de la ejecución | Fecha | La fecha en que finalizó la ejecución de la prueba. |
Tipo de ejecución | String | El tipo de ejecución:
|
Nombre del equipo host | String | El nombre de la máquina. |
Nombre de proyecto | String | El nombre del proyecto de Test Manager. |
Prefijo del proyecto | String | El prefijo del proyecto de Test Manager. |
Fecha del informe | Fecha | La fecha en que se ejecutó la prueba. Esta es una fecha sin hora y también sin zona horaria. |
Resultado | String | El resultado del caso de prueba: Aprobado, Fallido o Ninguno. |
Nombre del robot | String | El nombre del robot que ejecutó la prueba. |
Nombre de ejecución de prueba | String | El nombre de la ejecución de la prueba. |
Medidas | Tipo | Descripción |
---|---|---|
Recuento total | Entero | El número total de registros de casos de prueba. |
Recuento pasado | String | El número de registros de casos de prueba aprobados. |
Error de recuento (técnico) | Entero | Los resultados técnicos indican resultados como fallidos cuando se produce una excepción durante la ejecución. |
Recuento sin resultado (técnico) | Entero | Los resultados técnicos indican que no hay resultados cuando se produce una excepción durante la ejecución. |
DurationInSeconds | Entero | Tiempo de ejecución total en segundos. |
Requisitos
Las siguientes tablas describen las dimensiones y medidas disponibles para los requisitos.
Dimensión | Tipo | Descripción |
---|---|---|
Nombre de proyecto | String | Una combinación del nombre del proyecto y el prefijo del proyecto destinado a hacerlo único y aumentar la legibilidad. |
Nombre | String | Una combinación de la clave de requisito y su nombre, destinada a hacerla única y aumentar la legibilidad. |
Medida | Tipo | Descripción |
---|---|---|
Recuento total de casos de prueba | Entero | El número de casos de prueba asignados a un requisito. |
Recuento de casos de prueba automatizado | Entero | El número de casos de prueba automatizados asignados a un requisito. |
Recuento de casos de prueba manual | Entero | El número de casos de prueba manuales asignados a un requisito. |
Recuento de casos de prueba aprobados | Entero | El número de casos de prueba asignados a un requisito que han pasado en la última ejecución de prueba. |
Recuento de casos de prueba fallidos | Entero | El número de casos de prueba asignados a un requisito que han fallado en la última ejecución de prueba. |
Ningún recuento de casos de prueba | Entero | El número de casos de prueba asignados a un requisito sin resultado en la última ejecución de prueba. |
Recuento total de requisitos | Entero | El número total de requisitos. |
Conjuntos de prueba
Dimensión | Tipo | Descripción |
---|---|---|
Nombre de proyecto | String | Una combinación del nombre del proyecto y el prefijo del proyecto destinado a hacerlo único y aumentar la legibilidad. |
Nombre | String | Una combinación del nombre del proyecto y el prefijo del proyecto destinado a hacerlo único y aumentar la legibilidad. |
Nombre del robot | String | El nombre del robot que ejecutó el conjunto de pruebas. |
Origen | String | El origen del conjunto de pruebas: Orchestrator o Test Manager. |
Medida | Tipo | Descripción |
---|---|---|
Recuento total de conjuntos de pruebas | Entero | El número de conjuntos de pruebas. |
Recuento de casos de prueba automatizado | String | El número de casos de prueba automatizados en el conjunto de pruebas. |
Recuento de casos de prueba manual | Entero | Número de casos de prueba manuales en el conjunto de pruebas. |
Ejecución de prueba
Las siguientes tablas describen las dimensiones y medidas disponibles para las ejecuciones de prueba.
Dimensión | Tipo | Descripción |
---|---|---|
Nombre de proyecto | String | Una combinación de prefijo y nombre del proyecto para hacerlo único y aumentar la legibilidad. |
Nombre | String | Una combinación de ID de ejecución y nombre para que sea único y aumentar la legibilidad. |
Nombre del conjunto de pruebas | String | Una combinación de clave y nombre del conjunto de pruebas para hacerlo único y aumentar la legibilidad. |
Tipo de ejecución | String | El tipo de ejecución: Manual, Automatizado, Ninguno o Mixto. |
Origen | String | El origen de la ejecución: TestManager, Orchestrator o Studio. |
Medida | Tipo |
---|---|
Recuento total de ejecuciones de pruebas | Entero |
Recuento de tipos de ejecución manual | Entero |
Recuento de tipos de ejecución automatizada | Entero |
Recuento de tipos de ejecución mixta | Entero |
Duración en segundos de la ejecución de la prueba | Entero |
Caso de Prueba
Las siguientes tablas describen las dimensiones y medidas disponibles para los casos de prueba.
Dimensión | Tipo | Descripción |
---|---|---|
Nombre de proyecto | GUID | Una combinación del nombre del proyecto y el prefijo del proyecto destinado a hacerlo único y aumentar la legibilidad. |
Nombre | String | Una combinación del nombre del proyecto y el prefijo del proyecto destinado a hacerlo único y aumentar la legibilidad. |
Nombre del paquete | String | N/D |
Medida | Tipo |
---|---|
Número total de casos de prueba | Entero |
Número de registros de casos de prueba aprobados | Entero |
Número de registros de casos de prueba fallidos | Entero |