- Introdução
- Gerenciamento do projeto
- Documentos
- Trabalhando com análise de impacto de alterações
- Criar casos de teste
- Atribuição de casos de teste a requisitos
- Casos de teste de clonagem
- Exportação de casos de teste
- Vinculação de casos de teste no Studio ao Test Manager
- Delete test cases
- Casos de teste manuais
- Importação de casos de teste manuais
- Documentar casos de teste com o Task Capture
- Parâmetros
- Habilitação de governança no nível do projeto
- Desabilitação da governança no nível do projeto
- Habilitação de governança no nível do caso de teste
- Como desabilitar a governança no nível do caso de teste
- Gerenciamento de aprovadores para casos de teste controlados
- Gerenciamento de casos de teste governados no estado Em andamento
- Gerenciamento de casos de teste governados no estado Em Revisão
- Gerenciamento de objetos governados no estado Assinado
- Gerenciamento de comentários para casos de teste governados
- Aplicação de filtros e visualizações
- Importando conjuntos de testes do Orchestrator
- Creating test sets
- Adição de casos de teste a um conjunto de testes
- Atribuição de usuários padrão na execução do conjunto de testes
- Habilitando a cobertura de atividade
- Habilitação do Healing Agent
- Configuração de conjuntos de testes para pastas e robôs de execução específicos
- Substituindo parâmetros
- Clonagem de conjuntos de teste
- Exportação de conjuntos de testes
- Aplicação de filtros e visualizações
- Perguntas frequentes - Paridade de funcionalidades - Test Manager versus Orchestrator
- Execução de testes manuais
- Execução de testes automatizados
- Execução de casos de teste sem um conjunto de testes
- Execução de testes mistos
- Criação de execuções pendentes
- Aplicação de uma ordem de execução
- Reexecutando execuções de teste
- Agendamento de execuções
- Solução de problemas de execuções automatizadas
- Testes de acessibilidade para o Test Cloud
- Pesquisa com o Autopilot
- Operações e utilitários do projeto
- Configurações Test Manager
- Integração da ferramentas ALM
- Integração do API
- Solução de problemas
Guia do usuário do Test Manager
Pré-requisitos
Feature availability depends on the cloud platform you use. For details, refer to the Test Manager feature availability page.
Para habilitar a geração de relatórios com o Insights, siga estas etapas:
- Enable the Insights service on the same tenant as your Test Manager instance. You need an Automation Cloud Organization Administrator role to enable a service.
- From Test Manager, activate the Enable reporting with Insights tenant-level setting. You need a Test Manager Administrator tenant role to enable the integration with Insights. For more information about activating the setting, visit Tenant level settings.
Visão geral
Once you enable the Insights integration in your Test Manager tenant, you will be able to access analytics for all your testing projects within that tenant. Insights retrieves data from Test Manager, based on a specific data model, and presents it through the Test Manager Execution Report predefined dashboard. This dashboard provides an overview of all your test executions within your tenant.
Figure 1. Test Manager Execution Report dashboard

When you enable reporting with Insights, data from all Test Manager projects are uploaded to Insights. Therefore, all users with access to Insights will be able to generate reports on those projects, independent from their permissions in Test Manager.
Modelo de dados
Insights uses test case logs from Test Manager to generate the customizable dashboards. For more details on the data model used by Insights to generate the dashboards, check the Test Manager data model section.
In the Test Manager data model, test case logs contain two types of results: technical and functional. Usually these results are the same, unless a technical error appears during execution. Technical errors can include infrastructure disruptions, automation errors, or other non-functional triggers. In any of these scenarios, the technical results will be label the test as failed. Functional results are meant to only reflect the outcome of business verifications. Therefore they indicate no-result in case of errors because of the lack of a reliable outcome.
Criação de painéis do Insights com base em campos personalizados
You can create Insights dashboards for Requirements and Test Sets, based on the custom fields associated with these data objects.
Você pode trabalhar com no máximo 5 seletores de campos personalizados e 5 dimensões.
- Faça logon na sua plataforma e navegue até o Insights.
- Go to Dashboards and add a dashboard.
- Open the dashboard and select Edit Dashboard.
- Hover the toolbar and select Add.
Figure 2. Add Insights dashboard

-
Select Visualization.
-
Under Test Manager, select the data object for which you want to create a dashboard. For example, let’s select Requirements.
-
Expand the data object category. For our example, expand Requirements. Note that you can have a maximum of 5 custom-field selectors (listed as Custom Field Selector 1 and so on, under Filter-Only Fields) and 5 dimensions (listed as Custom Field 1 and so on, under Dimensions). There is a 1:1 correspondence between the 5 custom-field selectors and the 5 custom-field dimensions. For example, Custom Field Selector 1 corresponds to Custom Field 1.
-
From Filter-Only Fields, select one or more custom-field selectors.
Figure 3. Custom field selection

- Expanda o menu suspenso para ver todos os campos personalizados disponíveis no tenant para seu objeto de dados. O exemplo abaixo mostra os campos personalizados disponíveis no tenant de amostra, para requisitos.
Figure 4. Custom field values

-
Selecione os valores de campo personalizados para seus seletores de campos personalizados.
-
From Dimensions, select the custom fields. For example, select Custom Field 1, Custom Field 2, and Custom Field 3.
-
From Custom Field Filters, select the values you need. For example, select Name and Project Name.
-
From Measures, select the values you need. For this example, select Total Test Case Count.
-
Os valores que você selecionou são exibidos no lado direito, no editor de espaço de trabalho.
Figure 5. Measures


15. From the upper, right-hand side of the workspace, select Run.
Figure 6. Run dashboard


16. Wait for the data to load. The data can be visualized in multiple formats: table, graphs, or charts.
-
(Opcional) Classifique seus dados por coluna. Por exemplo, classifique seus dados por prioridade.
-
From the upper, right-hand side of the workspace editor, select Save.
-
Selecione o ícone de lápis ou clique dentro do nome da tabela para dar um nome oficial a seu painel. Em nosso exemplo, nomeamos o painel "Campo personalizado para requisito".
-
Redimensione a tabela arrastando suas bordas.
-
No menu da barra de ferramentas, adicione um filtro para o seu painel.
-
Select Filters > Add Filter.
-
Add filters for your data object, in our case Requirements. Expand the data object (Requirements), expand Custom Field Filters and pick a selector (for example, Custom Field Filter Selector 1).
Figure 7. Filters


24. In the Add Filter dialog, continue configuring your filter (title, control, default value) and then select Add. For this example, we chose a radio button.
Figure 8. Add filter


25. Expand the data object (Requirements) again and pick the selector value. For this example, we selected Custom Field Filters > Custom Field Filter 1.
Figure 9. Custom field filter


26. In the Add Filter dialog, continue the configuration (title, control, filter options) and select Add. For our example, we chose Advanced from the Control field, and is any value from the Configure Default Value field.
Figure 10. Filter configuration


27. In your dashboard, check the filter you added. For this example, we added Custom Field Filter Selector 1 and Custom Field Filter 1. Below the first filter, expand the is menu, select a value (Priority), and select Apply. Below the second filter, expand the is any value menu, select an operator and a value (contains High or Medium), and select Apply.
Figure 11. Filter values


28. Select the Refresh button from the upper, right-hand corner of the workspace editor.
Modelo de dados do Test Manager
Terms and concepts
A estrutura do modelo de dados do Test Manager é baseada nos seguintes conceitos:
| Conceito | Description |
|---|---|
| Explorar | O ponto de partida para a exploração. Os dados são exibidos por meio do Explores, que você pode imaginar como uma entidade geral que corresponde aos campos dentro dela. |
| Exibir | Uma exibição representa uma tabela de dados, seja essa tabela nativa do seu banco de dados ou criada usando a funcionalidade de tabela derivada do Looker. Dentro de cada exibição estão as definições de campo, cada uma das quais geralmente corresponde a uma coluna na tabela subjacente ou a um cálculo no Looker. |
| Dimensões | Como parte de uma exibição no Explore, a dimensão é um campo agrupável e pode ser usado para filtrar os resultados da consulta. Pode ser um dos seguintes:
|
| Medida | Como parte de uma exibição no Explore, o parâmetro Measure declara uma nova medida (agregação) e especifica um nome para essa medida. integer , string . |
Dimensões e medidas
Feature availability depends on the cloud platform you use. For details, refer to the Test Manager feature availability page.
The Requirements, Test sets, and Test executions dimensions and measures are available in Test Manager only when delivered via Test Cloud.
Logs de casos de teste
As tabelas a seguir descrevem as dimensões e medidas disponíveis para logs de casos de teste.
| Dimensões | Tipo | Description |
|---|---|---|
| Email do Destinatário | String | O endereço de e-mail do usuário ao qual um caso de teste foi atribuído. |
| Nome do Projeto de Automação | String | O nome da automação vinculada ao caso de teste. |
| Data de Conclusão | data | A data em que um caso de teste manual estava agendado para ser executado. |
| Início da execução | data | A data de início da execução do teste. |
| Executado por | String | O nome de usuário ou nome do robô que executou o teste. |
| Fim de Execução | data | A data de término da execução do teste. |
| Tipo de execução | String | O tipo de execução:
|
| Nome da Máquina do Host | String | O nome da máquina. |
| Nome do Projeto | String | O nome do projeto do Test Manager. |
| Prefixo do projeto | String | O prefixo do projeto do Test Manager. |
| Data do relatório | data | A data em que o teste foi executado. É uma data sem horário e também sem fuso horário. |
| Resultado | String | O resultado do caso de teste: Aprovado, Falha ou Nenhum. |
| Nome do Robô | String | O nome do robô que executou o teste. |
| Nome da execução de teste | String | O nome da execução de teste. |
Table 2. Test Case Logs measures
| Medidas | Tipo | Description |
|---|---|---|
| Contagem Total | Número inteiro | O número total de logs de casos de teste. |
| Contagem aprovada | String | O número de logs de casos de teste aprovados. |
| Contagem não aprovada (técnica) | Número inteiro | Technical results indicate results as failed when an exception occurs during execution. |
| Sem contagem de resultados (técnico) | Número inteiro | Technical results indicate no results when an exception occurs during execution. |
| DurationInSeconds | Número inteiro | Runtime total em segundos. |
Requisitos
As tabelas a seguir descrevem as dimensões e medidas disponíveis para requisitos.
Table 3. Requirement dimensions
| Dimensões | Tipo | Description |
|---|---|---|
| Nome do Projeto | String | Uma combinação do nome do projeto e do prefixo do projeto com o objetivo de torná-lo único e aumentar a legibilidade. |
| Name | String | Uma combinação da chave de requisito e seu nome, com o objetivo de torná-la exclusiva e aumentar a legibilidade. |
Table 4. Requirement measures
| Medida | Tipo | Description |
|---|---|---|
| Contagem total de casos de teste | Número inteiro | O número de casos de teste atribuídos a um requisito. |
| Contagem de casos de teste automatizados | Número inteiro | O número de casos de teste automatizados atribuídos a um requisito. |
| Contagem de casos de teste manuais | Número inteiro | O número de casos de teste manuais atribuídos a um requisito. |
| Contagem de casos de teste aprovados | Número inteiro | O número de casos de teste atribuídos a um requisito que passaram na execução de teste mais recente. |
| Contagem de casos de teste com falha | Número inteiro | O número de casos de teste atribuídos a um requisito que falharam na execução de teste mais recente. |
| Nenhuma contagem de casos de teste | Número inteiro | O número de casos de teste atribuídos a um requisito sem nenhum resultado na execução de teste mais recente. |
| Contagem total de requisitos | Número inteiro | O número total de requisitos. |
Conjuntos de Testes
As tabelas a seguir descrevem as dimensões e medidas disponíveis para conjuntos de testes.
For assigned test cases, the test set view contains information about static test assignments.
Table 5. Test set dimensions
| Dimensões | Tipo | Description |
|---|---|---|
| Nome do Projeto | String | Uma combinação do nome do projeto e do prefixo do projeto com o objetivo de torná-lo único e aumentar a legibilidade. |
| Name | String | Uma combinação do nome do projeto e do prefixo do projeto com o objetivo de torná-lo único e aumentar a legibilidade. |
| Nome do Robô | String | O nome do robô que executou o conjunto de testes. |
| Origem | String | A origem do conjunto de testes: Orchestrator ou Test Manager. |
Table 6. Test set measures
| Medida | Tipo | Description |
|---|---|---|
| Contagem total de conjuntos de teste | Número inteiro | O número de conjuntos de testes. |
| Contagem de casos de teste automatizados | String | O número de casos de teste automatizados no conjunto de testes. |
| Contagem de casos de teste manuais | Número inteiro | Número de casos de teste manuais no conjunto de testes. |
Execução de teste
As tabelas a seguir descrevem as dimensões e medidas disponíveis para execuções de teste.
Table 7. Test executions dimensions
| Dimensões | Tipo | Description |
|---|---|---|
| Nome do Projeto | String | Uma combinação de prefixo e nome do projeto para torná-lo exclusivo e aumentar a legibilidade. |
| Name | String | Uma combinação de ID e nome de execução para torná-la exclusiva e aumentar a legibilidade. |
| Nome do Conjunto de Testes | String | Uma combinação de chave e nome do conjunto de testes para torná-lo exclusivo e aumentar a legibilidade. |
| Tipo de execução | String | O tipo de execução: Manual, Automatizado, Nenhum ou Misto. |
| Origem | String | A origem da execução: TestManager, Orchestrator ou Studio. |
Table 8. Test execution measures
| Medida | Tipo |
|---|---|
| Contagem total de execuções de teste | Número inteiro |
| Contagem de tipos de execução manuais | Número inteiro |
| Contagem de tipos de execução automatizados | Número inteiro |
| Contagem de tipos de execução mistos | Número inteiro |
| Duração em segundos da execução do teste | Número inteiro |