- Introdução
- Gerenciamento do projeto
- Documentos
- Trabalhando com análise de impacto de alterações
- Criar casos de teste
- Atribuição de casos de teste a requisitos
- Casos de teste de clonagem
- Exportação de casos de teste
- Vinculação de casos de teste no Studio ao Test Manager
- Delete test cases
- Casos de teste manuais
- Importação de casos de teste manuais
- Documentar casos de teste com o Task Capture
- Parâmetros
- Habilitação de governança no nível do projeto
- Desabilitação da governança no nível do projeto
- Habilitação de governança no nível do caso de teste
- Como desabilitar a governança no nível do caso de teste
- Gerenciamento de aprovadores para casos de teste controlados
- Gerenciamento de casos de teste governados no estado Em andamento
- Gerenciamento de casos de teste governados no estado Em Revisão
- Gerenciamento de objetos governados no estado Assinado
- Gerenciamento de comentários para casos de teste governados
- Aplicação de filtros e visualizações
- Importando conjuntos de testes do Orchestrator
- Creating test sets
- Adição de casos de teste a um conjunto de testes
- Atribuição de usuários padrão na execução do conjunto de testes
- Habilitando a cobertura de atividade
- Habilitação do Healing Agent
- Configuração de conjuntos de testes para pastas e robôs de execução específicos
- Substituindo parâmetros
- Clonagem de conjuntos de teste
- Exportação de conjuntos de testes
- Aplicação de filtros e visualizações
- Perguntas frequentes - Paridade de funcionalidades - Test Manager versus Orchestrator
- Execução de testes manuais
- Execução de testes automatizados
- Execução de casos de teste sem um conjunto de testes
- Execução de testes mistos
- Criação de execuções pendentes
- Aplicação de uma ordem de execução
- Reexecutando execuções de teste
- Agendamento de execuções
- Solução de problemas de execuções automatizadas
- Testes de acessibilidade para o Test Cloud
- Pesquisa com o Autopilot
- Operações e utilitários do projeto
- Configurações Test Manager
- Integração da ferramentas ALM
- Integração do API
- Solução de problemas
Guia do usuário do Test Manager
Feature availability depends on the cloud platform you use. For details, refer to the Test Manager feature availability page.
Geração de casos de teste manuais para requisito
Feature availability depends on the cloud platform you use. For details, refer to the Test Manager feature availability page.
Com a funcionalidade Gerar testes , você pode criar casos de teste manuais diretamente de seus requisitos usando IA generativa. A ferramenta que ajuda a gerar casos de teste é chamada de AutopilotTM. Com a ajuda do AutopilotTM, essa funcionalidade cria uma lista de casos de teste manuais analisando vários detalhes do requisito, como nome, descrição, anexos, campos personalizados, rótulos e documentos. Você pode então criar casos de teste na lista inicial ou fornecer instruções específicas para gerar casos de teste sob medida para suas necessidades exatas.
Pré-requisitos
- Para gerar testes para um requisito, sua função Test Manager deve ter as seguintes permissões:
- Caso de teste - Criar
- Requisito - Editar
- (For Cloud Commercial only) If you want to leverage RAG when generating tests, you need to start using Context Grounding, which RAG is a component of. To get started with Context Grounding, visit the dedicated Best practices page.
Vamos tomar o exemplo de um teste de uma funcionalidade para enviar solicitações de empréstimo no Aplicativo UiBank. Aqui está como você usaria a ferramenta:
Etapas
- Abra um projeto e navegue até Requisitos.
- Crie um requisito chamado Enviar solicitação de empréstimo e digite uma descrição detalhada sobre ele, destacando o fluxo de aplicativos e os critérios de aceitação. Verifique a descrição que você pode usar para este exemplo:
Exemplo de requisito
Esse requisito detalha como as pessoas podem solicitar um empréstimo no Aplicativo UiBank Banking equipado com o UiPath®. Fluxo da solicitação
- O candidato inicia a solicitação de empréstimo em
https://uibank.uipath.com. - O candidato clica no botão "Produto" no menu de cabeçalho.
- O candidato clica no botão "Empréstimos" no menu suspenso.
- O sistema redireciona para
https://uibank.uipath.com/loans. - O candidato clica no botão "Solicitar um empréstimo".
- O sistema redireciona para
https://uibank.uipath.com/loans/apply. - O candidato deve preencher os seguintes campos obrigatórios:
- Endereço de email: esse campo requer um endereço de email em um formato válido.
- Valor do empréstimo: este campo aceita apenas valores inteiros positivos.
- Prazo de empréstimo: este campo fornece as opções '1', '3', '5' e '10' em anos.
- Renda anual: esse campo aceita apenas valores inteiros positivos.
- Idade: este campo aceita apenas valores inteiros positivos.
- O candidato então clica no botão "Enviar solicitação de empréstimo".
- O candidato é notificado se a solicitação de empréstimo é aprovada ou rejeitada na próxima página.Critérios de aceitação Para candidatos entre 18 e 65 anos e um valor de empréstimo inferior a 100.000, aprovamos o pedido de empréstimo com:
- Parabéns! Você foi aprovado para um empréstimo com o UiBank! Para candidatos abaixo de 18 anos, rejeitamos o pedido de empréstimo com:
- "Lamentamos, neste momento, você não foi aprovado para um empréstimo"Para candidatos entre 18 e 65 anos e um valor de empréstimo superior a 100.000, rejeitamos o pedido de empréstimo com:
- "Lamentamos, neste momento, você não foi aprovado para um empréstimo"Para candidatos que não fornecem todos os campos obrigatórios e, em seguida, clicam no botão "Enviar solicitação de empréstimo":
- Nenhuma mensagem de erro será exibida
- Nenhuma ação será executada
- O candidato permanecerá na mesma página
- Selecione Mais opções para esse requisito e escolha Otimizar cobertura. Como alternativa, abra o requisito e escolha Otimizar cobertura.
- Na caixa de diálogo Otimizar cobertura , selecione Gerar testes. A janela Fornecer contexto adicional é aberta, com foco em Adicionar documentos, solicitando anexos ou outros documentos necessários para gerar casos de teste. Os anexos devem estar associados ao processo de envio de solicitações de empréstimo.
- Na seção Adicionar documentos , selecione os anexos da requisito. Esses são usados ao gerar testes. Você também pode carregar outros arquivos por conta própria.
Figure 1. The Add documents section for generating tests (for Cloud Commercial only)
2. (For Cloud Commercial only) In the Leverage RAG section of the Provide additional context window, select an index which stores your data uploaded to Context Grounding. The selected index helps Autopilot in generating more accurate tests by giving it context about the applications that you are trying to automate. For example, you can leverage RAG when a requirement document has incomplete information or refers to additional details in other sections. In this case, you can leverage RAG to draw those details from indexed references. :::note For best practices on working with Context Grounding, visit Best practices. ::: 1. From the Select folder dropdown list, select the folder where you store the indexes storing the desired information you want to share with Autopilot. 2. From the Select index dropdown list, select the specific index that you want Autopilot to reference. 3. For Number of results, enter the number of tests you want Autopilot to generate based on the referenced information.
Figure 2. The Leverage RAG section for generating tests
5. Select Next and provide additional instructions that AutopilotTM should use when generating test cases. Choose from a prompt from the Prompt library or type these instructions in the Provide additional guidance window. These are some of the instructions that Autopilot can follow:
- Você pode instruir o AutopilotTM o número de casos de teste que você deseja gerar. O número máximo de casos de teste é 50.
- Você pode especificar o AutopilotTM para cobrir todas as etapas do usuário e critérios de aceitação descritos no requisito de solicitação de empréstimo.
- Você pode instruir o AutopilotTM para gerar pré-condições.
- Você pode especificar o AutopilotTM para gerar um resultado esperado para cada etapa do teste.
- By default, Autopilot considers existing tests linked to a requirement to prevent duplicating tests. However, you can instruct Autopilot to disregard existing tests during new test generation. You can do this by providing an instruction like: "Do not consider tests that are linked to this requirement when generating tests".Figure 3. The Provide additional guidance window for generating tests

- Opcionalmente, na lista suspensa Modelo , selecione o modelo de IA que o Autopilot deve usar. O Autopilot usa o Claude 3.7 Sonnet por padrão ao gerar testes, que também é o modelo recomendado.
Observação:
Os modelos disponíveis na lista suspensa Modelo dependem da Política de AI Trust Layer aplicada à sua organização e tenant. Se todos os modelos compatíveis estiverem habilitados, Claude 3.7 Sonnet aparece como a opção recomendada. Se apenas um tipo de modelo estiver habilitado (por exemplo, Azure OpenAI), então o modelo GPT 4o é o único exibido e automaticamente recomendado.
- Selecione Gerar testes para iniciar o processo. Quando a geração terminar, você receberá uma notificação Geração de caso de teste concluída . Dependendo de suas preferências de notificação, você pode receber a notificação no aplicativo e por email.
- Selecione a notificação Geração de teste concluída para revisar os casos de teste gerados.
- Expanda cada caso de teste no painel Gerar testes e revise os casos de teste gerados.
Figure 4. The preview of generated tests
2. If you are satisfied with their content, select Create tests. The selected test cases will display a checkmark in the Generate tests panel, indicating they were successfully created. The generated test cases are also linked with the requirement that was used to generate them. 8. If you are not satisfied with the generated test cases, select Regenerate, and provide additional details about your use case.
- Anexe os documentos mais relevantes para o AutopilotTM usar.
- Clique em Avançar e digite detalhes adicionais na caixa de texto Fornecer instruções. A seção Melhores práticas para escrever instruções no final desta página fornece orientação para a criação de prompts eficazes.
- Depois de refinar as etapas, selecione Regenerar.
- Clique na notificação Geração de teste concluída para acessar os casos de teste gerados novamente.
- Expanda cada caso de teste e revise-os.
- Selecione os casos de teste com os quais você está satisfeito e, em seguida, selecione Criar testes.
Tipos de arquivos compatíveis
O Autopilot pode processar vários tipos de arquivos. Dependendo do tipo de arquivo, o Autopilot pode processar determinado conteúdo dele. A lista a seguir apresenta os tipos de arquivo que você pode oferecer ao Autopilot, juntamente com detalhes sobre o tipo de conteúdo que o Autopilot pode processar de cada tipo:
- Processa apenas conteúdo de texto - O Autopilot processa apenas o conteúdo de texto desses tipos de arquivo:
- TXT
- BPMN
- CSV
- Processa o conteúdo de texto e imagem - O Autopilot processa o texto e as imagens desses tipos de arquivo:
- DOCX
- XLSX
- PNG
- JPG
Melhores práticas
Acesse Práticas recomendadas para gerar testes a partir de requisitos para verificar uma lista abrangente de diretrizes e exemplos para ajudar você a escrever instruções eficazes.
Gerenciamento de acesso do usuário com Autopilot para Testers
A política de governança da Camada de Confiança da IA permite que você gerencie o uso de funcionalidades alimentadas por IA dentro de sua organização. Embora todos os membros tenham acesso padrão a essas funcionalidades, você pode usar essa política para restringir o acesso conforme necessário. A política de governança da Camada de Confiança da IA permite que você limite o acesso de um usuário a certas funcionalidades alimentadas por IA ou todas elas, em um nível de usuário, grupo ou tenant. Além disso, dá a você a capacidade de decidir quais produtos de IA os usuários podem acessar. Você pode criar, modificar e implementar esta política de governança no Automation Ops.
Se você quiser implantar uma política de governança da Camada de Confiança da IA e ainda usar os recursos de teste alimentados por IA, certifique-se de que, dentro da Alternância de funcionalidades da política, você selecione Sim para Habilitar funcionalidades do Test Manager.
Verifique os seguintes recursos para saber como criar, configurar e implantar uma política de governança para sua organização.
- Criar uma Política de Governança
- Configurações para políticas da Camada de confiança da IA
- Implante políticas de governança
Acesso aos resultados da geração de testes mais recente
Acesse seus casos de teste gerados mais recentes na página Requisitos .
- Vá para os resultados mais recentes.
- Selecione Casos de teste gerados.