- Introdução
- Gerenciamento do projeto
- Documentos
- Trabalhando com análise de impacto de alterações
- Assigning test cases to requirements
- Linking test cases in Studio to Test Manager
- Delete test cases
- Documentar casos de teste com o Task Capture
- Criar casos de teste
- Importação de casos de teste manuais
- Casos de teste de clonagem
- Exportação de casos de teste
- Automatizar casos de teste
- Casos de teste manuais
- Parâmetros
- Aplicação de filtros e visualizações
- Importando conjuntos de testes do Orchestrator
- Creating test sets
- Assigning test cases to a test set
- Habilitando a cobertura de atividade
- Configuração de conjuntos de testes para pastas e robôs de execução específicos
- Substituindo parâmetros
- Clonagem de conjuntos de teste
- Exportação de conjuntos de testes
- Aplicação de filtros e visualizações
- Pesquisa com o Autopilot
- Operações e utilitários do projeto
- Configurações Test Manager
- Integração da ferramentas ALM
- Integração do API
- Solução de problemas

Guia do usuário do Test Manager
O AutopilotTM ajuda você a avaliar requisitos para aspectos de qualidade, como clareza, integridade e consistência.
Para avaliar requisitos com o AutopilotTM, sua função do Test Manager deve ter as seguintes permissões: Requisito - Criar, Editar.
- Abra um projeto e navegue até Requisitos.
- Selecione Mais opções para um requisito e escolha Otimizar cobertura.
Observação: como alternativa, abra o requisito e escolha Otimizar cobertura.
- Na caixa de diálogo Otimizar cobertura , selecione Avaliar qualidade.
A janela Fornecer documentos de suporte é aberta, solicitando anexos ou outros documentos necessários para avaliar o requisito.
- Na janela Fornecer documentos de suporte, selecione anexos adicionais. Eles são usados ao avaliar o requisito. Você também pode carregar outros arquivos por conta própria.
- Selecione Avançar e forneça instruções adicionais que o AutopilotTM deve usar ao avaliar o requisito. Escolha entre um prompt na Biblioteca de prompts ou digite essas instruções na janela Fornecer orientação adicional .
- Opcionalmente, na lista suspensa Modelo , selecione o modelo de IA que o Autopilot deve usar.
O Autopilot usa o Claude 3.7 Sonnet por padrão ao avaliar requisitos, que também é o modelo recomendado.
Observação: os modelos disponíveis na lista suspensa Modelo dependem da Política de AI Trust Layer aplicada à sua organização e tenant. Se todos os modelos compatíveis estiverem habilitados, Claude 3.7 Sonnet aparece como a opção recomendada. Se apenas um tipo de modelo estiver habilitado (por exemplo, Azure OpenAI), então o modelo GPT 4o é o único exibido e automaticamente recomendado.
- Opcionalmente, na lista suspensa Modelo , selecione o modelo de IA que o Autopilot deve usar.
- Selecione Avaliar qualidade para iniciar o processo.
Quando a avaliação for concluída, você receberá uma notificação de Verificação de qualidade concluída. Dependendo de suas preferências de notificação, você pode receber a notificação no aplicativo e por email.
- Selecione a notificação Verificação de qualidade concluída para visualizar as sugestões geradas.
- Expanda cada sugestão e atualize seu status com base no seu progresso: A fazer, Em andamento ou Concluído.
- Se você quiser implementar uma sugestão, selecione Adicionar ao requisito.
Isso altera o status da sugestão para Em andamento. Você pode deixá-lo como está ou marcá-lo como Concluído.
- Se desejar, você pode Remover a sugestão da lista.
- Para gerar mais sugestões para um requisito, selecione Sugerir mais.
Observação: alternativamente, use Regerar para recriar sugestões usando diferentes documentos de suporte ou orientação adicional.
- Para salvar as sugestões, selecione Exportar para Word.
Você pode carregar apenas as seguintes extensões de arquivo, das quais o Autopilot processa apenas o conteúdo de texto:
- DOCX
- XLSX
- TXT
- CSV
- PNG
- JPG
- BPMN
Acesse Práticas recomendadas para requisitos de verificação de qualidade para uma lista abrangente de diretrizes e exemplos para ajudar você a escrever instruções eficazes.
A política de governança da Camada de Confiança da IA permite que você gerencie o uso de funcionalidades alimentadas por IA dentro de sua organização. Embora todos os membros tenham acesso padrão a essas funcionalidades, você pode usar essa política para restringir o acesso conforme necessário. A política de governança da Camada de Confiança da IA permite que você limite o acesso de um usuário a certas funcionalidades alimentadas por IA ou todas elas, em um nível de usuário, grupo ou tenant. Além disso, dá a você a capacidade de decidir quais produtos de IA os usuários podem acessar. Você pode criar, modificar e implementar esta política de governança no Automation Ops.
Se você quiser implantar uma política de governança da Camada de Confiança da IA e ainda usar os recursos de teste alimentados por IA, certifique-se de que, dentro da Alternância de funcionalidades da política, você selecione Sim para Habilitar funcionalidades do Test Manager.
Verifique os seguintes recursos para saber como criar, configurar e implantar uma política de governança para sua organização.