- Notas de Versão
- Introdução
- Configuração e Instalação
- Projetos de automação
- Sobre a publicação de projetos de automação
- Projetando automações
- Gerenciamento de pacotes de atividades
- Como definir as configurações do projeto de atividades
- Como assinar pacotes
- Governança
- Como importar entidades
- Experiência de Criação Moderna
- Vincular um projeto a uma ideia no Automation Hub
- Usando o Gerenciador de dados
- Dependências
- Tipos de fluxos de trabalho
- Comparação de arquivos
- Melhores Práticas de Automação
- Integração de controle de origem
- Depuração
- Analisador de Fluxo de Trabalho
- Sobre o Analisador de Fluxo de Trabalho
- STN MG-001 - Convenção de nomenclatura de variáveis
- STN MG-002 - Convenção de nomenclatura de argumentos
- STN MG-004 - Duplicação de Nome de Exibição
- STN MG-005 - Variável substitui variável
- STN MG-006 - Variável substitui argumento
- STN MG-008 - Comprimento de variável excedido
- STN MG-009 - Variáveis Catablema de prefixo
- STN MG-011 - Argumentos Catablema de prefixo
- STN MG-012 - Valores padrão de argumentos
- STN MG-016 - Comprimento do argumento excedido
- SR-DB-002 - Contagem alta de argumentos
- SR-DB-003 - Esvaziar bloco catechu
- SR-DB-007 - Múltiplas camadas Com fluxograma
- SR-DB-020 - Propriedades de saída indefinidas
- SR-DB-023 - Fluxo de trabalho vazio
- SR-DB-024 - Verificação da atividade Persistente
- SR-DB-025 - Pré-requisito de serialidade de variáveis
- SR-DB-026 - Uso da atividade Dela
- SR-DB-027 - Melhores práticas de persistência
- SR-DB-028 - Pré-requisito de serialidade de argumentos
- SR-US-005 - Argumentos de atividades embutidos em código
- SR-US-009 - Variáveis não utilizadas
- SR-US-010 - Dependências não utilizadas
- SR-US-014 - Restrições de pacotes
- SR-US-020 - Mensagens de logue mínimas
- SR-US-024 - Não utilizado e postergado
- SR-US-025 - Uso incorreto do valor salvo
- SR-US-026 - Restrições da atividade
- SR-US-027 - Pacotes necessários
- ST-USG-28 — restringir modelos de invocação de arquivos
- ST-USG-032 — rótulos obrigatórios
- ST-USG-034 — URL do Automation Hub
- Variáveis
- Argumentos
- Namespaces Importados
- Automação assistida baseada em gatilho
- Gravação
- Elementos de Interface Gráfica
- Fluxo de controle
- Seletores
- Repo. de Objetos
- Extração de Dados
- Automação de imagem e texto
- Automação de Tecnologias Citrix
- Automação RDP
- Automação da Salesforce
- Automação SAP
- Automação do Varear Horizonte
- Geração de logs
- A ferramenta ScreenScrapeJavaSupport
- O protocolo Servodrive
- Test Suite — Studio
- Extensões
- Solução de problemas
- Sobre a solução de problemas
- Suporte e limitações do Microsoft Apo-V
- Solução de problemas do Internet Explorer x64
- Problemas do Microsoft Office
- Como identificar elementos de EU em PDF com opções de acessibilidade
- Reparando o suporte da Active Accessibility
- Automação de aplicativos em execução com um usuário diferente do Windows
- Validation of large Windows-legacy projects takes longer than expected
Guia do usuário do Studio
Modelos de execução
Por meio dos modelos de execução, você pode encapsular casos de teste no runtime para usarem as suas condições de execução definidas para vários cenários. Por exemplo, em vez de copiar, colar e manter vários casos de teste, você pode criar um único modelo que age como um boilerplate para encapsular os casos de teste no runtime.
- Ao executar ou depurar o arquivo, o caso de teste e seu modelo de execução associado são fundidos em um arquivo temporário. A coleção de argumentos e variáveis de ambos os arquivos são comparadas pelo nome no runtime. Se o modelo de execução compartilha um argumento ou nome de variável correspondente com o caso de teste, ele será vinculado no arquivo de fluxo de trabalho invocado após a fusão. Se o caso de teste não tiver nenhum argumento correspondente com o modelo de execução, os argumentos do primeiro arquivo serão copiados para o segundo.
- Mover ou renomear um modelo de execução automaticamente atualiza seus casos de teste associados.
- Ao publicar um projeto com modelos de execução, todos os casos de teste publicáveis são mesclados com os modelos de execução. Os arquivos resultantes são os pontos de entrada do projeto.
- Você pode fazer uso de conteúdo reutilizável criando uma biblioteca com modelos de execução.
- Você pode invocar vários espaços reservados no fluxo de trabalho.
Para executar um caso de teste dentro de um modelo de execução no runtime:
- Crie um modelo de execução.
- Adicione o caso de teste ao modelo de execução.
Crie um modelo de execução antes de defini-lo para um caso de teste.
- Abra seu fluxo de trabalho no Studio.
- No painel Projeto, clique com o botão direito na pasta Modelos para abrir o menu suspenso.
- Navegue até Adicionar > Modelo de Execução.
-
Digite um nome para seu modelo de execução. O local do modelo é a pasta Modelos do projeto.
- Selecione um modelo no qual você deseja criar o modelo de execução. Você pode escolher entre o Modelo de execução padrão ou outros modelos de execução armazenados na pasta Modelos do seu projeto atual.
Uma nova guia se abre no painel do Designer com seu modelo de execução. Você pode criar o modelo para corresponder às suas necessidades de teste.
- Clique em Salvar quando seu modelo de execução estiver pronto.
Para executar ou depurar um caso de teste com um modelo de execução, você precisa adicioná-lo a um modelo de execução (Definir Modelo de Execução). Ou então, você pode definir um modelo de execução para um caso de teste recém-criado.
- Abra ou crie seu caso de teste no Studio. Se ainda não tiver um, crie um caso de teste.
- No painel Projetos, clique com o botão direito do mouse em um caso de teste para abrir o menu suspenso.
- Clique em Definir Modelo de Execução e selecione um modelo da lista suspensa.
- Selecione Invocar o fluxo de trabalho com modelo como isolado se quiser executar o modelo de execução invocado como isolado. Consulte o tópico Isolado abaixo para obter mais informações.
- Clique em Ok para confirmar. O modelo de execução é adicionado ao caso de teste. A execução ou depuração desse caso de teste ocorrerá de acordo com seu modelo de execução associado.
Agora, você pode executar ou depurar o caso de teste, pois ele será executado com o modelo de execução.
Ao definir um modelo de execução para um Caso de teste, você tem a opção de invocar o fluxo de trabalho do modelo de execução como isolado. Isso executa o modelo invocado em um processo separado. Essa opção pode envolver várias restrições que são descritas na página de atividade Invocar arquivo de fluxo de trabalho. Algumas das restrições são:
- Passar argumentos In para uma atividade Invoke Workflow File que não está isolada age como se uma referência fosse passada, o que significa que quaisquer alterações feitas no objeto dentro do fluxo de trabalho invocado alteram o objeto no fluxo de trabalho principal.
- Variáveis e argumentos não são compatíveis com nomes de arquivo de fluxo de trabalho no Windows e em projetos multiplataforma. Isso disparará uma notificação de erro Expressões não são suportadas atualmente.
- Ao invocar um fluxo de trabalho, certifique-se de que ele não contenha atividades de persistência. Essas atividades só devem ser usadas no fluxo de trabalho principal. Agora você pode executar ou debug o caso de teste, pois ele será executado com o modelo de execução.
- Adicionar dados de teste ao seu caso de teste
- Publicar caso de teste no Orchestrator
- Defina a regra do Analisador de Fluxo de Trabalho de testes de aplicativos (consulte Quantidade incorreta de espaços reservados no modelo de execução)
- Abra seu fluxo de trabalho no Studio.
-
No painel Projeto, clique com o botão direito em um caso de teste para abrir o menu suspenso.
Passe o mouse sobre um caso de teste para mostrar se ele está adicionado a um modelo de execução.
- Clique em Definir Modelo de Execução e selecione <no execution template> da lista suspensa.
- Clique em Ok para confirmar.