- Introdução
- Configuração e Instalação
- Projetos de automação
- Sobre a publicação de projetos de automação
- Projetando automações
- Como gerenciar pacotes de atividades
- Como definir as configurações do projeto de atividades
- Como assinar pacotes
- Governança
- Como importar entidades
- Experiência de Criação Moderna
- Vincular um projeto a uma ideia no Automation Hub
- Usando o Gerenciador de dados
- Dependências
- Tipos de fluxos de trabalho
- Comparação de arquivos
- Melhores Práticas de Automação
- Integração de controle de origem
- Depuração
- A ferramenta de diagnóstico
- Analisador de Fluxo de Trabalho
- Sobre o Analisador de Fluxo de Trabalho
- STN MG-001 - Convenção de nomenclatura de variáveis
- STN MG-002 - Convenção de nomenclatura de argumentos
- STN MG-004 - Duplicação de Nome de Exibição
- STN MG-005 - Variável substitui variável
- STN MG-006 - Variável substitui argumento
- STN MG-008 - Comprimento de variável excedido
- STN MG-009 - Variáveis Catablema de prefixo
- STN MG-011 - Argumentos Catablema de prefixo
- STN MG-012 - Valores padrão de argumentos
- STN MG-016 - Comprimento do argumento excedido
- SR-DB-002 - Contagem alta de argumentos
- SR-DB-003 - Esvaziar bloco catechu
- SR-DB-007 - Múltiplas camadas Com fluxograma
- SR-DB-020 - Propriedades de saída indefinidas
- SR-DB-023 - Fluxo de trabalho vazio
- SR-DB-024 - Verificação da atividade Persistente
- SR-DB-025 - Pré-requisito de serialidade de variáveis
- SR-DB-026 - Uso da atividade Dela
- SR-DB-027 - Melhores práticas de persistência
- SR-DB-028 - Pré-requisito de serialidade de argumentos
- SR-US-005 - Argumentos de atividades embutidos em código
- SR-US-009 - Variáveis não utilizadas
- SR-US-010 - Dependências não utilizadas
- SR-US-014 - Restrições de pacotes
- SR-US-020 - Mensagens de logue mínimas
- SR-US-024 - Não utilizado e postergado
- SR-US-025 - Uso incorreto do valor salvo
- SR-US-026 - Restrições da atividade
- SR-US-027 - Pacotes necessários
- ST-USG-28 — restringir modelos de invocação de arquivos
- ST-USG-032 — rótulos obrigatórios
- ST-USG-034 — URL do Automation Hub
- Variáveis
- Argumentos
- Namespaces Importados
- Automações codificadas
- Introdução
- Registro de serviços personalizados
- Contextos Antes e Depois
- Gerando código
- Geração de caso de teste codificado a partir de casos de teste manuais
- Automação assistida baseada em gatilho
- Gravação
- Elementos de Interface Gráfica
- Fluxo de controle
- Seletores
- Repo. de Objetos
- Extração de Dados
- Automação de imagem e texto
- Automação de tecnologias Citrino
- Automação RDP
- Automação da Salesforce
- Automação SAP
- Automação do Varear Horizonte
- Geração de logs
- A ferramenta ScreenScrapeJavaSupport
- O protocolo Servodrive
- Test Suite — Studio
- Introdução
- Teste de Aplicativo
- Working with manual test cases
- Modelos de execução
- Modelos de casos de teste
- Testes fictícios
- Automação de Teste de API
- Extensões
- Sobre extensões
- Ferramenta SetupExtensions
- UiPathRemoteRuntime.exe não está sendo executado na sessão remota
- O UiPath Remote Runtime bloqueia a sessão do Citrix de ser fechado
- O UiPath Remote Runtime causa vazamento de memória
- Os pacotes UiPath.UIAutomation.Activities e versões do UiPath Remote Runtime são incompatíveis
- A extensão do UiPath necessária não está instalada na máquina remota
- Configurações de resolução de tela
- Políticas de grupo do Chrome
- Não é possível se comunicar com o navegador
- A extensão do Chrome é removida automaticamente
- A extensão pode ter sido corrompida
- Verifique se a extensão para o Chrome está instalada e habilitada
- Check if ChromeNativeMessaging.exe is running
- Check if ComSpec variable is defined correctly
- Habilite o Acesso às URLs do arquivo e o Modo Anônimo
- Multiple browser profiles
- Group Policy conflict
- Known issues specific to MV3 extensions
- Lista de extensões para Chrome
- Extensão do Chrome no Mac
- Políticas de grupo Edge
- Não é possível se comunicar com o navegador
- A extensão Edge é removida automaticamente
- A extensão pode ter sido corrompida
- Check if the Extension for Microsoft Edge is installed and enabled
- Check if ChromeNativeMessaging.exe is running
- Check if ComSpec variable is defined correctly
- Enable access to file URLs and InPrivate mode
- Multiple browser profiles
- Group Policy conflict
- Known issues specific to MV3 extensions
- Lista de extensões para Edge
- Extensão para o Varear Horizonte
- Plug-in do SAP Solution Manager
- Suplemento do Excel
- Solução de problemas
- Sobre a solução de problemas
- Suporte e limitações do Microsoft Apo-V
- Solução de problemas do Internet Explorer x64
- Problemas do Microsoft Office
- Como identificar elementos de EU em PDF com opções de acessibilidade
- Reparando o suporte da Active Accessibility
- Validation of large Windows-legacy projects takes longer than expected
Working with manual test cases
Once you've established a connection with a Test Manager instance and Studio project, you can navigate to the Test Explorer panel. First, you can transform manual tests within the associated project into low-code or coded test cases. Second, you can create coded test cases using our AI features powered by AutopilotTM. If needed, you can review these manual tests in Test Manager by double-clicking on the test case in the Test Explorer panel before automating them.
You can generate fully automated test cases using Generative AI powered by Autopilot.
Before you begin, visit AI-powered test automation best practices to ensure you effectively generate the coded test cases.
- Connect Studio to a Test Manager project.
- Create elements in the Object repository that mirror the UI elements from the manual tests.
Note: Autopilot uses object repository elements to automate UI elements in test steps. The elements are employed in the APIs as Strings.
To generate the coded test case:
- In the Test Explorer panel, select 1 Manual Test Cases to display the manual test cases that you can convert into automations.
- Right-click a manual test case and select Generate coded test case with Generative AI.
The result will be a coded test case that uses UiPath APIs to generate the code for automating the entire manual test. The manual steps are displayed as comments at the beginning of the test case.
You can create a coded test case from a manual test, resulting in Studio generating a coded test case named after the manual test.
Pré-requisitos:
- Conectar ao Test Manager:
- No cabeçalho do Studio, clique em Test Manager.
- Clique em Configurações do Test Manager.
- Insira o URL base de sua instância do Test Manager e clique em Conectar.
- Em Projeto padrão, selecione o projeto no qual você deseja trabalhar. Esse projeto deve incluir os testes manuais com os quais você deseja trabalhar.
- Abra o painel do Test Explorer.
- Clique com o botão direito em um caso de teste manual na lista de casos de teste em seu projeto padrão.
- Clique em Criar caso de teste codificado.
Resultado: um novo caso de teste codificado é criado automaticamente, com o mesmo nome do teste manual. Esse caso de teste codificado exibe as etapas manuais como comentários.
You can generate a low-code test case from a manual test with the manual steps displayed as Comment activities.
- Connect Studio to a Test Manager project.
- In the Test Explorer panel, select 1 Manual Test Cases to show the manual test cases that you can convert into low-code test cases.
- Right-click a manual test case and select Create low-code test case.
The result is a low-code test case that places the manual steps as Comment activities within the XAML file.