process-mining
latest
false
Importante :
A tradução automática foi aplicada parcialmente neste conteúdo.
Process Mining
Automation CloudAutomation Cloud Public SectorAutomation SuiteStandalone
Last updated 15 de out de 2024

Configuração do DataBridgeAgent

Introdução

Esta página descreve como configurar DataBridgeAgent para carregar dados para um aplicativo de processo no Process Mining .

Configuração do DataBridgeAgent

Siga estas etapas para configurar o DataBridgeAgent.

  1. Baixe o DataBridgeAgent. Consulte Carregamento de dados usando o DataBridgeAgent.
  2. No servidor, crie uma pasta para o DataBridgeAgent. Por exemplo, D:\processmining\P2P_data\.
Observação: no resto deste guia, vamos nos referir a esse diretório como <EXTRACTORDIR>.
  1. Coloque o pacote de instalação na pasta <EXTRACTORDIR>.
    • Clique com o botão direito do mouse no pacote de instalação.
    • Selecionar Extrair tudo...
  2. Clique com o botão direito do mouse no arquivo <EXTRACTORDIR>\datarun.json e selecione Abrir.
  3. Insira um valor para as seguintes configurações:

    • azureURL
    • connectorWorkspace
    • connectorModuleCode
    • Tipo de Entrada
    • Usar o repositório de credenciais

Parâmetros genéricos

Abaixo está uma visão geral dos parâmetros genéricos para o DataBridgeAgent.

Parâmetro

Description

azureURL

O URL do SAS do armazenamento de blobs do Azure para o qual os dados extraídos precisam ser carregados. Consulte Recuperação das credenciais para o armazenamento de blobs do Azure

endOfUploadApiUrl

A API que é chamada para iniciar o processamento de dados no Process Mining depois que todos os dados tiverem sido carregados.
Observação:
O endOfUploadApiUrl só é necessário se você quiser carregar os arquivos de dados usando o DataBridgeAgent. Se quiser carregar os arquivos usando um extrator, configure a URL de fim de upload no trabalho de extração.

connectorWorkspace
O nome do espaço de trabalho do conector usado para carregar os dados e criar o conjunto de dados.

connectorModuleCode

O código do módulo do conector usado para carregar os dados e criar o conjunto de dados.

Tipo de Entrada

Também pode ser:

SAP consulte parâmetros do SAP
CSV consulte parâmetros de CSV
ODBC consulte parâmetros de ODBC
Observação: dependendo do seu tipo de entrada preferido, você deve inserir as configurações na seção correspondente.

Usar o repositório de credenciais

Indica se um repositório de credenciais é ou não usado para o armazenamento de senhas.

Observação: se estiver definido como true, você especifica o identificador de senha no campo Senha do SAP ou Senha do ODBC.

Relatório de moeda

A moeda em que valores relacionados a preço serão exibidos.

Tipo de taxa de câmbio

O tipo de taxa de câmbio usado para conversão de moeda.

Idioma

O idioma em que os dados serão extraídos do sistema de origem.

Data de início da extração

A data de início do período de extração dos dados.

Observação: nos casos em que apenas um subconjunto dos dados é necessário, é recomendável limitar a quantidade de dados carregados, pois isso pode melhorar os tempos de carregamento.

Data de término da extração

A data de término do período de extração dos dados.

Observação: nos casos em que apenas um subconjunto dos dados é necessário, é recomendável limitar a quantidade de dados carregados, pois isso pode melhorar os tempos de carregamento.

Parâmetros SAP

Abaixo está uma visão geral dos parâmetros que podem ser usados para fontes de dados do SAP.

Parâmetro

Description

Host do SAP

O nome de host ou o endereço IP do servidor de aplicativo SAP.

Número do sistema SAP

O número de dois dígitos entre 00 e 99 que identifica a instância designada.

Nome de usuário do SAP

O nome de usuário da conta que está sendo usada para fazer login na instância do SAP.

Senha do SAP

A senha do usuário acima.

Observação: se você usa um repositório de credenciais, deve inserir o identificador de senha do repositório de credenciais em vez da senha.

Cliente do SAP

O cliente que está sendo usado.

Parâmetros CSV

Abaixo está uma visão geral dos parâmetros que podem ser usados para origens de dados CSV.

Configuração do SAP

Description

Caminho de dados do CSV

Caminho de dados nos Dados do servidor que aponta para o local em que os arquivos .csv são armazenados. Por exemplo, P2P/ se todos os arquivos podem ser encontrados na pasta com o nome P2P.

Sufixo do CSV

Uma expressão regular contendo a extensão de arquivos do arquivo a ser lido. Pode conter um sufixo de até 2 dígitos que são adicionados ao nome da tabela.

Delimitador de CSV

O caractere delimitador que é usado para separar os campos.

Caractere de aspas do CSV

O caractere de aspas que é usado para identificar campos que são envolvidos entre aspas.

CSV possui cabeçalho

Indique se a primeira linha do arquivo .CSV é uma linha de cabeçalho.

Parâmetros do ODBC

Abaixo está uma visão geral dos parâmetros que podem ser usados para origens de dados ODBC.

Parâmetro

Description

Driver ODBC

O nome do driver ODBC a ser usado para esta conexão.

Nome de usuário ODBC

Nome de usuário a ser usado para se conectar à origem de dados externa.

Senha ODBC

A senha a ser usada para se conectar ao recurso de dados externo.

Observação: se você usa um repositório de credenciais, deve inserir o identificador de senha do repositório de credenciais em vez da senha.

Parâmetros de conexão ODBC

Quaisquer outros parâmetros são passados conforme especificado para o driver ODBC. Use o formato param1=value1 (;param2=value2)

Creating the dataset and upload it for use in Process Mining

Para carregar os dados e carregá-los no Azure para uso no Process Mining, execute o arquivo EXTRACTORDIR\datarun.bat.

O tempo necessário para esta tarefa dependerá muito dos volumes de dados carregados.

A saída é carregada no armazenamento do blob que dispara o processamento no Snowflake.

Como iniciar o arquivo manualmente

Siga esta etapa para iniciar a execução de dados.

  1. Clique duas vezes no arquivo EXTRACTORDIR\datarun.bat para iniciar a execução de dados.

Agendar uma tarefa para a execução de dados

Em vez de executar o arquivo manualmente, use o Agendador de Tarefas do Windows para agendar uma tarefa que executa o script em lote para atualizações de dados automatizadas.

Observação: Recomenda-se selecionar a conta de usuário local do SISTEMA para executar a tarefa e selecione a opção Executar com prioridade máxima na janela Criar Tarefa ao criar a tarefa no Windows Scheduler.

A saída é carregada no armazenamento do blob que dispara o processamento no Snowflake.

Importante: Se você adicionar um intervalo para o qual não há dados disponíveis, os painéis exibirão uma mensagem de erro.

Solução de problemas

A execução de dados também cria um arquivo de log que pode ajudar caso haja resultados inesperados ou se o upload de dados com o DataBridgeAgent falhar. O arquivo <EXTRACTORDIR>\datarun.txt contém os logs da última execução de dados.

Esta página foi útil?

Obtenha a ajuda que você precisa
Aprendendo RPA - Cursos de automação
Fórum da comunidade da Uipath
Uipath Logo White
Confiança e segurança
© 2005-2024 UiPath. Todos os direitos reservados.