- Notas de versão
- Introdução
- Instalação
- Requisitos de hardware e software
- Instalação do servidor
- Atualizando a Licença
- Implantando o Profiler do UiPath Process Mining
- Implantando um conector (.mvp)
- Atualizando o UiPath Process Mining
- Atualizando uma versão personalizada de um aplicativo ou acelerador de descoberta
- Instalando um Ambiente de Treinamento
- Configuração
- Integrações
- Autenticação
- Working with Apps and Discovery Accelerators
- Menus e painéis do AppOne
- Configuração do AppOne
- Menus e painéis do TemplateOne 1.0.0
- Configuração do TemplateOne 1.0.0
- Menus e painéis do TemplateOne
- Configuração do TemplateOne 2021.4.0
- Menus e painéis do Acelerador de Descoberta Purchase to Pay
- Configuração do acelerador Discovery de compra para pagamento
- Menus e painéis do Acelerador de Descoberta Order a Cash
- Order to Cash Discovery Accelerator Setup
- Basic Connector for AppOne
- Implantar o Conector Básico
- Introduction to Basic Connector
- Tabelas de entrada do Conector Básico
- Adicionando tags
- Adição de estimativas de automação
- Adicionando Datas de conclusão
- Adicionando modelos de referência
- Setting up Actionable Insights
- Configuração de gráficos recolhíveis
- Usando o conjunto de dados de saída no AppOne
- Output tables of the Basic Connector
- SAP Connectors
- Introduction to SAP Connector
- Entrada do SAP
- Verificando os dados no SAP Connector
- Adicionando tags específicas do processo ao SAP Connector para o AppOne
- Adição de datas de vencimento específicas do processo ao SAP Connector para o AppOne
- Adicionando estimativas de automação ao SAP Connector para o AppOne
- Adicionando atributos ao SAP Connector para o AppOne
- Adicionando atividades ao SAP Connector para o AppOne
- Adicionando entidades ao SAP Connector para o AppOne
- SAP Order to Cash Connector para AppOne
- SAP Purchase to Pay Connector para AppOne
- SAP Connector for Purchase to Pay Discovery Accelerator
- SAP Connector for Order-to-Cash Discovery Accelerator
- Superadmin
- Painéis e gráficos
- Tabelas e itens de tabela
- Integridade do aplicativo
- How to ....
- Como trabalhar com conectores SQL
- Introduction to SQL connectors
- Setting up a SQL connector
- CData Sync extractions
- Running a SQL connector
- Editing transformations
- Lançamento de um conector SQL
- Scheduling data extraction
- Structure of transformations
- Using SQL connectors for released apps
- Generating a cache with scripts
- Setting up a local test environment
- Separate development and production environments
- Recursos úteis
Running a SQL connector
Esta página contém instruções sobre como executar um conector SQL usando scripts.
run.ps1
e load.ps1
precisam ser executados no mesmo servidor que a instalação do Process Mining para produção. Os scripts extraction_cdata.ps1
e transform.ps1
também podem ser executados em outros locais.
É assumido que:
- as ferramentas de desenvolvimento descritas em Configurando um ambiente de teste local são instaladas.
-
o conector SQL é configurado conforme descrito em Configurando um conector SQL.
Observação: o diretórioscripts/
do conector contém um conjunto de scripts padrão para executar e programar extração, transformação e carregamento de dados.
Siga estas etapas para executar um conector, extrair, transformar e carregar os dados.
Etapa |
Ação |
---|---|
1 |
Inicie o Windows PowerShell como administrador. |
2 |
Vá para o diretório
scripts/ .
|
3 |
Execute
run.ps1 .
|
Siga estas etapas para executar apenas a extração.
Etapa |
Ação |
---|---|
1 |
Inicie o Windows PowerShell. |
2 |
Vá para o diretório
scripts/ .
|
3 |
Execute
extraction_cdata.ps1 .
|
extraction_ script
será diferente.
Siga estas etapas para executar apenas as etapas de transformação.
Etapa |
Ação |
---|---|
1 |
Inicie o Windows PowerShell. |
2 |
Vá para o diretório
scripts/ .
|
3 |
Execute
transform.ps1 .
|
Cada etapa de transformação também pode ser executada individualmente.
LogFile.log
é criado ao executar os scripts. Este arquivo de log contém todos os estágios da execução do trabalho e os carimbos de data/hora associados. O arquivo de log também retorna um conjunto mínimo de códigos de erro, que podem fornecer orientações adicionais.
cache_generation_output.log
que é gerado no diretório em que seu script de carregamento está localizado.
Para obter mais detalhes sobre as execuções do trabalho do CData Sync, acesse sua instância do CData Sync e verifique a guia Logging & History do seu trabalho. Veja a ilustração abaixo.
Verbose
e execute o script de extração extraction_cdata.ps1
novamente.
Abaixo está uma visão geral dos códigos de retorno de um trabalho CData Sync.
Código |
Descrição do registro |
---|---|
0 |
Extração com SUCESSO para o trabalho. |
-1 |
A extração falhou para o trabalho. |
-2 |
Falha ao executar a extração. Verifique suas configurações ou consulte a guia Registro e histórico do seu trabalho. |
O arquivo de log também retorna um conjunto de códigos de erro do script de transformação. Abaixo está uma visão geral dos códigos de erro.
Código |
Descrição do registro |
---|---|
-1 |
Falha geral
dbt run ou dbt test . Isso significa que há um problema com a configuração atual ou com a configuração. Verifique o LogFile.log para mais detalhes.
|
0* |
A chamada
dbt foi concluída sem erros.
|
1* |
A invocação
dbt foi concluída com pelo menos um erro tratado (por exemplo erro de sintaxe do modelo, permissões inválidas, etc). A execução foi concluída, mas alguns modelos podem ter sido ignorados.
LogFile.log contém informações extras informando se o erro ocorreu na fase dbt run ou dbt test .
|
2* |
A invocação
dbt foi concluída com um erro não tratado (por exemplo, uma interrupção de rede).
|
* 0, 1 e 2 são códigos de retorno específicos do dbt. Consulte a documentação oficial do dbt sobre códigos de saída.
response.txt
no diretório scripts/
poderá ser inspecionado. Isso contém as respostas em tempo real de dbt. Depois que dbt test
ou dbt run
forem concluídos, as informações serão anexadas ao LogFile.log
e o arquivo temporário será excluído.
Também é possível agendar extrações de dados em um intervalo regular. Consulte Agendamento da extração de dados.