- Notas de Versão
- Antes de começar
- Introdução
- Projetos
- Conjuntos de dados
- Pacotes de ML
- Pipelines
- Habilidades de ML
- Logs de ML
- Document Understanding no AI Center
- Licenciamento
- Como fazer
- Guia básico de solução de problemas
Pacotes para uso imediato
A UiPath oferece uma série de recursos de machine learning prontos para uso no AI Center. Um exemplo notável é o Document Understanding. Além disso, os modelos construídos pela UiPath ou de código aberto (apenas para serviço e retreináveis) são adicionados continuamente ao AI Center.
class
, break
, from
, finally
, global
, None
, etc. Certifique-se de escolher outro nome. Os exemplos listados não estão completos, pois o nome do pacote é usado para class <pkg-name>
e import <pck-name>
.
Você pode criar seus próprios pacotes com base naqueles fornecidos na seção Pacotes prontos para uso. Ao escolher um pacote desta lista, um pacote fornecido é tecnicamente clonado, pronto para ser treinado com o conjunto de dados fornecido por você.
Para fazer isso, siga as etapas abaixo:
- Crie um conjunto de dados. Para obter mais informações sobre como criar conjuntos de dados, consulte Gerenciamento de conjuntos de dados.
- Acesse Pacotes de ML > Pacotes prontos para uso e escolha o pacote necessário.
- Preencha as informações necessárias:
- Nome do Pacote
- Escolher Versão do Pacote
- Description
- Descrição da Entrada
- Descrição da Saída
- Clique em Enviar.
Para obter mais detalhes sobre as informações necessárias para cada pacote, consulte as páginas individuais deste guia.
Os pacotes Open Source (OS) são pacotes prontos para uso fornecidos pelos engenheiros da UiPath por meio da comunidade Open Source Data Science. Para serem usados dentro de seus fluxos de trabalho no Studio, você primeiro precisa implantá-los como habilidades no AI Center, como apresentado abaixo:
Esse modelo prevê o sentimento de um texto no idioma inglês. Teve seu código aberto pelo Facebook Research. Possíveis previsões são uma de “Muito negativo”, “Negativo”, “Neutro”, “Positivo”, “Muito positivo”. O modelo foi treinado nos dados de revisão de produtos da Amazon e, assim, as previsões do modelo podem ter alguns resultados inesperados para diferentes distribuições de dados. Um caso de uso comum é rotear conteúdo de idioma não estruturado (por exemplo, e-mails) com base no sentimento do texto.
É baseado no artigo de pesquisa “Bag of Tricks for Efficient Text Classification”, de Jolin, et al.
Esse modelo prevê a resposta a uma pergunta de um texto no idioma inglês com base em algum contexto de parágrafo. Teve seu código aberto pelo ONNX. Um caso de uso comum está no KYC ou processamento de relatórios financeiros, onde uma pergunta comum pode ser aplicada a um conjunto padrão de documentos semiestruturados. Ele é baseado no BERT (Representações de codificador bidirecional de Transformers) de ponta. O modelo aplica os Transformers, um modelo de atenção popular, à modelagem de idiomas para produzir uma codificação da entrada, e depois treina na tarefa de responder às perguntas.
Ele é baseado no artigo de pesquisa “BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding”.
Esse modelo prevê o idioma de uma entrada de texto. As possíveis previsões são um dos 176 idiomas:
Idiomas |
---|
af als am an ar arz as ast av az azb ba bar bcl be bg bh bn bo bpy br bs bxr ca cbk ce ceb ckb co cs cv cy da de diq dsb dty dv el eml en eo es et eu fa fi fr frr fy ga gd gl gn gom gu gv he hi hif hr hsb ht hu hy ia id ie ilo io is it ja jbo jv ka kk km kn ko krc ku kv kw ky la lb lez li lmo lo lrc lt lv mai mg mhr min mk ml mn mr mrj ms mt mwl my myv mzn nah nap nds ne new nl nn no oc ou os pa pam pfl pl pms pnb ps pt qu rm ro rue sa sah sc scn sco sd sh si sk sl so sq sr su sv sw ta te tg th tk tl tr tt tyv ug uk ur uz vec vep vi vls vo wa war wuu xal xmf yi yo yue zh |
Teve seu código aberto pelo Facebook Research. O modelo foi treinado em dados da Wikipedia, Tatoeba e SETimes, usados sob a Licença Creative Commons Attribution-Share-Alike 3.0. Um caso de uso comum é encaminhar conteúdo de idioma não estruturado (por exemplo, e-mails) para um respondente apropriado com base no idioma do texto.
É baseado no artigo de pesquisa “Bag of Tricks for Efficient Text Classification”, de Jolin, et al.
Este é um modelo de tradução de máquina Sequence-to-Sequence, que traduz de inglês para francês. Teve seu código aberto pelo Facebook AI Research (FAIR).
Ele é baseado no artigo “Convolutional Sequence to Sequence Learning”, de Gehring, et al.
Esse é um modelo de tradução de máquina Sequence-to-Sequence, que traduz de inglês para alemão. Teve seu código aberto pelo Facebook AI Research (FAIR).
Ele é baseado no artigo “Facebook FAIR's WMT19 News Translation Submission”, de Ng, et al.
Esse é um modelo de tradução de máquina Sequence-to-Sequence, que traduz de inglês para russo. Teve seu código aberto pelo Facebook AI Research (FAIR).
Ele é baseado no artigo “Facebook FAIR's WMT19 News Translation Submission”, de Ng, et al.
Esse é um modelo de tradução de máquina Sequence-to-Sequence, que traduz de inglês para alemão. Teve seu código aberto pelo Facebook AI Research (FAIR).
Ele é baseado no artigo “Facebook FAIR's WMT19 News Translation Submission”, de Ng, et al.