- Notas de Versão
- Introdução
- Notificações
- Projetos
- Conjuntos de dados
- Rotulagem de Dados
- Pacotes de ML
- Pacotes para uso imediato
- Pipelines
- Habilidades de ML
- Logs de ML
- Document UnderstandingTM no AI Center
- API do AI Center
- Licenciamento
- Modelos de soluções de IA
- Como fazer
- Guia básico de solução de problemas
AI Center
Visão geral
A UiPath fornece uma série de recursos de machine learning prontos para uso no UiPath® AI Center. Um exemplo notável é o Document UnderstandingTM. Além disso, modelos construídos pela UiPath e de código aberto (somente para servir e retreináveis) são adicionados continuamente ao AI Center.
class
, break
, from
, finally
, global
, None
, etc. Certifique-se de escolher outro nome. Os exemplos listados não estão completos, pois o nome do pacote é usado para class <pkg-name>
e import <pck-name>
.
Os seguintes pacotes estão disponíveis na plataforma atualmente:
Modelo |
Categoria |
Tipo |
Disponibilidade |
---|---|---|---|
Classificação de imagens | Análise de imagens da UiPath | Treinamento personalizado | Visualizar |
Comparação de assinaturas | Análise de imagens da UiPath | Pré-treinado | Disponibilidade Geral |
Reconhecimento da entidade nomeada personalizada | UiPath Language Analysis | Treinamento personalizado | Disponibilidade Geral |
Classificação do texto leve | UiPath Language Analysis | Treinamento personalizado | Disponibilidade Geral |
Classificação de texto multilíngue | UiPath Language Analysis | Treinamento personalizado | Disponibilidade Geral |
Similaridade semântica | UiPath Language Analysis | Pré-treinado | Visualizar |
Classificação de texto multilabel | UiPath Language Analysis | Treinamento personalizado | Visualizar |
Modelo do analisador de TM | UiPath Task Mining | Treinamento personalizado | Disponibilidade Geral |
Moderação de imagens | Pacotes de código aberto — análise de imagem | Pré-treinado | N/A |
Detecção de objetos | Pacotes de código aberto — análise de imagem | Pré-treinado e treinamento personalizado | N/A |
Classificação de textos em inglês | Pacotes de código aberto — análise de idiomas | Treinamento personalizado | N/A |
Classificação de textos em francês | Pacotes de código aberto — análise de idiomas | Treinamento personalizado | N/A |
Classificação de textos em japonês | Pacotes de código aberto — análise de idiomas | Treinamento personalizado | N/A |
Detecção de Idioma | Pacotes de código aberto — análise de idiomas | Pré-treinado | N/A |
Reconhecimento de entidades nomeadas | Pacotes de código aberto — análise de idiomas | Pré-treinado | N/A |
Análise de opinião | Pacotes de código aberto — análise de idiomas | Pré-treinado | N/A |
Classificação de textos | Pacotes de código aberto — análise de idiomas | Treinamento personalizado | N/A |
Respostas para Perguntas | Pacotes de código aberto — compreensão linguística | Pré-treinado | N/A |
Similaridade semântica | Pacotes de código aberto — compreensão linguística | Pré-treinado | N/A |
Sumarização de textos | Pacotes de código aberto — compreensão linguística | Pré-treinado | N/A |
Tradução de inglês para francês | Pacotes de código aberto — tradução linguística | Pré-treinado | N/A |
Tradução de inglês para alemão | Pacotes de código aberto — tradução linguística | Pré-treinado | N/A |
Tradução de inglês para russo | Pacotes de código aberto — tradução linguística | Pré-treinado | N/A |
Tradução de alemão para inglês | Pacotes de código aberto — tradução linguística | Pré-treinado | N/A |
MultilingualTranslator | Pacotes de código aberto — tradução linguística | Pré-treinado | N/A |
Tradução de russo para inglês | Pacotes de código aberto — tradução linguística | Pré-treinado | N/A |
Classificação tabular do TPOT | Pacotes de código aberto — dados tabulares | Treinamento personalizado | N/A |
Regressão tabular do TPOT | Pacotes de código aberto — dados tabulares | Treinamento personalizado | N/A |
Classificação tabular do XGBoost | Pacotes de código aberto — dados tabulares | Treinamento personalizado | N/A |
Regressão tabular do XGBoost | Pacotes de código aberto — dados tabulares | Treinamento personalizado | N/A |
Pacotes de exemplo que podem ser implantados imediatamente e adicionados a um fluxo de trabalho de RPA. Outros podem ser encontrados no produto
Esse é um modelo para a moderação de conteúdo de imagem baseado em uma arquitetura de aprendizado profundo comumente conhecida como Inception V3. Dada uma imagem, o modelo a classificará em uma entre quatro classes: “explícito”, “desenho explícito“, “neutro” e “pornográfico”, juntamente com uma pontuação de confiança normalizada para cada probabilidade de classe.
Ele é baseado no artigo “Rethinking the Inception Architecture for Computer Vision” de Szegedy et al, que foi feito como código aberto pelo Google.
Esse modelo prevê o sentimento de um texto no idioma inglês. Teve seu código aberto pelo Facebook Research. Possíveis previsões são uma de “Muito negativo”, “Negativo”, “Neutro”, “Positivo”, “Muito positivo”. O modelo foi treinado nos dados de revisão de produtos da Amazon e, assim, as previsões do modelo podem ter alguns resultados inesperados para diferentes distribuições de dados. Um caso de uso comum é rotear conteúdo de idioma não estruturado (por exemplo, e-mails) com base no sentimento do texto.
É baseado no artigo de pesquisa “Bag of Tricks for Efficient Text Classification”, de Jolin, et al.
Esse modelo prevê a resposta a uma pergunta de um texto no idioma inglês com base em algum contexto de parágrafo. Teve seu código aberto pelo ONNX. Um caso de uso comum está no KYC ou processamento de relatórios financeiros, onde uma pergunta comum pode ser aplicada a um conjunto padrão de documentos semiestruturados. Ele é baseado no BERT (Representações de codificador bidirecional de Transformers) de ponta. O modelo aplica os Transformers, um modelo de atenção popular, à modelagem de idiomas para produzir uma codificação da entrada, e depois treina na tarefa de responder às perguntas.
Ele é baseado no artigo de pesquisa “BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding”.
Esse modelo prevê o idioma de uma entrada de texto. As possíveis previsões são um dos 176 idiomas:
Idiomas |
---|
af als am an ar arz as ast av az azb ba bar bcl be bg bh bn bo bpy br bs bxr ca cbk ce ceb ckb co cs cv cy da de diq dsb dty dv el eml en eo es et eu fa fi fr frr fy ga gd gl gn gom gu gv he hi hif hr hsb ht hu hy ia id ie ilo io is it ja jbo jv ka kk km kn ko krc ku kv kw ky la lb lez li lmo lo lrc lt lv mai mg mhr min mk ml mn mr mrj ms mt mwl my myv mzn nah nap nds ne new nl nn no oc ou os pa pam pfl pl pms pnb ps pt qu rm ro rue sa sah sc scn sco sd sh si sk sl so sq sr su sv sw ta te tg th tk tl tr tt tyv ug uk ur uz vec vep vi vls vo wa war wuu xal xmf yi yo yue zh |
Teve seu código aberto pelo Facebook Research. O modelo foi treinado em dados da Wikipedia, Tatoeba e SETimes, usados sob a Licença Creative Commons Attribution-Share-Alike 3.0. Um caso de uso comum é encaminhar conteúdo de idioma não estruturado (por exemplo, e-mails) para um respondente apropriado com base no idioma do texto.
É baseado no artigo de pesquisa “Bag of Tricks for Efficient Text Classification”, de Jolin, et al.
Este modelo entrega a tradução diretamente entre qualquer par de mais de 200 idiomas. Você pode encontrar a lista completa de idiomas e o código correspondente para usar cada um deles aqui.
Esta é a integração MuggingFace do modelo de código aberto No Language Left Back, da Meta AI Research. O modelo foi publicado sob a seguinte licença: Licença.
Descrição da entrada
text
: o texto a ser traduzido.from_lang
: o código de idioma do texto a ser traduzido.to_lang
: o código do idioma do texto de destino.
{"text" : "UN Chief says there is no military solution in Syria", "from_lang" : "eng_Latn", "to_lang" : "fra_Latn" }"
{"text" : "UN Chief says there is no military solution in Syria", "from_lang" : "eng_Latn", "to_lang" : "fra_Latn" }"
Descrição da saída
"Le chef de l'ONU dit qu'il n'y a pas de solution militaire en Syrie"
"Le chef de l'ONU dit qu'il n'y a pas de solution militaire en Syrie"
Este é um modelo de tradução de máquina Sequence-to-Sequence, que traduz de inglês para francês. Teve seu código aberto pelo Facebook AI Research (FAIR).
Ele é baseado no artigo “Convolutional Sequence to Sequence Learning”, de Gehring, et al.
Esse é um modelo de tradução de máquina Sequence-to-Sequence, que traduz de inglês para alemão. Teve seu código aberto pelo Facebook AI Research (FAIR).
Ele é baseado no artigo “Facebook FAIR's WMT19 News Translation Submission”, de Ng, et al.
Esse é um modelo de tradução de máquina Sequence-to-Sequence, que traduz de inglês para russo. Teve seu código aberto pelo Facebook AI Research (FAIR).
Ele é baseado no artigo “Facebook FAIR's WMT19 News Translation Submission”, de Ng, et al.
Esse é um modelo de tradução de máquina Sequence-to-Sequence, que traduz de inglês para russo. Teve seu código aberto pelo Facebook AI Research (FAIR).
Ele é baseado no artigo “Facebook FAIR's WMT19 News Translation Submission”, de Ng, et al.
Esse é um modelo de tradução de máquina Sequence-to-Sequence, que traduz de inglês para russo. Teve seu código aberto pelo Facebook AI Research (FAIR).
Ele é baseado no artigo “Facebook FAIR's WMT19 News Translation Submission”, de Ng, et al.
Esse modelo retorna uma lista de entidades reconhecidas no texto. Os 18 tipos de entidades nomeadas reconhecidas usam a mesma classe de saída do OtoNotes5, que é normalmente usado como referência dessa tarefa no meio acadêmico. O modelo é baseado no artigo “Approaching nested named entity recognition with parallel LSTM-CRFs”, de Borchmann et al, 2018.
As 18 classes são as seguintes:
Entidade |
Description |
---|---|
Pessoa |
Pessoas, incluindo fictícias. |
NORP |
Nacionalidades ou grupos religiosos ou políticos. |
FAC |
Prédios, aeroportos, rodovias, pontes etc. |
ORG |
Empresas, agências, instituições etc. |
GPE |
Países, cidades, estados. |
LOC |
Locais não GPE, cadeias de montanhas, corpos hídricos. |
Produto |
Objetos, veículos, alimentos etc. (não serviços) |
Evento |
Furacões, batalhas, guerras, eventos esportivos nomeados etc. |
WORK_OF_ART |
Títulos de livros, músicas etc. |
LEI |
Documentos nomeados que se tornaram leis. |
Idioma |
Qualquer idioma nomeado. |
Data |
Datas ou períodos absolutos ou relativos. |
Hora |
Períodos de tempo menores que um dia. |
PERCENT |
Percentual, incluindo “%”. |
MONEY |
Valores monetários, incluindo a unidade. |
Quantidade |
Medidas, como de peso ou distância. |
ORDINAL |
“primeiro”, “segundo” etc. |
CARDINAL |
Numerais que não se enquadram em outro tipo. |
Pacotes de exemplo que podem ser treinados adicionando dados ao armazenamento do AI Center e iniciando um pipeline. Outros modelos podem ser encontrados no produto.
Esse é um modelo genérico retreinável para a classificação de textos em inglês. Os casos de uso comuns são a classificação de e-mails, a classificação de tickets de serviço e a análise de sentimentos personalizados, entre outros. Veja Classificação de textos em inglês para obter mais detalhes.
Esse é um modelo genérico retreinável para a classificação de textos em francês. Os casos de uso comuns são a classificação de e-mails, a classificação de tickets de serviço e a análise de sentimentos personalizados, entre outros. Veja Classificação de textos em francês para obter mais detalhes.
Essa é a versão de visualização de um modelo genérico retreinável para a classificação de texto. Ele suporta os 100 principais idiomas da Wikipédia listados aqui. Esse pacote de ML deve ser treinado; se for implantado sem treinamento primeiro, a implantação falhará, com um erro informando que o modelo não foi treinado. Ele é baseado no BERT, um método autosupervisionado para o pré-treinamento de sistemas de processamento em linguagem natural. Uma GPU é recomendada especialmente durante o treinamento. Uma GPU proporciona uma melhoria de 5x a 10x na velocidade.
Esse modelo de visualização permite que você traga seu próprio conjunto de dados marcados com as entidades que você deseja extrair. Os conjuntos de dados de treinamento e avaliação precisam estar no formato CoNLL.
Esse é um modelo genérico retreinável para a classificação de dados tabulares (por exemplo, csv, excel). Ou seja, considerando-se uma tabela de colunas e uma coluna de destino, ele encontrará um modelo para esses dados. Veja Classificação TPOT AutoML para obter mais detalhes.
Esse é um modelo genérico retreinável para a classificação de dados tabulares (por exemplo, csv, excel). Ou seja, considerando-se uma tabela de colunas e uma coluna de destino, ele encontrará um modelo (com base no XGboost) para esses dados. Veja Classificação TPOT XGBoost,
- Pronto para implantação
- Moderação de imagens
- Análise de opinião
- Respostas para Perguntas
- Identificação de idiomas
- MultilingualTranslator
- Inglês para francês
- Inglês para alemão
- Alemão para Inglês
- Inglês para russo
- Russo para inglês
- Reconhecimento de entidades nomeadas
- Re-trainable
- Classificação de textos em inglês
- Classificação de textos em francês
- Classificação de textos multilíngues
- Reconhecimento da entidade nomeada personalizada
- Classificação tabular AutoML - TPOT
- Classificação Tabular - TPOT XGBoost