- Notes de publication
- Avant de commencer
- Démarrage
- Projets
- Jeux de données
- Paquets ML
- Pipelines
- Compétences ML
- Journaux ML
- Document Understanding dans AI Center
- Licences
- Comment
- Guide de dépannage de base
Paquets prêts à l’emploi
UiPath fournit un certain nombre de fonctionnalités d'apprentissage automatique prêtes à l'emploi sur AI Center. Un exemple notable est la fonctionnalité Document Understanding. De plus, des modèles UiPath intégrés ou en open source (de service uniquement et réentraînables) sont continuellement ajoutés à AI Center.
class
, break
, from
, finally
, global
, None
, etc. Assurez-vous de choisir un autre nom. Les exemples répertoriés ne sont pas complets car le nom du package est utilisé pour class <pkg-name>
et import <pck-name>
.
Vous pouvez créer vos propres packages en fonction de ceux fournis dans la section Packages prêts à l'emploi . En choisissant un package dans cette liste, un package fourni est techniquement cloné, prêt à être entraîné avec l'ensemble de données que vous avez fourni.
Pour ce faire, suivez les étapes ci-dessous :
- Créez un ensemble de données. Pour plus d'informations sur la création d'ensembles de données, voir Gestion des ensembles de données.
- Accédez à Packages ML > Packages prêts à l'emploi (Out of the Box Packages) et choisissez le package nécessaire.
- Remplissez les informations requises :
- Nom du paquet
- Choisissez la version du paquet
- Description
- Description de l'entrée
- Description de la sortie
- Cliquer sur Soumettre.
Pour plus d'informations sur les informations nécessaires pour chaque package, consultez les pages individuelles de ce guide.
Les packages Open Source (OS) sont des packages prêts à l'emploi fournis par les ingénieurs UiPath via la communauté Open Source Data Science. Pour qu'ils puissent être utilisés dans vos workflows Studio, vous devez d'abord les déployer en tant que compétences dans AI Center, comme présenté ci-dessous :
Ce modèle prédit le sentiment d'un texte en langue anglaise. Il a été publié en open source par Facebook Research. Les prédictions possibles sont "Très Négative(Very Negative), "Négative (Negative)", "Neutre (Neutral)", "Positive (Positive)", "Très Positif (Very Positive)". Le modèle a été formé sur les données d'examen des produits Amazon. Par conséquent, les prédictions du modèle peuvent avoir des résultats inattendus pour différentes distributions de données. Un cas d'utilisation courant consiste à acheminer du contenu en langage non structuré (par ex. des e-mails) en fonction du sentiment du texte.
Il est basé sur le document de recherche « Bag of Tricks for Efficient Text Classification » de Joulin et d'autres auteurs.
Ce modèle prédit la réponse à une question d'un texte en anglais sur la base d'un contexte de paragraphe. Il a été publié en open-source par ONNX. Un cas d'utilisation courant est le KYC ou le traitement des rapports financiers où une question commune peut être appliquée à un ensemble standard de documents semi-structurés. Il est basé sur le modèle de pointe BERT (Bidirectionnel Encoder Representations from Transformers). Le modèle applique Transformers, un modèle d'attention populaire, à la modélisation du langage pour produire un codage de l'entrée, puis s'entraîne à la tâche de réponse aux questions.
Il est basé sur le document de recherche « BERT : Pre-training of Deep Bidirectional Transformers for Language Understanding ».
Ce modèle prévoit la langue d'une entrée de texte. Les prévisions possibles s'effectuent parmi les 176 langues suivantes :
Langues |
---|
af als am an ar arz as as av az azb ba bar bcl be bg bh bn bo bpy br bs bxr ca cbk ce ceb ckb co cs cv cy da de diq dsb dty dv el eml en eo es et eu fa fi fr frr fy ga gd gl gn gom gu gv he salut hif hr hsb ht hu hy ia id ie ilo io est-ce ja jbo jv ka kk km kn ko krc ku kv kw ky la lb lez li lmo lo lrc lt lv mai mg mhr min mk ml mn mr mrj ms mt mwl myv mzn nah nap nds ne new nl nn no oc or os pa pam pfl pl pms pnb ps pt qu rm ro ru rue sa sah sc scn sco sd sh si sk sl so sq sr su sv sw ta te tg th tk tl tr tt tyv ug uk ur uz vec vep vi vls vo wa war wuu xal xmf yi yo yue zh |
Il a été publié en open source par Facebook Research. Le modèle a été formé à partir des données de Wikipedia, Tatoeba et SETimes utilisées sous la licence Creative Commons Attribution-Share-Alike 3.0. Un cas d'utilisation courant consiste à acheminer du contenu en langage non structuré (par ex. e-mails) à un interlocuteur approprié en fonction de la langue du texte.
Il est basé sur le document de recherche « Bag of Tricks for Efficient Text Classification » de Joulin et d'autres auteurs.
Il s'agit d'un modèle de traduction automatique de séquence à séquence qui traduit de l'anglais vers le français. Il a été publié en open source par Facebook AI Research (FAIR).
Il est basé sur l'article « Convolutional Sequence to Sequence Learning » de Gehring et d'autres auteurs.
Il s'agit d'un modèle de traduction automatique de séquence à séquence qui traduit de l'anglais vers l'allemand. Il a été publié en open source par Facebook AI Research (FAIR).
Il est basé sur l'article « Facebook FAIR's WMT19 News Translation Submission » par Ng, et d'autres auteurs.
Il s'agit d'un modèle de traduction automatique de séquence à séquence qui traduit de l'anglais vers le russe. Il a été publié en open source par Facebook AI Research (FAIR).
Il est basé sur l'article « Facebook FAIR's WMT19 News Translation Submission » par Ng, et d'autres auteurs.
Il s'agit d'un modèle de traduction automatique de séquence à séquence qui traduit de l'anglais vers l'allemand. Il a été publié en open source par Facebook AI Research (FAIR).
Il est basé sur l'article « Facebook FAIR's WMT19 News Translation Submission » par Ng, et d'autres auteurs.
Il s'agit d'un modèle de traduction automatique de séquence à séquence qui traduit de l'anglais vers le russe. Il a été publié en open source par Facebook AI Research (FAIR).
Il est basé sur l'article « Facebook FAIR's WMT19 News Translation Submission » par Ng, et d'autres auteurs.