- Notes de publication
- Démarrage
- Notifications
- Projets
- Jeux de données
- Labellisation des données
- Paquets ML
- Paquets prêts à l’emploi
- Vue d'ensemble (Overview)
- AI Computer Vision
- Communications Mining
- UiPath Document Understanding
- Pipelines
- Compétences ML
- Journaux ML
- Document UnderstandingTM dans AI Center
- API AI Center
- Licences
- Modèles de solutions d'IA
- Comment
- Guide de dépannage de base
Vue d'ensemble (Overview)
UiPath provides a number of machine learning capabilities out-of-the-box on UiPath® AI Center. A notable example is Document UnderstandingTM. In addition, UiPath built and open-source models (serving-only and retrainable) are continuously added to AI Center.
class
, break
, from
, finally
, global
, None
, etc. Assurez-vous de choisir un autre nom. Les exemples répertoriés ne sont pas complets car le nom du package est utilisé pour class <pkg-name>
et import <pck-name>
.
Les packages suivants sont disponibles sur la plate-forme dès aujourd'hui :
Modèle |
Catégorie |
Saisie de texte |
Disponibilité |
---|---|---|---|
Classification des images | Analyse des images UiPath | Entraînement personnalisé | Aperçu |
Comparaison des signatures | Analyse des images UiPath | Pré-entraîné | Disponibilité générale |
Reconnaissance d'entité nommée personnalisée | Analyse du langage UiPath | Entraînement personnalisé | Disponibilité générale |
Classification de texte clair | Analyse du langage UiPath | Entraînement personnalisé | Disponibilité générale |
Classification de texte multilingue | Analyse du langage UiPath | Entraînement personnalisé | Disponibilité générale |
Similitude sémantique | Analyse du langage UiPath | Pré-entraîné | Aperçu |
Classification de textes multi-labels | Analyse du langage UiPath | Entraînement personnalisé | Aperçu |
Modèle d'analyseur de TM | UiPath Task Mining | Entraînement personnalisé | Disponibilité générale |
Modération d'image | Paquets Open Source - Analyse d'image | Pré-entraîné | S/O |
Détection d'objets | Paquets Open Source - Analyse d'image | Entraînement pré-entraîné et personnalisé | S/O |
Classification des textes anglais | Paquets Open Source - Analyse du langage | Entraînement personnalisé | S/O |
Classification des textes français | Paquets Open Source - Analyse du langage | Entraînement personnalisé | S/O |
Classification des textes japonais | Paquets Open Source - Analyse du langage | Entraînement personnalisé | S/O |
Détection de la langue | Paquets Open Source - Analyse du langage | Pré-entraîné | S/O |
NamedEntityRecognition | Paquets Open Source - Analyse du langage | Pré-entraîné | S/O |
Analyse des sentiments | Paquets Open Source - Analyse du langage | Pré-entraîné | S/O |
Classification de texte | Paquets Open Source - Analyse du langage | Entraînement personnalisé | S/O |
Réponses aux questions | Paquets Open Source - Compréhension du langage | Pré-entraîné | S/O |
Similitude sémantique | Paquets Open Source - Compréhension du langage | Pré-entraîné | S/O |
Résumé de texte | Paquets Open Source - Compréhension du langage | Pré-entraîné | S/O |
Traduction de l'anglais vers le français | Packages Open Source - Traduction de langues | Pré-entraîné | S/O |
Traduction de l'anglais vers l'allemand | Packages Open Source - Traduction de langues | Pré-entraîné | S/O |
Traduction de l'anglais vers le russe | Packages Open Source - Traduction de langues | Pré-entraîné | S/O |
Traduction de l'allemand vers l'anglais | Packages Open Source - Traduction de langues | Pré-entraîné | S/O |
TraducteurMultilingue | Packages Open Source - Traduction de langues | Pré-entraîné | S/O |
Traduction du russe vers l'anglais | Packages Open Source - Traduction de langues | Pré-entraîné | S/O |
Classification tabulaire TPOT | Paquets Open Source - Données tabulaires | Entraînement personnalisé | S/O |
Régression tabulaire TPOT | Paquets Open Source - Données tabulaires | Entraînement personnalisé | S/O |
Classification tabulaire XGBoost | Paquets Open Source - Données tabulaires | Entraînement personnalisé | S/O |
Régression tabulaire XGBoost | Paquets Open Source - Données tabulaires | Entraînement personnalisé | S/O |
Exemples de packages pouvant être immédiatement déployés et ajoutés à un workflow RPA. Vous trouverez plus d'informations dans le produit
Il s'agit d'un modèle de modération de contenu d'image basé sur une architecture d'apprentissage profond communément appelée Inception V3. À partir d'une image, le modèle produira l'une des quatre catégories « explicite », « dessin explicite », « neutre » et « pornographique » avec un score de confiance normalisé pour chaque probabilité de catégorie.
Il est basé sur l'article « Rethinking the Inception Architecture for Computer Vision » de Szegedy et d'autres, qui a été publié en open source par Google.
Ce modèle prédit le sentiment d'un texte en langue anglaise. Il a été publié en open source par Facebook Research. Les prédictions possibles sont "Très Négative(Very Negative), "Négative (Negative)", "Neutre (Neutral)", "Positive (Positive)", "Très Positif (Very Positive)". Le modèle a été formé sur les données d'examen des produits Amazon. Par conséquent, les prédictions du modèle peuvent avoir des résultats inattendus pour différentes distributions de données. Un cas d'utilisation courant consiste à acheminer du contenu en langage non structuré (par ex. des e-mails) en fonction du sentiment du texte.
Il est basé sur le document de recherche « Bag of Tricks for Efficient Text Classification » de Joulin et d'autres auteurs.
Ce modèle prédit la réponse à une question d'un texte en anglais sur la base d'un contexte de paragraphe. Il a été publié en open-source par ONNX. Un cas d'utilisation courant est le KYC ou le traitement des rapports financiers où une question commune peut être appliquée à un ensemble standard de documents semi-structurés. Il est basé sur le modèle de pointe BERT (Bidirectionnel Encoder Representations from Transformers). Le modèle applique Transformers, un modèle d'attention populaire, à la modélisation du langage pour produire un codage de l'entrée, puis s'entraîne à la tâche de réponse aux questions.
Il est basé sur le document de recherche « BERT : Pre-training of Deep Bidirectional Transformers for Language Understanding ».
Ce modèle prévoit la langue d'une entrée de texte. Les prévisions possibles s'effectuent parmi les 176 langues suivantes :
Langues |
---|
af als am an ar arz as as av az azb ba bar bcl be bg bh bn bo bpy br bs bxr ca cbk ce ceb ckb co cs cv cy da de diq dsb dty dv el eml en eo es et eu fa fi fr frr fy ga gd gl gn gom gu gv he salut hif hr hsb ht hu hy ia id ie ilo io est-ce ja jbo jv ka kk km kn ko krc ku kv kw ky la lb lez li lmo lo lrc lt lv mai mg mhr min mk ml mn mr mrj ms mt mwl myv mzn nah nap nds ne new nl nn no oc or os pa pam pfl pl pms pnb ps pt qu rm ro ru rue sa sah sc scn sco sd sh si sk sl so sq sr su sv sw ta te tg th tk tl tr tt tyv ug uk ur uz vec vep vi vls vo wa war wuu xal xmf yi yo yue zh |
Il a été publié en open source par Facebook Research. Le modèle a été formé à partir des données de Wikipedia, Tatoeba et SETimes utilisées sous la licence Creative Commons Attribution-Share-Alike 3.0. Un cas d'utilisation courant consiste à acheminer du contenu en langage non structuré (par ex. e-mails) à un interlocuteur approprié en fonction de la langue du texte.
Il est basé sur le document de recherche « Bag of Tricks for Efficient Text Classification » de Joulin et d'autres auteurs.
Ce modèle fournit une traduction directement entre n'importe quelle paire de plus de 200 langues. Vous pouvez trouver la liste complète des langues et le code correspondant pour chacune d'entre elles ici.
Il s’agit de l’intégration HuggingFace du modèle Open Source Aucune langue laissée en open source par Meta AI Research. Le modèle a été publié sous la licence suivante : Licence.
Description de l'entrée
text
: le texte à traduire.from_lang
: le code de langue du texte à traduire.to_lang
: le code de langue du texte ciblé.
{"text" : "UN Chief says there is no military solution in Syria", "from_lang" : "eng_Latn", "to_lang" : "fra_Latn" }"
{"text" : "UN Chief says there is no military solution in Syria", "from_lang" : "eng_Latn", "to_lang" : "fra_Latn" }"
Description de la sortie
"Le chef de l'ONU dit qu'il n'y a pas de solution militaire en Syrie"
"Le chef de l'ONU dit qu'il n'y a pas de solution militaire en Syrie"
Il s'agit d'un modèle de traduction automatique de séquence à séquence qui traduit de l'anglais vers le français. Il a été publié en open source par Facebook AI Research (FAIR).
Il est basé sur l'article « Convolutional Sequence to Sequence Learning » de Gehring et d'autres auteurs.
Il s'agit d'un modèle de traduction automatique de séquence à séquence qui traduit de l'anglais vers l'allemand. Il a été publié en open source par Facebook AI Research (FAIR).
Il est basé sur l'article « Facebook FAIR's WMT19 News Translation Submission » par Ng, et d'autres auteurs.
Il s'agit d'un modèle de traduction automatique de séquence à séquence qui traduit de l'anglais vers le russe. Il a été publié en open source par Facebook AI Research (FAIR).
Il est basé sur l'article « Facebook FAIR's WMT19 News Translation Submission » par Ng, et d'autres auteurs.
Il s'agit d'un modèle de traduction automatique de séquence à séquence qui traduit de l'anglais vers le russe. Il a été publié en open source par Facebook AI Research (FAIR).
Il est basé sur l'article « Facebook FAIR's WMT19 News Translation Submission » par Ng, et d'autres auteurs.
Il s'agit d'un modèle de traduction automatique de séquence à séquence qui traduit de l'anglais vers le russe. Il a été publié en open source par Facebook AI Research (FAIR).
Il est basé sur l'article « Facebook FAIR's WMT19 News Translation Submission » par Ng, et d'autres auteurs.
Ce modèle renvoie une liste d'entités reconnues dans le texte. Les 18 types d'entités nommées reconnus utilisent la même classe de sortie que dans OntoNotes5, qui est couramment utilisée pour l'analyse comparative de cette tâche dans le milieu universitaire. Le modèle est basé sur l'article « Approaching Nested Named entity reconnaissance with parallel LSTM-CRFs » de Borchmann et d'autres auteurs, 2018.
Les 18 classes sont les suivantes :
Entité |
Description |
---|---|
Personne |
Les personnes, y compris fictives. |
NORP |
Nationalités ou groupes religieux ou politiques. |
FAC |
Bâtiments, aéroports, autoroutes, ponts, etc. |
ORG |
Entreprises, agences, institutions, etc. |
GPE |
Pays, villes, états. |
LOC |
Emplacements d'entités non-géopolitiques, chaînes de montagnes, plans d'eau. |
Produit |
Objets, véhicules, aliments, etc. (pas de services) |
Événement (Event) |
Ouragans nommés, batailles, guerres, événements sportifs, etc. |
WORK_OF_ART |
Titres de livres, chansons, etc. |
LAW |
Documents nommés transformés en lois. |
Langue |
Toute langue nommée. |
Date |
Dates ou périodes absolues ou relatives. |
HEURE |
Durées inférieures à une journée. |
PERCENT |
Pourcentage, y compris « % ». |
MONEY |
Valeurs monétaires, y compris l'unité. |
Quantité |
Mesures, comme le poids ou la distance. |
ORDINAL |
« premier », « deuxième », etc. |
CARDINAL |
Chiffres qui ne relèvent pas d'un autre type. |
Des exemples de packages qui peuvent être entraînés en ajoutant des données au stockage AI Center et en démarrant un pipeline, plus de modèles peuvent être trouvés dans le produit.
Il s'agit d'un modèle générique et réentraînable pour la classification en anglais. Les cas d'utilisation courants sont la classification des e-mails, la classification des tickets de service, l'analyse de sentiments personnalisée, entre autres. Voir Classification des textes anglais pour plus de détails.
Il s'agit d'un modèle générique et réentraînable pour la classification en français. Les cas d'utilisation courants sont la classification des e-mails, la classification des tickets de service, l'analyse de sentiments personnalisée, entre autres. Voir Classification des textes français pour plus de détails.
Il s'agit de la version préliminaire d'un modèle générique et réentraînable pour la classification de texte. Il prend en charge les 100 principales langues Wikipedia répertoriées ici. Ce package ML doit être entraîné ; s'il est déployé sans entraînement préalable, le déploiement échouera en présentant une erreur indiquant que le modèle n'a pas été entraîné. Il est basé sur BERT, une méthode auto-supervisée pour le pré-entraînement des systèmes de traitement des langages naturels. Un GPU est recommandé surtout pendant l'entraînement. Un GPU permet d'améliorer la vitesse de 5 à 10 fois.
Ce modèle d'aperçu vous permet d'apporter votre propre ensemble de données balisé avec les entités que vous souhaitez extraire. Les ensembles de données de formation et d'évaluation doivent être au format CoNLL.
Il s'agit d'un modèle générique et réentraînable pour la classification des données tabulaires (par ex. csv, excel). Autrement dit, si une table de colonnes et une colonne cible sont indiquées, il trouvera un modèle pour ces données. Voir Classification TPOT AutoML pour plus de détails.
Il s'agit d'un modèle générique et réentraînable pour la classification des données tabulaires (par ex. csv, excel). Autrement dit, si une table de colonnes et une colonne cible sont indiquées, il trouvera un modèle (basé sur XGBoost) pour ces données. Voir la classification TPOT XGBoost,
- Prêt à déployer
- Modération d'image
- Analyse des sentiments
- Réponses aux questions
- Identification de la langue
- TraducteurMultilingue
- Anglais vers français
- Anglais vers allemand
- Allemand vers anglais
- Anglais vers russe
- Russe vers anglais
- NamedEntityRecognition
- Re-trainable
- Classification des textes anglais
- Classification des textes français
- Classification de texte multilingue
- Reconnaissance d'entité nommée personnalisée
- Classification tabulaire AutoML - TPOT
- Classification tabulaire - TPOT XGBoost