- Versionshinweise
- Bevor Sie beginnen
- Erste Schritte
- Installieren der Automation Suite
- Migration und Upgrade
- Projekte
- Datasets
- ML-Pakete
- Pipelines
- ML-Skills
- ML-Protokolle
- Document Understanding im AI Center
- Lizenzierung
- Anleitungen zu …
- Grundlegende Anleitung zur Fehlerbehebung
AI Center – Benutzerhandbuch
Sofort einsetzbare Pakete
UiPath bietet eine Reihe von sofort einsetzbaren Machine Learning-Funktionen im AI Center. Ein erwähnenswertes Beispiel ist Document Understanding. Zudem werden dem AI Center kontinuierlich von UiPath erstellte Open-Source-Modelle (nur für die Ausgabe und erneut trainierbar) hinzugefügt.
class
, break
, from
, finally
, global
, None
usw Wählen Sie unbedingt einen anderen Namen aus. Die aufgeführten Beispiele sind nicht vollständig, da der Paketname für class <pkg-name>
und import <pck-name>
verwendet wird.
Sie können Ihre eigenen Pakete basierend auf den Paketen erstellen, die im Abschnitt Out-of-the-box-Pakete bereitgestellt werden. Wenn Sie ein Paket aus dieser Liste auswählen, wird ein bereitgestelltes Paket technisch geklont und kann mit dem von Ihnen bereitgestellten Dataset trainiert werden.
Führen Sie dazu die folgenden Schritte aus:
- Erstellen Sie ein Dataset. Weitere Informationen zum Erstellen von Datasets finden Sie unter Verwalten von Datasets.
- Gehen Sie zu ML-Pakete > Out-of-the-Box-Pakete und wählen Sie das erforderliche Paket aus.
- Geben Sie die erforderlichen Informationen ein:
- Paketname
- Paketversion wählen
- Beschreibung
- Eingabebeschreibung
- Ausgabebeschreibung
- Klicken Sie auf Einreichen.
Weitere Informationen zu den für jedes Paket erforderlichen Informationen finden Sie auf den einzelnen Seiten dieses Handbuchs.
Open-Source-Pakete (OS) sind gebrauchsfertige Pakete, die von UiPath-Ingenieuren über die Open Source Data Science Community bereitgestellt werden. Um diese in Ihren Workflows in Studio verwenden zu können, müssen Sie sie zunächst als Fähigkeiten im AI Center wie folgt bereitstellen:
Dieses Modell sagt die Stimmung eines Texts in englischer Sprache vorher. Das Modell ist ein Open-Source-Projekt von Facebook Research. Mögliche Vorhersagen sind „Sehr negativ“, „Negativ“, „Neutral“, „Positiv“, „Sehr positiv“. Das Modell wurde auf Amazon-Produktrezensionen trainiert, daher können die Modellvorhersagen einige unerwartete Ergebnisse für verschiedene Datenverteilungen haben. Ein gängiger Anwendungsfall ist das Weiterleiten unstrukturierter Sprachinhalte (z. B. E-Mails) basierend auf der Textstimmung.
Es basiert auf der Forschungsarbeit „Bag of Tricks for Efficient Text Classification“ („Trickkiste für eine effiziente Textklassifizierung“) von Joulin, et al.
Dieses Modell sagt die Antwort auf eine Frage eines Texts in englischer Sprache basierend auf dem Kontext eines Absatzes voraus. Es wird von ONNX als Open Source zur Verfügung gestellt. Ein gängiger Anwendungsfall ist bei KYC oder bei der Verarbeitung von Finanzberichten, bei denen eine allgemeine Frage auf einen Standardsatz halbstrukturierter Dokumente angewendet werden kann. Es basiert auf BERT (Bidirectional Encoder Representations from Transformers), dem neuesten Stand der Technik. Das Modell wendet Transformer auf die Sprachmodellierung an (ein beliebtes Attention-Modell des Deep Learning), um eine Codierung der Eingabe zu erstellen, und trainiert dann die Beantwortung der Fragen.
Sie basiert auf der Forschungsarbeit „BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding“ (dt. „BERT: Vortraining von tief bidirektionalen Transformatoren für das Sprachverständnis“).
Dieses Modell sagt die Sprache einer Texteingabe vorher. Mögliche Vorhersagen sind eine der folgenden 176 Sprachen:
Sprachen |
---|
af als am an ar arz als ast av az azb ba bar bcl be bg bh bn bo bpy br bs bxr ca cbk ce ceb ckb co cs cv cy da de diq dsb dty dv el eml en eo es et eu fa fi fr frr fy ga gd gl gn gom gu gv he hi hif hr hsb ht hu hy ia id ie ilo io is it ja jbo jv ka kk km kn ko krc ku kv kw ky la lb lez li lmo lo lrc lt lv mai mg mhr min mk ml mn mr mrj ms mt mwl my myv mzn nah nap nds ne new nl nn no oc or os pa pam pfl pl pms pnb ps pt qu rm ro rue sa sah sc scn sco sd sh si sk sl so sq sr su sv te tg th tk tl tr tt tyv ug uk ur uz vec vep vi vls vo wa war wuu xal xmf yi yo yue zh |
Das Modell ist ein Open-Source-Projekt von Facebook Research. Das Modell wurde auf Daten aus Wikipedia, Tatoeba und SETimes trainiert, die unter der Creative Commons Attribution-Share-Alike-Lizenz 3.0 verwendet wurden. Ein gängiger Anwendungsfall ist das Weiterleiten unstrukturierter Sprachinhalte (z. B. E-Mails) an einen entsprechenden Beantworter basierend auf der Sprache des Textes.
Es basiert auf der Forschungsarbeit „Bag of Tricks for Efficient Text Classification“ („Trickkiste für eine effiziente Textklassifizierung“) von Joulin, et al.
Dies ist ein Sequence-to-Sequence-Maschinenübersetzungsmodell, das Englisch in Französisch übersetzt. Es wurde von Facebook AI Research (FAIR) als Open Source zur Verfügung gestellt.
Es basiert auf der Forschungsarbeit „Convolutional Sequence to Sequence Learning“ von Gehring, et al.
Dies ist ein Sequence-to-Sequence-Maschinenübersetzungsmodell, das Englisch in Deutsch übersetzt. Es wurde von Facebook AI Research (FAIR) als Open Source zur Verfügung gestellt.
Es basiert auf der Forschungsarbeit „Facebook FAIR's WMT19 News Translation Submission“ von Ng, et al.
Dies ist ein Sequence-to-Sequence-Maschinenübersetzungsmodell, das Englisch in Russisch übersetzt. Es wurde von Facebook AI Research (FAIR) als Open Source zur Verfügung gestellt.
Es basiert auf der Forschungsarbeit „Facebook FAIR's WMT19 News Translation Submission“ von Ng, et al.
Dies ist ein Sequence-to-Sequence-Maschinenübersetzungsmodell, das Englisch in Deutsch übersetzt. Es wurde von Facebook AI Research (FAIR) als Open Source zur Verfügung gestellt.
Es basiert auf der Forschungsarbeit „Facebook FAIR's WMT19 News Translation Submission“ von Ng, et al.
Dies ist ein Sequence-to-Sequence-Maschinenübersetzungsmodell, das Englisch in Russisch übersetzt. Es wurde von Facebook AI Research (FAIR) als Open Source zur Verfügung gestellt.
Es basiert auf der Forschungsarbeit „Facebook FAIR's WMT19 News Translation Submission“ von Ng, et al.