- Versionshinweise
- Erste Schritte
- Benachrichtigungen
- Projekte
- Datasets
- Data Labeling
- ML-Pakete
- Sofort einsetzbare Pakete
- Pipelines
- ML-Skills
- ML-Protokolle
- Document UnderstandingTM im AI Center
- AI Center-API
- Lizenzierung
- Vorlagen für AI Solutions
- Anleitungen zu …
- Grundlegende Anleitung zur Fehlerbehebung
Überblick
UiPath bietet eine Reihe von sofort einsetzbaren Machine Learning-Funktionen im UiPath® AI Center. Ein erwähnenswertes Beispiel ist Document UnderstandingTM. Zudem werden dem AI Center kontinuierlich von UiPath erstellte und Open-Source-Modelle (nur für die Ausgabe und erneut trainierbar) hinzugefügt.
class
, break
, from
, finally
, global
, None
usw Wählen Sie unbedingt einen anderen Namen aus. Die aufgeführten Beispiele sind nicht vollständig, da der Paketname für class <pkg-name>
und import <pck-name>
verwendet wird.
Die folgenden Pakete sind heute in der Plattform verfügbar:
Modell |
Kategorie |
Typ |
Verfügbarkeit |
---|---|---|---|
Bildklassifizierung | UiPath Bildanalyse | Benutzerdefiniertes Training | Vorschau |
Signaturvergleich | UiPath Bildanalyse | Vortrainiert | Allgemeine Verfügbarkeit |
Benutzerdefinierte Named Entity Recognition | UiPath Sprachanalyse | Benutzerdefiniertes Training | Allgemeine Verfügbarkeit |
Leichte Textklassifizierung | UiPath Sprachanalyse | Benutzerdefiniertes Training | Allgemeine Verfügbarkeit |
Mehrsprachige Textklassifizierung | UiPath Sprachanalyse | Benutzerdefiniertes Training | Allgemeine Verfügbarkeit |
Semantische Ähnlichkeit | UiPath Sprachanalyse | Vortrainiert | Vorschau |
Mehrstufige Textklassifizierung | UiPath Sprachanalyse | Benutzerdefiniertes Training | Vorschau |
TM-Analysemodell | UiPath Task Mining | Benutzerdefiniertes Training | Allgemeine Verfügbarkeit |
Bildmoderation | Open-Source-Pakete – Bildanalyse | Vortrainiert | Keine Angabe |
Objekterkennung | Open-Source-Pakete – Bildanalyse | Vortrainiertes und benutzerdefiniertes Training | Keine Angabe |
Englischsprachige Textklassifizierung | Open-Source-Pakete – Sprachanalyse | Benutzerdefiniertes Training | Keine Angabe |
Französischsprachige Textklassifizierung | Open-Source-Pakete – Sprachanalyse | Benutzerdefiniertes Training | Keine Angabe |
Japanischsprachige Textklassifizierung | Open-Source-Pakete – Sprachanalyse | Benutzerdefiniertes Training | Keine Angabe |
Spracherkennung | Open-Source-Pakete – Sprachanalyse | Vortrainiert | Keine Angabe |
NamedEntityRecognition | Open-Source-Pakete – Sprachanalyse | Vortrainiert | Keine Angabe |
Stimmungsanalyse | Open-Source-Pakete – Sprachanalyse | Vortrainiert | Keine Angabe |
Textklassifizierung | Open-Source-Pakete – Sprachanalyse | Benutzerdefiniertes Training | Keine Angabe |
Beantworten von Fragen | Open-Source-Pakete – Sprachverständnis | Vortrainiert | Keine Angabe |
Semantische Ähnlichkeit | Open-Source-Pakete – Sprachverständnis | Vortrainiert | Keine Angabe |
Textzusammenfassung | Open-Source-Pakete – Sprachverständnis | Vortrainiert | Keine Angabe |
Übersetzung Englisch – Französisch | Open-Source-Pakete – Sprachübersetzung | Vortrainiert | Keine Angabe |
Übersetzung Englisch – Deutsch | Open-Source-Pakete – Sprachübersetzung | Vortrainiert | Keine Angabe |
Übersetzung Englisch – Russisch | Open-Source-Pakete – Sprachübersetzung | Vortrainiert | Keine Angabe |
Übersetzung Deutsch – Englisch | Open-Source-Pakete – Sprachübersetzung | Vortrainiert | Keine Angabe |
MehrsprachigerÜbersetzer | Open-Source-Pakete – Sprachübersetzung | Vortrainiert | Keine Angabe |
Übersetzung Russisch – Englisch | Open-Source-Pakete – Sprachübersetzung | Vortrainiert | Keine Angabe |
TPOT Tabellen-Klassifizierung | Open-Source-Pakete – Tabellendaten | Benutzerdefiniertes Training | Keine Angabe |
TPOT Tabellen-Regression | Open-Source-Pakete – Tabellendaten | Benutzerdefiniertes Training | Keine Angabe |
XGBoost Tabellen-Klassifizierung | Open-Source-Pakete – Tabellendaten | Benutzerdefiniertes Training | Keine Angabe |
XGBoost Tabellen-Regression | Open-Source-Pakete – Tabellendaten | Benutzerdefiniertes Training | Keine Angabe |
Beispielpakete, die sofort bereitgestellt und einem RPA-Workflow hinzugefügt werden können. Weitere Informationen finden Sie im Produkt
Dies ist ein Modell für die Moderation von Bildinhalten, das auf einer Deep-Learning-Architektur basiert, die allgemein als Inception V3 bezeichnet wird. Das Modell gibt bei einem gegebenen Bild eine der vier Klassen „explizit“, „explizit-Zeichnung“, „neutral“ und „pornografisch“ zusammen mit einer normalisierten Konfidenzbewertung für jede Klassenwahrscheinlichkeit aus.
Es basiert auf der Abhandlung „Rethinking the Inception Architecture for Computer Vision“ von Szegedy et al., die von Google als Open Source veröffentlicht wurde.
Dieses Modell sagt die Stimmung eines Texts in englischer Sprache vorher. Das Modell ist ein Open-Source-Projekt von Facebook Research. Mögliche Vorhersagen sind „Sehr negativ“, „Negativ“, „Neutral“, „Positiv“, „Sehr positiv“. Das Modell wurde auf Amazon-Produktrezensionen trainiert, daher können die Modellvorhersagen einige unerwartete Ergebnisse für verschiedene Datenverteilungen haben. Ein gängiger Anwendungsfall ist das Weiterleiten unstrukturierter Sprachinhalte (z. B. E-Mails) basierend auf der Textstimmung.
Es basiert auf der Forschungsarbeit „Bag of Tricks for Efficient Text Classification“ („Trickkiste für eine effiziente Textklassifizierung“) von Joulin, et al.
Dieses Modell sagt die Antwort auf eine Frage eines Texts in englischer Sprache basierend auf dem Kontext eines Absatzes voraus. Es wird von ONNX als Open Source zur Verfügung gestellt. Ein gängiger Anwendungsfall ist bei KYC oder bei der Verarbeitung von Finanzberichten, bei denen eine allgemeine Frage auf einen Standardsatz halbstrukturierter Dokumente angewendet werden kann. Es basiert auf BERT (Bidirectional Encoder Representations from Transformers), dem neuesten Stand der Technik. Das Modell wendet Transformer auf die Sprachmodellierung an (ein beliebtes Attention-Modell des Deep Learning), um eine Codierung der Eingabe zu erstellen, und trainiert dann die Beantwortung der Fragen.
Sie basiert auf der Forschungsarbeit „BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding“ (dt. „BERT: Vortraining von tief bidirektionalen Transformatoren für das Sprachverständnis“).
Dieses Modell sagt die Sprache einer Texteingabe vorher. Mögliche Vorhersagen sind eine der folgenden 176 Sprachen:
Sprachen |
---|
af als am an ar arz als ast av az azb ba bar bcl be bg bh bn bo bpy br bs bxr ca cbk ce ceb ckb co cs cv cy da de diq dsb dty dv el eml en eo es et eu fa fi fr frr fy ga gd gl gn gom gu gv he hi hif hr hsb ht hu hy ia id ie ilo io is it ja jbo jv ka kk km kn ko krc ku kv kw ky la lb lez li lmo lo lrc lt lv mai mg mhr min mk ml mn mr mrj ms mt mwl my myv mzn nah nap nds ne new nl nn no oc or os pa pam pfl pl pms pnb ps pt qu rm ro rue sa sah sc scn sco sd sh si sk sl so sq sr su sv te tg th tk tl tr tt tyv ug uk ur uz vec vep vi vls vo wa war wuu xal xmf yi yo yue zh |
Das Modell ist ein Open-Source-Projekt von Facebook Research. Das Modell wurde auf Daten aus Wikipedia, Tatoeba und SETimes trainiert, die unter der Creative Commons Attribution-Share-Alike-Lizenz 3.0 verwendet wurden. Ein gängiger Anwendungsfall ist das Weiterleiten unstrukturierter Sprachinhalte (z. B. E-Mails) an einen entsprechenden Beantworter basierend auf der Sprache des Textes.
Es basiert auf der Forschungsarbeit „Bag of Tricks for Efficient Text Classification“ („Trickkiste für eine effiziente Textklassifizierung“) von Joulin, et al.
Dieses Modell liefert Übersetzungen direkt zwischen einem beliebigen Paar von mehr als 200 Sprachen. Die vollständige Liste der Sprachen und den entsprechenden Code zur Verwendung jeder von ihnen finden Sie hier.
Dies ist die HuggingFace-Integration des Open-Source-Modells „No Language LeftBehind“, das von Meta AI Research bereitgestellt wurde. Das Modell wurde unter der folgenden Lizenz veröffentlicht: Lizenz.
Eingabebeschreibung
text
: der zu übersetzende Text.from_lang
: Der Sprachcode des zu übersetzenden Texts.to_lang
: Der Sprachcode des Zieltexts.
{"text" : "UN Chief says there is no military solution in Syria", "from_lang" : "eng_Latn", "to_lang" : "fra_Latn" }"
{"text" : "UN Chief says there is no military solution in Syria", "from_lang" : "eng_Latn", "to_lang" : "fra_Latn" }"
Ausgabebeschreibung
"Le chef de l'ONU dit qu'il n'y a pas de solution militaire en Syrie"
"Le chef de l'ONU dit qu'il n'y a pas de solution militaire en Syrie"
Dies ist ein Sequence-to-Sequence-Maschinenübersetzungsmodell, das Englisch in Französisch übersetzt. Es wurde von Facebook AI Research (FAIR) als Open Source zur Verfügung gestellt.
Es basiert auf der Forschungsarbeit „Convolutional Sequence to Sequence Learning“ von Gehring, et al.
Dies ist ein Sequence-to-Sequence-Maschinenübersetzungsmodell, das Englisch in Deutsch übersetzt. Es wurde von Facebook AI Research (FAIR) als Open Source zur Verfügung gestellt.
Es basiert auf der Forschungsarbeit „Facebook FAIR's WMT19 News Translation Submission“ von Ng, et al.
Dies ist ein Sequence-to-Sequence-Maschinenübersetzungsmodell, das Englisch in Russisch übersetzt. Es wurde von Facebook AI Research (FAIR) als Open Source zur Verfügung gestellt.
Es basiert auf der Forschungsarbeit „Facebook FAIR's WMT19 News Translation Submission“ von Ng, et al.
Dies ist ein Sequence-to-Sequence-Maschinenübersetzungsmodell, das Englisch in Russisch übersetzt. Es wurde von Facebook AI Research (FAIR) als Open Source zur Verfügung gestellt.
Es basiert auf der Forschungsarbeit „Facebook FAIR's WMT19 News Translation Submission“ von Ng, et al.
Dies ist ein Sequence-to-Sequence-Maschinenübersetzungsmodell, das Englisch in Russisch übersetzt. Es wurde von Facebook AI Research (FAIR) als Open Source zur Verfügung gestellt.
Es basiert auf der Forschungsarbeit „Facebook FAIR's WMT19 News Translation Submission“ von Ng, et al.
Dieses Modell gibt eine Liste mit den im Text erkannten Entitäten zurück. Die 18 erkannten Typen benannter Entitäten verwenden die gleiche Ausgabeklasse wie in OntoNotes5, die häufig für das Benchmarking dieser Aufgabe verwendet wird. Das Modell basiert auf der Forschungsarbeit „Approaching nested named entity recognition with parallel LSTM-CRFs“ von Borchmann et al., 2018.
Die 18 Klassen sind die folgenden:
Entität |
Beschreibung |
---|---|
Person |
Personen, auch fiktive Personen. |
NORP |
Nationalitäten oder religiöse oder politische Gruppen. |
FAC |
Gebäude, Flughäfen, Straßen, Brücken usw. |
ORG |
Unternehmen, Agenturen, Institutionen usw. |
GPE |
Länder, Städte, Staaten. |
LOC |
Nicht-GPE-Orte, Gebirgszüge, Gewässer. |
Produkt |
Objekte, Fahrzeuge, Lebensmittel usw. (Keine Dienstleistungen). |
Ereignis (Event) |
Benannte Hurrikans, Schlachten, Kriege, Sportevents usw. |
WORK_OF_ART |
Titel von Büchern, Liedern usw. |
LAW |
Benannte Dokumente, aus denen Gesetze wurden. |
Sprache |
Beliebige Sprache. |
Datum |
Absolute oder relative Datumsangaben oder Zeiträume. |
ZEIT |
Male (weniger als ein Tag). |
PERCENT |
Prozentsatz, einschließlich „%“. |
MONEY |
Monetäre Werte, einschließlich Einheit. |
Menge |
Messungen, wie z. B. Gewicht oder Abstand. |
ORDINAL |
„Erste(r,s)“, „Zweite(r,s)“ usw. |
CARDINAL |
Zahlenangaben, die nicht unter einen anderen Typ fallen. |
Beispielpakete, die trainiert werden können, indem Daten zum AI Center-Speicher hinzugefügt und eine Pipeline gestartet wird. Weitere Modelle finden Sie im Produkt.
Dies ist ein generisches, erneut trainierbares Modell für die englischsprachige Textklassifizierung. Häufige Anwendungsfälle sind unter anderem die Supportticket-Klassifizierung oder die benutzerdefinierte Stimmungsanalyse. Weitere Informationen finden Sie unter Englischsprachige Textklassifizierung.
Dies ist ein generisches, erneut trainierbares Modell für die französischsprachige Textklassifizierung. Häufige Anwendungsfälle sind unter anderem die Supportticket-Klassifizierung oder die benutzerdefinierte Stimmungsanalyse. Weitere Informationen finden Sie unter französischsprachige Textklassifizierung.
Dies ist die Vorschauversion eines generischen, erneut trainierbaren Modells für die Textklassifizierung. Es unterstützt die 100 wichtigsten Sprache auf Wikipedia, die hier aufgeführt sind. Dieses ML-Paket muss trainiert werden. Wenn es zuerst ohne Training bereitgestellt wird, schlägt die Bereitstellung mit einem Fehler fehl, der angibt, dass das Modell nicht trainiert ist. Sie basiert auf BERT, einer selbstbeaufsichtigten Methode zum Vortraining von linguistischen Datenverarbeitungssystemen. Eine GPU wird insbesondere während des Trainings empfohlen. Eine GPU liefert eine ca. 5- bis 10-fache Verbesserung der Geschwindigkeit.
Mit diesem Vorschaumodell können Sie Ihr eigenes Dataset mit Tags versehen mit Entitäten, die Sie extrahieren möchten. Die Trainings- und Auswertungs-Datasets müssen im CoNLL-Format vorliegen.
Dies ist ein generisches, erneut trainierbares Modell für die tabellarische Datenklassifizierung (z. B. csv, Excel). Das heißt, bei einer Tabelle mit Spalten und einer Zielspalte wird ein Modell für diese Daten gefunden. Weitere Informationen finden Sie unter TPOT-AutoML-Klassifizierung.
Dies ist ein generisches, erneut trainierbares Modell für die tabellarische Datenklassifizierung (z. B. csv, Excel). Das heißt, bei einer Tabelle von Spalten und einer Zielspalte wird ein Modell (basierend auf XGBoost) für diese Daten gefunden. Weitere Informationen finden Sie unter TPOT-XGBoost-Klassifizierung.
- Bereit zur Bereitstellung
- Bildmoderation
- Stimmungsanalyse
- Beantworten von Fragen
- Sprachidentifikation
- MehrsprachigerÜbersetzer
- Englisch in Französisch
- Englisch in Deutsch
- Deutsch nach Englisch
- Englisch in Russisch
- Russisch – Englisch
- NamedEntityRecognition
- Re-trainable
- Englischsprachige Textklassifizierung
- Französischsprachige Textklassifizierung
- Mehrsprachige Textklassifizierung
- Benutzerdefinierte Named Entity Recognition
- Tabellarische Klassifizierung AutoML – TPOT
- Tabellarische Klassifizierung – TPOT XGBoost