AI Center
Neuestes
False
Bannerhintergrundbild
AI Center
Letzte Aktualisierung 18. Apr. 2024

Überblick

UiPath bietet eine Reihe von sofort einsetzbaren Machine Learning-Funktionen in UiPath AI Center™. Ein erwähnenswertes Beispiel ist Document Understanding. Zudem werden AI Center kontinuierlich von UiPath erstellte und Open-Source-Modelle (nur für die Ausgabe und erneut trainierbar) hinzugefügt.

Hinweis: Beim Erstellen eines ML-Pakets im AI Center kann es nicht mit einem reservierten Python-Schlüsselwort benannt werden, z. B. class , break , from , finally , global , None usw Wählen Sie unbedingt einen anderen Namen aus. Die aufgeführten Beispiele sind nicht vollständig, da der Paketname für class <pkg-name> und import <pck-name> verwendet wird.
Hinweis: Diese Modelle werden im gegenwärtigen Zustand unterstützt und nicht aktiv daran gearbeitet, die Modellleistung zu verbessern. Da der Code aus Open Source ist, ist er für Optimierungen vollständig zugänglich. Fehler im Zusammenhang mit der Verwendung auf der UiPath-Plattform werden nach bestem Wissen und Gewissen ohne SLA-Gewährleistung untersucht und behoben. Diese Modelle werden nicht für die Verwendung in kritischen Produktionsworkflows empfohlen.

Die folgenden Pakete sind heute in der Plattform verfügbar:

Modell

Kategorie

Typ

Verfügbarkeit

BildklassifizierungUiPath BildanalyseBenutzerdefiniertes TrainingVorschau
SignaturvergleichUiPath BildanalyseVortrainiertAllgemeine Verfügbarkeit
Benutzerdefinierte Named Entity RecognitionUiPath SprachanalyseBenutzerdefiniertes TrainingAllgemeine Verfügbarkeit
Leichte TextklassifizierungUiPath SprachanalyseBenutzerdefiniertes TrainingAllgemeine Verfügbarkeit
Mehrsprachige TextklassifizierungUiPath SprachanalyseBenutzerdefiniertes TrainingAllgemeine Verfügbarkeit
Semantische ÄhnlichkeitUiPath SprachanalyseVortrainiertVorschau
Mehrstufige TextklassifizierungUiPath SprachanalyseBenutzerdefiniertes TrainingVorschau
TM-AnalysemodellUiPath Task MiningBenutzerdefiniertes TrainingAllgemeine Verfügbarkeit
BildmoderationOpen-Source-Pakete – BildanalyseVortrainiertKeine Angabe
ObjekterkennungOpen-Source-Pakete – BildanalyseVortrainiertes und benutzerdefiniertes TrainingKeine Angabe
Englischsprachige TextklassifizierungOpen-Source-Pakete – SprachanalyseBenutzerdefiniertes TrainingKeine Angabe
Französischsprachige TextklassifizierungOpen-Source-Pakete – SprachanalyseBenutzerdefiniertes TrainingKeine Angabe
Japanischsprachige TextklassifizierungOpen-Source-Pakete – SprachanalyseBenutzerdefiniertes TrainingKeine Angabe
SpracherkennungOpen-Source-Pakete – SprachanalyseVortrainiertKeine Angabe
NamedEntityRecognitionOpen-Source-Pakete – SprachanalyseVortrainiertKeine Angabe
StimmungsanalyseOpen-Source-Pakete – SprachanalyseVortrainiertKeine Angabe
TextklassifizierungOpen-Source-Pakete – SprachanalyseBenutzerdefiniertes TrainingKeine Angabe
Beantworten von FragenOpen-Source-Pakete – SprachverständnisVortrainiertKeine Angabe
Semantische ÄhnlichkeitOpen-Source-Pakete – SprachverständnisVortrainiertKeine Angabe
TextzusammenfassungOpen-Source-Pakete – SprachverständnisVortrainiertKeine Angabe
Übersetzung Englisch – FranzösischOpen-Source-Pakete – SprachübersetzungVortrainiertKeine Angabe
Übersetzung Englisch – DeutschOpen-Source-Pakete – SprachübersetzungVortrainiertKeine Angabe
Übersetzung Englisch – RussischOpen-Source-Pakete – SprachübersetzungVortrainiertKeine Angabe
Übersetzung Deutsch – EnglischOpen-Source-Pakete – SprachübersetzungVortrainiertKeine Angabe
Übersetzung Russisch – EnglischOpen-Source-Pakete – SprachübersetzungVortrainiertKeine Angabe
TPOT Tabellen-KlassifizierungOpen-Source-Pakete – TabellendatenBenutzerdefiniertes TrainingKeine Angabe
TPOT Tabellen-RegressionOpen-Source-Pakete – TabellendatenBenutzerdefiniertes TrainingKeine Angabe
XGBoost Tabellen-KlassifizierungOpen-Source-Pakete – TabellendatenBenutzerdefiniertes TrainingKeine Angabe
XGBoost Tabellen-RegressionOpen-Source-Pakete – TabellendatenBenutzerdefiniertes TrainingKeine Angabe
Hinweis: Informationen zu Document Understanding-Modellen finden Sie im Leitfaden zum Document Understanding.

Ready-to-Deploy

Beispielpakete, die sofort bereitgestellt und einem RPA-Workflow hinzugefügt werden können. Weitere Informationen finden Sie im Produkt

Bildmoderation

Dies ist ein Modell für die Moderation von Bildinhalten, das auf einer Deep-Learning-Architektur basiert, die allgemein als Inception V3 bezeichnet wird. Das Modell gibt bei einem gegebenen Bild eine der vier Klassen „explizit“, „explizit-Zeichnung“, „neutral“ und „pornografisch“ zusammen mit einer normalisierten Konfidenzbewertung für jede Klassenwahrscheinlichkeit aus.

Es basiert auf der Abhandlung „Rethinking the Inception Architecture for Computer Vision“ von Szegedy et al., die von Google als Open Source veröffentlicht wurde.

Stimmungsanalyse

Dieses Modell sagt die Stimmung eines Texts in englischer Sprache vorher. Das Modell ist ein Open-Source-Projekt von Facebook Research. Mögliche Vorhersagen sind „Sehr negativ“, „Negativ“, „Neutral“, „Positiv“, „Sehr positiv“. Das Modell wurde auf Amazon-Produktrezensionen trainiert, daher können die Modellvorhersagen einige unerwartete Ergebnisse für verschiedene Datenverteilungen haben. Ein gängiger Anwendungsfall ist das Weiterleiten unstrukturierter Sprachinhalte (z. B. E-Mails) basierend auf der Textstimmung.

Es basiert auf der Forschungsarbeit „Bag of Tricks for Efficient Text Classification“ („Trickkiste für eine effiziente Textklassifizierung“) von Joulin, et al.

Beantworten von Fragen

Dieses Modell sagt die Antwort auf eine Frage eines Texts in englischer Sprache basierend auf dem Kontext eines Absatzes voraus. Es wird von ONNX als Open Source zur Verfügung gestellt. Ein gängiger Anwendungsfall ist bei KYC oder bei der Verarbeitung von Finanzberichten, bei denen eine allgemeine Frage auf einen Standardsatz halbstrukturierter Dokumente angewendet werden kann. Es basiert auf BERT (Bidirectional Encoder Representations from Transformers), dem neuesten Stand der Technik. Das Modell wendet Transformer auf die Sprachmodellierung an (ein beliebtes Attention-Modell des Deep Learning), um eine Codierung der Eingabe zu erstellen, und trainiert dann die Beantwortung der Fragen.

Sie basiert auf der Forschungsarbeit „BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding“ (dt. „BERT: Vortraining von tief bidirektionalen Transformatoren für das Sprachverständnis“).

Sprachidentifikation

Dieses Modell sagt die Sprache einer Texteingabe vorher. Mögliche Vorhersagen sind eine der folgenden 176 Sprachen:

Sprachen

af als am an ar arz als ast av az azb ba bar bcl be bg bh bn bo bpy br bs bxr ca cbk ce ceb ckb co cs cv cy da de diq dsb dty dv el eml en eo es et eu fa fi fr frr fy ga gd gl gn gom gu gv he hi hif hr hsb ht hu hy ia id ie ilo io is it ja jbo jv ka kk km kn ko krc ku kv kw ky la lb lez li lmo lo lrc lt lv mai mg mhr min mk ml mn mr mrj ms mt mwl my myv mzn nah nap nds ne new nl nn no oc or os pa pam pfl pl pms pnb ps pt qu rm ro rue sa sah sc scn sco sd sh si sk sl so sq sr su sv te tg th tk tl tr tt tyv ug uk ur uz vec vep vi vls vo wa war wuu xal xmf yi yo yue zh

Das Modell ist ein Open-Source-Projekt von Facebook Research. Das Modell wurde auf Daten aus Wikipedia, Tatoeba und SETimes trainiert, die unter der Creative Commons Attribution-Share-Alike-Lizenz 3.0 verwendet wurden. Ein gängiger Anwendungsfall ist das Weiterleiten unstrukturierter Sprachinhalte (z. B. E-Mails) an einen entsprechenden Beantworter basierend auf der Sprache des Textes.

Es basiert auf der Forschungsarbeit „Bag of Tricks for Efficient Text Classification“ („Trickkiste für eine effiziente Textklassifizierung“) von Joulin, et al.

Englisch in Französisch

Dies ist ein Sequence-to-Sequence-Maschinenübersetzungsmodell, das Englisch in Französisch übersetzt. Es wurde von Facebook AI Research (FAIR) als Open Source zur Verfügung gestellt.

Es basiert auf der Forschungsarbeit „Convolutional Sequence to Sequence Learning“ von Gehring, et al.

Englisch in Deutsch

Dies ist ein Sequence-to-Sequence-Maschinenübersetzungsmodell, das Englisch in Deutsch übersetzt. Es wurde von Facebook AI Research (FAIR) als Open Source zur Verfügung gestellt.

Es basiert auf der Forschungsarbeit „Facebook FAIR's WMT19 News Translation Submission“ von Ng, et al.

Deutsch nach Englisch

Dies ist ein Sequence-to-Sequence-Maschinenübersetzungsmodell, das Englisch in Russisch übersetzt. Es wurde von Facebook AI Research (FAIR) als Open Source zur Verfügung gestellt.

Es basiert auf der Forschungsarbeit „Facebook FAIR's WMT19 News Translation Submission“ von Ng, et al.

Englisch in Russisch

Dies ist ein Sequence-to-Sequence-Maschinenübersetzungsmodell, das Englisch in Russisch übersetzt. Es wurde von Facebook AI Research (FAIR) als Open Source zur Verfügung gestellt.

Es basiert auf der Forschungsarbeit „Facebook FAIR's WMT19 News Translation Submission“ von Ng, et al.

Russisch – Englisch

Dies ist ein Sequence-to-Sequence-Maschinenübersetzungsmodell, das Englisch in Russisch übersetzt. Es wurde von Facebook AI Research (FAIR) als Open Source zur Verfügung gestellt.

Es basiert auf der Forschungsarbeit „Facebook FAIR's WMT19 News Translation Submission“ von Ng, et al.

NamedEntityRecognition

Dieses Modell gibt eine Liste mit den im Text erkannten Entitäten zurück. Die 18 erkannten Typen benannter Entitäten verwenden die gleiche Ausgabeklasse wie in OntoNotes5, die häufig für das Benchmarking dieser Aufgabe verwendet wird. Das Modell basiert auf der Forschungsarbeit „Approaching nested named entity recognition with parallel LSTM-CRFs“ von Borchmann et al., 2018.

Die 18 Klassen sind die folgenden:

Entität

Beschreibung

Person

Personen, auch fiktive Personen.

NORP

Nationalitäten oder religiöse oder politische Gruppen.

FAC

Gebäude, Flughäfen, Straßen, Brücken usw.

ORG

Unternehmen, Agenturen, Institutionen usw.

GPE

Länder, Städte, Staaten.

LOC

Nicht-GPE-Orte, Gebirgszüge, Gewässer.

Produkt

Objekte, Fahrzeuge, Lebensmittel usw. (Keine Dienstleistungen).

Ereignis (Event)

Benannte Hurrikans, Schlachten, Kriege, Sportevents usw.

WORK_OF_ART

Titel von Büchern, Liedern usw.

LAW

Benannte Dokumente, aus denen Gesetze wurden.

Sprache

Beliebige Sprache.

Datum

Absolute oder relative Datumsangaben oder Zeiträume.

ZEIT

Male (weniger als ein Tag).

PERCENT

Prozentsatz, einschließlich „%“.

MONEY

Monetäre Werte, einschließlich Einheit.

Menge

Messungen, wie z. B. Gewicht oder Abstand.

ORDINAL

„Erste(r,s)“, „Zweite(r,s)“ usw.

CARDINAL

Zahlenangaben, die nicht unter einen anderen Typ fallen.

Re-trainable

Beispielpakete, die trainiert werden können, indem Daten zum AI Center-Speicher hinzugefügt und eine Pipeline gestartet wird. Weitere Modelle finden Sie im Produkt.

Englischsprachige Textklassifizierung

Dies ist ein generisches, erneut trainierbares Modell für die englischsprachige Textklassifizierung. Häufige Anwendungsfälle sind unter anderem die Supportticket-Klassifizierung oder die benutzerdefinierte Stimmungsanalyse. Weitere Informationen finden Sie unter Englischsprachige Textklassifizierung.

Französischsprachige Textklassifizierung

Dies ist ein generisches, erneut trainierbares Modell für die französischsprachige Textklassifizierung. Häufige Anwendungsfälle sind unter anderem die Supportticket-Klassifizierung oder die benutzerdefinierte Stimmungsanalyse. Weitere Informationen finden Sie unter französischsprachige Textklassifizierung.

Mehrsprachige Textklassifizierung

Dies ist die Vorschauversion eines generischen, erneut trainierbaren Modells für die Textklassifizierung. Es unterstützt die 100 wichtigsten Sprache auf Wikipedia, die hier aufgeführt sind (https://docs.uipath.com/ai-fabric/v0/docs/multi-lingual-text-classification#languages). Dieses ML-Paket muss trainiert werden. Wenn es zuerst ohne Training bereitgestellt wird, schlägt die Bereitstellung mit einem Fehler fehl, der angibt, dass das Modell nicht trainiert ist. Sie basiert auf BERT, einer selbstüberwachten Methode zum Vortraining von linguistischen Datenverarbeitungssystemen. Insbesondere während des Trainings wird eine GPU empfohlen. Eine GPU liefert eine ca. 5- bis 10-fache Verbesserung der Geschwindigkeit.

Benutzerdefinierte Named Entity Recognition

Mit diesem Vorschaumodell können Sie Ihr eigenes Dataset mit Tags versehen mit Entitäten, die Sie extrahieren möchten. Die Trainings- und Auswertungs-Datasets müssen im CoNLL-Format vorliegen.

Tabellarische Klassifizierung AutoML – TPOT

Dies ist ein generisches, erneut trainierbares Modell für die tabellarische Datenklassifizierung (z. B. csv, Excel). Das heißt, bei einer Tabelle mit Spalten und einer Zielspalte wird ein Modell für diese Daten gefunden. Weitere Informationen finden Sie unter TPOT-AutoML-Klassifizierung.

Tabellarische Klassifizierung – TPOT XGBoost

Dies ist ein generisches, erneut trainierbares Modell für die tabellarische Datenklassifizierung (z. B. csv, Excel). Das heißt, bei einer Tabelle von Spalten und einer Zielspalte wird ein Modell (basierend auf XGBoost) für diese Daten gefunden. Weitere Informationen finden Sie unter TPOT-XGBoost-Klassifizierung.

War diese Seite hilfreich?

Hilfe erhalten
RPA lernen – Automatisierungskurse
UiPath Community-Forum
UiPath Logo weiß
Vertrauen und Sicherheit
© 2005-2024 UiPath. All rights reserved.