AI Center
2022.10
False
Bannerhintergrundbild
AI Center – Benutzerhandbuch
Letzte Aktualisierung 19. April 2024

Überblick

Verwenden von sofort einsetzbaren Paketen

Sie können Ihre eigenen Pakete basierend auf den Paketen erstellen, die im Abschnitt Out-of-the-box-Pakete bereitgestellt werden. Wenn Sie ein Paket aus dieser Liste auswählen, wird ein bereitgestelltes Paket technisch geklont und kann mit dem von Ihnen bereitgestellten Dataset trainiert werden.

Führen Sie dazu die folgenden Schritte aus:

  1. Erstellen Sie ein Dataset. Weitere Informationen zum Erstellen von Datasets finden Sie unter Verwalten von Datasets.
  2. Gehen Sie zu ML-Pakete > Out-of-the-Box-Pakete und wählen Sie das erforderliche Paket aus.
  3. Geben Sie die erforderlichen Informationen ein:
    • Paketname
    • Paketversion wählen
    • Beschreibung
    • Eingabebeschreibung
    • Ausgabebeschreibung
  4. Klicken Sie auf Einreichen.

    Weitere Informationen zu den für jedes Paket erforderlichen Informationen finden Sie auf den einzelnen Seiten dieses Handbuchs.



Ready-to-Deploy

Beispielpakete, die sofort bereitgestellt und einem RPA-Workflow hinzugefügt werden können. Weitere Informationen finden Sie im Produkt

Bildmoderation

Dies ist ein Modell für die Moderation von Bildinhalten, das auf einer Deep-Learning-Architektur basiert, die allgemein als Inception V3 bezeichnet wird. Das Modell gibt bei einem gegebenen Bild eine der vier Klassen „explizit“, „explizit-Zeichnung“, „neutral“ und „pornografisch“ zusammen mit einer normalisierten Konfidenzbewertung für jede Klassenwahrscheinlichkeit aus.

Es basiert auf der Abhandlung „Rethinking the Inception Architecture for Computer Vision“ von Szegedy et al., die von Google als Open Source veröffentlicht wurde.

Stimmungsanalyse

Dieses Modell sagt die Stimmung eines Texts in englischer Sprache vorher. Das Modell ist ein Open-Source-Projekt von Facebook Research. Mögliche Vorhersagen sind „Sehr negativ“, „Negativ“, „Neutral“, „Positiv“, „Sehr positiv“. Das Modell wurde auf Amazon-Produktrezensionen trainiert, daher können die Modellvorhersagen einige unerwartete Ergebnisse für verschiedene Datenverteilungen haben. Ein gängiger Anwendungsfall ist das Weiterleiten unstrukturierter Sprachinhalte (z. B. E-Mails) basierend auf der Textstimmung.

Es basiert auf der Forschungsarbeit „Bag of Tricks for Efficient Text Classification“ („Trickkiste für eine effiziente Textklassifizierung“) von Joulin, et al.

Beantworten von Fragen

Dieses Modell sagt die Antwort auf eine Frage eines Texts in englischer Sprache basierend auf dem Kontext eines Absatzes voraus. Es wird von ONNX als Open Source zur Verfügung gestellt. Ein gängiger Anwendungsfall ist bei KYC oder bei der Verarbeitung von Finanzberichten, bei denen eine allgemeine Frage auf einen Standardsatz halbstrukturierter Dokumente angewendet werden kann. Es basiert auf BERT (Bidirectional Encoder Representations from Transformers), dem neuesten Stand der Technik. Das Modell wendet Transformer auf die Sprachmodellierung an (ein beliebtes Attention-Modell des Deep Learning), um eine Codierung der Eingabe zu erstellen, und trainiert dann die Beantwortung der Fragen.

Sie basiert auf der Forschungsarbeit „BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding“ (dt. „BERT: Vortraining von tief bidirektionalen Transformatoren für das Sprachverständnis“).

Sprachidentifikation

Dieses Modell sagt die Sprache einer Texteingabe vorher. Mögliche Vorhersagen sind eine der folgenden 176 Sprachen:

Sprachen

af als am an ar arz als ast av az azb ba bar bcl be bg bh bn bo bpy br bs bxr ca cbk ce ceb ckb co cs cv cy da de diq dsb dty dv el eml en eo es et eu fa fi fr frr fy ga gd gl gn gom gu gv he hi hif hr hsb ht hu hy ia id ie ilo io is it ja jbo jv ka kk km kn ko krc ku kv kw ky la lb lez li lmo lo lrc lt lv mai mg mhr min mk ml mn mr mrj ms mt mwl my myv mzn nah nap nds ne new nl nn no oc or os pa pam pfl pl pms pnb ps pt qu rm ro rue sa sah sc scn sco sd sh si sk sl so sq sr su sv te tg th tk tl tr tt tyv ug uk ur uz vec vep vi vls vo wa war wuu xal xmf yi yo yue zh

Das Modell ist ein Open-Source-Projekt von Facebook Research. Das Modell wurde auf Daten aus Wikipedia, Tatoeba und SETimes trainiert, die unter der Creative Commons Attribution-Share-Alike-Lizenz 3.0 verwendet wurden. Ein gängiger Anwendungsfall ist das Weiterleiten unstrukturierter Sprachinhalte (z. B. E-Mails) an einen entsprechenden Beantworter basierend auf der Sprache des Textes.

Es basiert auf der Forschungsarbeit „Bag of Tricks for Efficient Text Classification“ („Trickkiste für eine effiziente Textklassifizierung“) von Joulin, et al.

Englisch in Französisch

Dies ist ein Sequence-to-Sequence-Maschinenübersetzungsmodell, das Englisch in Französisch übersetzt. Es wurde von Facebook AI Research (FAIR) als Open Source zur Verfügung gestellt.

Es basiert auf der Forschungsarbeit „Convolutional Sequence to Sequence Learning“ von Gehring, et al.

Englisch in Deutsch

Dies ist ein Sequence-to-Sequence-Maschinenübersetzungsmodell, das Englisch in Deutsch übersetzt. Es wurde von Facebook AI Research (FAIR) als Open Source zur Verfügung gestellt.

Es basiert auf der Forschungsarbeit „Facebook FAIR's WMT19 News Translation Submission“ von Ng, et al.

Deutsch nach Englisch

Dies ist ein Sequence-to-Sequence-Maschinenübersetzungsmodell, das Englisch in Russisch übersetzt. Es wurde von Facebook AI Research (FAIR) als Open Source zur Verfügung gestellt.

Es basiert auf der Forschungsarbeit „Facebook FAIR's WMT19 News Translation Submission“ von Ng, et al.

Englisch in Russisch

Dies ist ein Sequence-to-Sequence-Maschinenübersetzungsmodell, das Englisch in Russisch übersetzt. Es wurde von Facebook AI Research (FAIR) als Open Source zur Verfügung gestellt.

Es basiert auf der Forschungsarbeit „Facebook FAIR's WMT19 News Translation Submission“ von Ng, et al.

Russisch – Englisch

Dies ist ein Sequence-to-Sequence-Maschinenübersetzungsmodell, das Englisch in Russisch übersetzt. Es wurde von Facebook AI Research (FAIR) als Open Source zur Verfügung gestellt.

Es basiert auf der Forschungsarbeit „Facebook FAIR's WMT19 News Translation Submission“ von Ng, et al.

NamedEntityRecognition

Dieses Modell gibt eine Liste mit den im Text erkannten Entitäten zurück. Die 18 erkannten Typen benannter Entitäten verwenden die gleiche Ausgabeklasse wie in OntoNotes5, die häufig für das Benchmarking dieser Aufgabe verwendet wird. Das Modell basiert auf der Forschungsarbeit „Approaching nested named entity recognition with parallel LSTM-CRFs“ von Borchmann et al., 2018.

Die 18 Klassen sind die folgenden:

Entität

Beschreibung

Person

Personen, auch fiktive Personen.

NORP

Nationalitäten oder religiöse oder politische Gruppen.

FAC

Gebäude, Flughäfen, Straßen, Brücken usw.

ORG

Unternehmen, Agenturen, Institutionen usw.

GPE

Länder, Städte, Staaten.

LOC

Nicht-GPE-Orte, Gebirgszüge, Gewässer.

Produkt

Objekte, Fahrzeuge, Lebensmittel usw. (Keine Dienstleistungen).

Ereignis (Event)

Benannte Hurrikans, Schlachten, Kriege, Sportevents usw.

WORK_OF_ART

Titel von Büchern, Liedern usw.

LAW

Benannte Dokumente, aus denen Gesetze wurden.

Sprache

Beliebige Sprache.

Datum

Absolute oder relative Datumsangaben oder Zeiträume.

ZEIT

Male (weniger als ein Tag).

PERCENT

Prozentsatz, einschließlich „%“.

MONEY

Monetäre Werte, einschließlich Einheit.

Menge

Messungen, wie z. B. Gewicht oder Abstand.

ORDINAL

„Erste(r,s)“, „Zweite(r,s)“ usw.

CARDINAL

Zahlenangaben, die nicht unter einen anderen Typ fallen.

War diese Seite hilfreich?

Hilfe erhalten
RPA lernen – Automatisierungskurse
UiPath Community-Forum
UiPath Logo weiß
Vertrauen und Sicherheit
© 2005-2024 UiPath. All rights reserved.