- Versionshinweise
- Bevor Sie beginnen
- Erste Schritte
- Installieren von AI Center
- Migration und Upgrade
- Projekte
- Datasets
- Data Labeling
- ML-Pakete
- Sofort einsetzbare Pakete
- Pipelines
- ML-Skills
- ML-Protokolle
- Document UnderstandingTM im AI Center
- Anleitungen zu …
- Lizenzierung
- Grundlegende Anleitung zur Fehlerbehebung
Überblick
Sie können Ihre eigenen Pakete basierend auf den Paketen erstellen, die im Abschnitt Out-of-the-box-Pakete bereitgestellt werden. Wenn Sie ein Paket aus dieser Liste auswählen, wird ein bereitgestelltes Paket technisch geklont und kann mit dem von Ihnen bereitgestellten Dataset trainiert werden.
Führen Sie dazu die folgenden Schritte aus:
Beispielpakete, die sofort bereitgestellt und einem RPA-Workflow hinzugefügt werden können. Weitere Informationen finden Sie im Produkt
Dies ist ein Modell für die Moderation von Bildinhalten, das auf einer Deep-Learning-Architektur basiert, die allgemein als Inception V3 bezeichnet wird. Das Modell gibt bei einem gegebenen Bild eine der vier Klassen „explizit“, „explizit-Zeichnung“, „neutral“ und „pornografisch“ zusammen mit einer normalisierten Konfidenzbewertung für jede Klassenwahrscheinlichkeit aus.
Es basiert auf der Abhandlung „Rethinking the Inception Architecture for Computer Vision“ von Szegedy et al., die von Google als Open Source veröffentlicht wurde.
Dieses Modell sagt die Stimmung eines Texts in englischer Sprache vorher. Das Modell ist ein Open-Source-Projekt von Facebook Research. Mögliche Vorhersagen sind „Sehr negativ“, „Negativ“, „Neutral“, „Positiv“, „Sehr positiv“. Das Modell wurde auf Amazon-Produktrezensionen trainiert, daher können die Modellvorhersagen einige unerwartete Ergebnisse für verschiedene Datenverteilungen haben. Ein gängiger Anwendungsfall ist das Weiterleiten unstrukturierter Sprachinhalte (z. B. E-Mails) basierend auf der Textstimmung.
Es basiert auf der Forschungsarbeit „Bag of Tricks for Efficient Text Classification“ („Trickkiste für eine effiziente Textklassifizierung“) von Joulin, et al.
Dieses Modell sagt die Antwort auf eine Frage eines Texts in englischer Sprache basierend auf dem Kontext eines Absatzes voraus. Es wird von ONNX als Open Source zur Verfügung gestellt. Ein gängiger Anwendungsfall ist bei KYC oder bei der Verarbeitung von Finanzberichten, bei denen eine allgemeine Frage auf einen Standardsatz halbstrukturierter Dokumente angewendet werden kann. Es basiert auf BERT (Bidirectional Encoder Representations from Transformers), dem neuesten Stand der Technik. Das Modell wendet Transformer auf die Sprachmodellierung an (ein beliebtes Attention-Modell des Deep Learning), um eine Codierung der Eingabe zu erstellen, und trainiert dann die Beantwortung der Fragen.
Sie basiert auf der Forschungsarbeit „BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding“ (dt. „BERT: Vortraining von tief bidirektionalen Transformatoren für das Sprachverständnis“).
Dieses Modell sagt die Sprache einer Texteingabe vorher. Mögliche Vorhersagen sind eine der folgenden 176 Sprachen:
Sprachen |
---|
af als am an ar arz als ast av az azb ba bar bcl be bg bh bn bo bpy br bs bxr ca cbk ce ceb ckb co cs cv cy da de diq dsb dty dv el eml en eo es et eu fa fi fr frr fy ga gd gl gn gom gu gv he hi hif hr hsb ht hu hy ia id ie ilo io is it ja jbo jv ka kk km kn ko krc ku kv kw ky la lb lez li lmo lo lrc lt lv mai mg mhr min mk ml mn mr mrj ms mt mwl my myv mzn nah nap nds ne new nl nn no oc or os pa pam pfl pl pms pnb ps pt qu rm ro rue sa sah sc scn sco sd sh si sk sl so sq sr su sv te tg th tk tl tr tt tyv ug uk ur uz vec vep vi vls vo wa war wuu xal xmf yi yo yue zh |
Das Modell ist ein Open-Source-Projekt von Facebook Research. Das Modell wurde auf Daten aus Wikipedia, Tatoeba und SETimes trainiert, die unter der Creative Commons Attribution-Share-Alike-Lizenz 3.0 verwendet wurden. Ein gängiger Anwendungsfall ist das Weiterleiten unstrukturierter Sprachinhalte (z. B. E-Mails) an einen entsprechenden Beantworter basierend auf der Sprache des Textes.
Es basiert auf der Forschungsarbeit „Bag of Tricks for Efficient Text Classification“ („Trickkiste für eine effiziente Textklassifizierung“) von Joulin, et al.
Dies ist ein Sequence-to-Sequence-Maschinenübersetzungsmodell, das Englisch in Französisch übersetzt. Es wurde von Facebook AI Research (FAIR) als Open Source zur Verfügung gestellt.
Es basiert auf der Forschungsarbeit „Convolutional Sequence to Sequence Learning“ von Gehring, et al.
Dies ist ein Sequence-to-Sequence-Maschinenübersetzungsmodell, das Englisch in Deutsch übersetzt. Es wurde von Facebook AI Research (FAIR) als Open Source zur Verfügung gestellt.
Es basiert auf der Forschungsarbeit „Facebook FAIR's WMT19 News Translation Submission“ von Ng, et al.
Dies ist ein Sequence-to-Sequence-Maschinenübersetzungsmodell, das Englisch in Russisch übersetzt. Es wurde von Facebook AI Research (FAIR) als Open Source zur Verfügung gestellt.
Es basiert auf der Forschungsarbeit „Facebook FAIR's WMT19 News Translation Submission“ von Ng, et al.
Dies ist ein Sequence-to-Sequence-Maschinenübersetzungsmodell, das Englisch in Russisch übersetzt. Es wurde von Facebook AI Research (FAIR) als Open Source zur Verfügung gestellt.
Es basiert auf der Forschungsarbeit „Facebook FAIR's WMT19 News Translation Submission“ von Ng, et al.
Dies ist ein Sequence-to-Sequence-Maschinenübersetzungsmodell, das Englisch in Russisch übersetzt. Es wurde von Facebook AI Research (FAIR) als Open Source zur Verfügung gestellt.
Es basiert auf der Forschungsarbeit „Facebook FAIR's WMT19 News Translation Submission“ von Ng, et al.
Dieses Modell gibt eine Liste mit den im Text erkannten Entitäten zurück. Die 18 erkannten Typen benannter Entitäten verwenden die gleiche Ausgabeklasse wie in OntoNotes5, die häufig für das Benchmarking dieser Aufgabe verwendet wird. Das Modell basiert auf der Forschungsarbeit „Approaching nested named entity recognition with parallel LSTM-CRFs“ von Borchmann et al., 2018.
Die 18 Klassen sind die folgenden:
Entität |
Beschreibung |
---|---|
Person |
Personen, auch fiktive Personen. |
NORP |
Nationalitäten oder religiöse oder politische Gruppen. |
FAC |
Gebäude, Flughäfen, Straßen, Brücken usw. |
ORG |
Unternehmen, Agenturen, Institutionen usw. |
GPE |
Länder, Städte, Staaten. |
LOC |
Nicht-GPE-Orte, Gebirgszüge, Gewässer. |
Produkt |
Objekte, Fahrzeuge, Lebensmittel usw. (Keine Dienstleistungen). |
Ereignis (Event) |
Benannte Hurrikans, Schlachten, Kriege, Sportevents usw. |
WORK_OF_ART |
Titel von Büchern, Liedern usw. |
LAW |
Benannte Dokumente, aus denen Gesetze wurden. |
Sprache |
Beliebige Sprache. |
Datum |
Absolute oder relative Datumsangaben oder Zeiträume. |
ZEIT |
Male (weniger als ein Tag). |
PERCENT |
Prozentsatz, einschließlich „%“. |
MONEY |
Monetäre Werte, einschließlich Einheit. |
Menge |
Messungen, wie z. B. Gewicht oder Abstand. |
ORDINAL |
„Erste(r,s)“, „Zweite(r,s)“ usw. |
CARDINAL |
Zahlenangaben, die nicht unter einen anderen Typ fallen. |