- Versionshinweise
- Bevor Sie beginnen
- Erste Schritte
- Installieren von AI Center
- Migration und Upgrade
- Projekte
- Datasets
- Data Labeling
- ML-Pakete
- Sofort einsetzbare Pakete
- Pipelines
- ML-Skills
- ML-Protokolle
- Document UnderstandingTM im AI Center
- AI Center-API
- Anleitungen zu …
- Verwalten der Knotenplanung
- Verwenden von benutzerdefinierter NER mit kontinuierlichem Lernen
- Lizenzierung
- Grundlegende Anleitung zur Fehlerbehebung
AI Center – Benutzerhandbuch
Verwenden von benutzerdefinierter NER mit kontinuierlichem Lernen
Dieses Beispiel wird dazu verwendet, um Chemikalien nach der Kategorie zu extrahieren, die in der Forschungsarbeit erwähnt wird. Mit dem folgenden Verfahren extrahieren Sie die Chemikalien und kategorisieren sie als ABKÜRZUNG, FAMILIE, FORMEL, IDENTIFIZIERER, MEHRFACH, SYSTEMATISCH, TRIVIAL und NO_CLASS.
Wann das NER-Modell (Custom Named Entity Recognition) verwendet werden soll
Verwenden Sie das benutzerdefinierte NER-Modell zum Extrahieren von:
-
spezielle Informationen aus dem Text. Diese Informationen werden als
entity
bezeichnet. -
Die Namen von Personen, Orten, Organisationen, Orten, Datumsangaben, numerischen Werten usw. Die extrahierten Entitäten schließen sich gegenseitig aus. Entitäten befinden sich auf Einzelwort- oder Mehrfachwortebene, nicht auf Unterwortebene. Beispielsweise kann eine Entität im Satz „ I Live in New York “ New York sein, jedoch nicht im Satz „ I Read the New Yorker “.
Sie können die extrahierten Entitäten direkt in den Informationsextraktionsprozessen oder als Eingaben für die nachgelagerten Aufgaben verwenden, wie z. B. Klassifizierung des Quelltexts, Stimmungsanalyse des Quelltexts, PHi usw.
Empfehlungen für Trainings-Datasets
- Mindestens 200 Beispiele pro Entität, wenn die Entitäten eine hohe Dichte an Beispielen aufweisen, d. h., dass die meisten Beispiele (mehr als 75 %) 3–5 dieser Entitäten enthalten.
- Wenn die Entitäten spärlich sind (jede Stichprobe hat weniger als drei Entitäten), d. h. wenn nur einige der Entitäten in den meisten Dokumenten erscheinen, dann wird empfohlen, mindestens 400 Beispiele pro Entität zu haben. Dies hilft dem Modell, die unterscheidenden Funktionen besser zu verstehen.
- Wenn es mehr als 10 Entitäten gibt, fügen Sie 100 weitere Beispiele inkrementell hinzu, bis Sie die gewünschte Leistungsmetrik erreicht haben.
Best Practices
- sinnvolle Entitäten haben; Wenn ein Mensch eine Entität nicht identifizieren kann, kann es auch ein Modell nicht sein.
- Einfache Entitäten haben. Anstelle einer einzelnen Entitätsadresse sollten Sie diese in mehrere Entitäten aufteilen: Straßenname, Bundeslandname, Stadtname oder Postleitzahl usw.
- Erstellen Sie sowohl Trainings- als auch Test-Datasets und verwenden Sie eine vollständige Pipeline für das Training.
- Beginnen Sie mit einer Mindestanzahl von Beispielen für die Anmerkung, die alle Entitäten abdecken.
- Stellen Sie sicher, dass alle Entitäten sowohl in der Trainings- als auch in der Testaufteilung dargestellt sind.
- Führen Sie eine vollständige Pipeline aus und überprüfen Sie die Testmetriken. Wenn die Testmetrik nicht zufriedenstellend ist, überprüfen Sie den Klassifizierungsbericht und identifizieren Sie die Entitäten mit schlechter Leistung. Fügen Sie weitere Beispiele hinzu, die die Entitäten mit geringer Leistung abdecken, und wiederholen Sie den Trainingsprozess, bis die gewünschte Metrik erreicht ist.
Dieses Verfahren verwendet das Paket Custom Named Entity Recognition. Weitere Informationen darüber, wie dieses Paket funktioniert und wofür es verwendet werden kann, finden Sie unter Custom Named Entity Recognition.
Für dieses Verfahren haben wir Beispieldateien wie folgt bereitgestellt:
- Vorbeschriftetes Trainings-Dataset im CoNLL-Format. Sie können es hier herunterladen.
- Vorbeschriftetes Test-Dataset. Sie können es hier herunterladen.
- Beispielworkflow zum Extrahieren von Kategorien von Chemikalien, die in der Forschungsarbeit erwähnt wurden. Sie können ihn hier herunterladen.
Hinweis: Stellen Sie sicher, dass die folgenden Variablen in der Beispieldatei ausgefüllt sind:
in_emailAdress
– die E-Mail-Adresse, der die Action Center-Aufgabe zugewiesen wirdin_MLSkillEndpoint
– Öffentlicher Endpunkt der ML-Fähigkeitin_MLSkillAPIKey
– API-Schlüssel der ML-Fähigkeitin_labelStudioEndpoint
– Optional, um kontinuierliche Beschriftung zu aktivieren: Import-URL eines Label-Studio-Projekts angeben
Befolgen Sie die Anweisungen unten, um mit Label Studio zu beginnen und Daten zum AI Center zu exportieren.
- Installieren Sie Label Studio auf Ihrer lokalen Maschine oder Cloud-Instanz. Folgen Sie dazu den Anweisungen hier.
- Erstellen Sie ein neues Projekt aus der benannten Entitätserkennungsvorlage und definieren Sie Ihre Labelnamen.
- Stellen Sie sicher, dass die Labelnamen keine Sonderzeichen oder Leerzeichen enthalten. Verwenden Sie beispielsweise anstelle von
Set Date
SetDate
. - Stellen Sie sicher, dass der Wert des
<Text>
-Tags"$text"
ist. - Laden Sie die Daten mithilfe der API von hier hoch.
Beispiel für eine cURL-Anforderung:
curl --location --request POST 'https://<label-studio-instance>/api/projects/<id>/import' \)\) --header 'Content-Type: application/json' \)\) --header 'Authorization: Token <Token>' \)\) --data-raw '[ { "data": { "text": "<Text1>" }, }, { "data": { "text": "<Text2>" } } ]'
curl --location --request POST 'https://<label-studio-instance>/api/projects/<id>/import' \)\) --header 'Content-Type: application/json' \)\) --header 'Authorization: Token <Token>' \)\) --data-raw '[ { "data": { "text": "<Text1>" }, }, { "data": { "text": "<Text2>" } } ]' - Erstellen Sie Anmerkungen zu Ihren Daten.
- Exportieren Sie die Daten im CoNLL 2003-Format und laden Sie sie im AI Center hoch.
- Die Label Studio-Instanz-URL und der API-Schlüssel wurden im bereitgestellten Beispielworkflow zur Verfügung gestellt, um falsche Vorhersagen und Vorhersagen mit geringer Konfidenz zu erfassen.