- Versionshinweise
- Erste Schritte
- Benachrichtigungen
- Projekte
- Datasets
- Data Labeling
- Über die Datenbeschriftung
- Verwalten von Datenbeschriftungen
- Verwenden der Datenbeschriftung mit Menschen in der Schleife
- ML-Pakete
- Sofort einsetzbare Pakete
- Pipelines
- ML-Skills
- ML-Protokolle
- Document UnderstandingTM im AI Center
- AI Center-API
- Lizenzierung
- Vorlagen für AI Solutions
- Anleitungen zu …
- Grundlegende Anleitung zur Fehlerbehebung

AI Center
Verwenden der Datenbeschriftung mit Menschen in der Schleife
linkMit der Datenbeschriftung können Sie Rohdaten hochladen, Textdaten im Beschriftungstool mit Anmerkungen versehen (für die Klassifizierung oder Entitätserkennung) und die beschrifteten Daten zum Trainieren von ML-Modellen verwenden. Außerdem können Sie die Datenbeschriftung für die menschliche Validierung der Modellausgaben verwenden.
Ein gängiges Szenario ist das Training eines Extraktor- oder Klassifizierermodells. Wenn die Modellvorhersage unter einen festgelegten Konfidenzschwellenwert fällt, können diese Daten zur menschlichen Validierung an Actions Center gesendet werden. Die validierten Daten können verwendet werden, um das Modell erneut zu trainieren, um die Konfidenz bei nachfolgenden Modellvorhersagen zu verbessern.
Aktivieren der Validierung durch Menschen
link- Verwenden Sie die Aktivität Wait for External Task and Resume , um über Studio eine Aufgabe im Actions Center zu erstellen.
- Verwenden Sie die Aktivitäten Create Labeling Task und Create External Task , um die Modellausgabe in ein Format zu konvertieren, das mit Data Labeling kompatibel ist.Data Labeling unterstützt Dateien im JSON-Format. Die JSON-Datei sollte ein Datenobjekt enthalten, das wiederum die im vorherigen Schritt konfigurierte Struktur enthält.
- Senden Sie die Aufgabe zur Überprüfung an einen Menschen.Sobald ein Mensch die Aufgabe überprüft und abgeschlossen hat, wird das Aufgabenobjekt mit der Ausgabe der menschlichen Überprüfung aktualisiert.
- Konvertieren Sie das Aufgabenobjekt in ein Format, das die Modelle als Trainingsdaten verwenden können.
- Senden Sie die validierten Daten mithilfe der Aktivität Upload File als Trainingsdaten an ein AI Center-Dataset.
- Starten Sie eine Pipelineausführung mit dem hochgeladenen Dataset.
Sie können diesen Beispielworkflow verwenden, um die Human-in-the-Loop-Sequences zu testen. Dieser Beispielworkflow verwendet die Lösung Email AI Template . Weitere Informationen zum Konfigurieren und Verwenden der E-Mail AI-Vorlage finden Sie auf der Seite Konfigurieren von E-Mail AI .