ixp
latest
false
UiPath logo, featuring letters U and I in white

Communications Mining-Benutzerhandbuch

Letzte Aktualisierung 20. Okt. 2025

Wann das Training Ihres Modells beendet werden soll

Mit den umfassenden Validierungsfunktionen der Plattform, einschließlich der Funktion zur Modellbewertung , ist es jetzt relativ einfach zu verstehen, wann das Training Ihres Modells beendet werden soll.

Das erforderliche Leistungsniveau für Ihr Modell liegt bei Ihnen und Ihrem Unternehmen. Die Modellbewertung der Plattform gibt Ihnen jedoch einen guten Einblick in die Leistung Ihres Modells und wie Sie es bei Bedarf verbessern können.

Ein Modell mit einer Punktzahl von 70 oder mehr gilt als gut, während eine Punktzahl von 90 erforderlich ist, damit ein Modell als exzellent eingestuft werden kann .

Unabhängig vom Anwendungsfall wird empfohlen, Folgendes anzuwenden, bevor Sie das Training beenden:

  • Dass Ihr Modell mindestens eine Gesamtpunktzahl hat, die die Bewertung Gut ergibt, da dies bedeutet, dass die Plattform das Modell insgesamt als relativ in Ordnung einsieht.
  • Dass jeder einzelne Faktor auch eine Bewertung von mindestens Gut hat.
  • Dass keine Ihrer wichtigen Beschriftungen rote oder orange Leistungswarnungen aufweist.

Bei einem analyseorientierten Modell sollte es neben den zuvor aufgeführten Faktoren im Ermessen des Modelltrainers liegen, wie sehr er die Leistung seines Modells optimieren möchte. Die Leistungsanforderung kann von verschiedenen Faktoren abhängen, einschließlich den Zielen des Anwendungsfalls und der Fähigkeit des Modelltrainers, das Training fortzusetzen.

Wenn Sie ein Modell erstellen, das Automatisierungen aktivieren soll, wird empfohlen, dass Ihr Modell eine hervorragende Bewertung hat und dass das Modell auch mit Live-Daten getestet wird, bevor es in der Produktion eingesetzt wird.



Zusätzliche optionale Leistungsprüfungen

Obwohl es sich bei der Modellbewertung um eine umfassende Leistungsbewertung handelt, möchten Sie möglicherweise einige zusätzliche Überprüfungen durchführen, um sicherzustellen, dass Sie mit der Leistung Ihres Modells zufrieden sind.

In diesem Fall finden Sie hier einige nützliche Überprüfungen, die Sie mit empfohlenen Aktionen durchführen können. Es ist erwähnenswert, dass die Plattform, wenn sie der Meinung ist, dass es für Sie wichtig ist, eine dieser Aktionen durchzuführen, diese auch in der Validierung empfiehlt .

Prüfen (Check)ProzessAuszuführende Aktionen
Die Vorhersageüberprüfung für den Zeitraum von zwei TagenÜberprüfen Sie die Vorhersagen für die letzten Daten im Wert von 1–2 Tagen: Verwenden Sie den Zeitfilter und „Aktuell“ in der Dropdownliste, um Daten im Wert von 2 den letzten Tagen auszuwählen. Überprüfen Sie die Vorhersagen und stellen Sie sicher, dass jede Nachricht eine Vorhersage mit relativ hoher Konfidenz hat. Durch die Überprüfung von Daten im Wert von 1–2 Tagen sollte sichergestellt werden, dass alle potenziellen Konzepte abgedeckt sind

‑ Wenn es Nachrichten ohne Vorhersagen oder mit unzureichender Konfidenz gibt, kommentieren Sie sie wie gewohnt

* Trainieren Sie dann weiter mit Mischen und niedriger Konfidenz

MischenÜberprüfen Sie die Vorhersagen in Mischen für mindestens 5 Seiten. Jede Nachricht sollte eine Beschriftung haben, die mit einer relativ hohen Konfidenz vorhergesagt wird

‑ Wenn es Nachrichten ohne Vorhersagen oder mit unzureichender Konfidenz gibt, kommentieren Sie sie wie gewohnt

* Trainieren Sie dann weiter mit Mischen und niedriger Konfidenz

Niedrige KonfidenzDer Modus „Niedrige Konfidenz“ zeigt Ihnen Nachrichten an, die durch informative Beschriftungsvorhersagen nicht gut abgedeckt werden. Diese Nachrichten haben entweder keine Vorhersagen oder Vorhersagen mit sehr geringer Konfidenz für Beschriftungen, die die Plattform als informativ verstehen.

* Wenn Nachrichten nicht behandelt wurden, fügen Sie eine neue Beschriftung für sie hinzu und trainieren Sie wie gewohnt

* Wenn Sie eine Nachricht für eine vorhandene Beschriftung finden, wenden Sie sie wie gewohnt an

Erneut erkennenDie Rückkehr zu Discover kann Ihnen potenzielle neue Cluster anzeigen, bei denen die Wahrscheinlichkeit, dass eine Beschriftung angewendet wird, gering ist. Dies sollte verwendet werden, um sicherzustellen, dass Sie keine potenziellen Beschriftungen übersehen haben, oder um vorhandene Beschriftungen mit vielfältigeren Beispielen bereitzustellen, ähnlich wie bei „Niedrige Konfidenz“.

* Wenn es Cluster ohne Vorhersagen (oder mit sehr niedriger) gibt, kommentieren Sie den Cluster entweder mit einer neuen oder ggf. mit einer vorhandenen Beschriftung

Trainieren Sie jede neue Bezeichnung wie gewohnt

Erneut erkennen

Erneut erkennen ist ein Schritt, der jederzeit während des Trainingsprozesses wiederholt werden kann, aber auch nützlich sein kann, wenn überprüft wird, ob Sie ausreichend Training abgeschlossen haben.

Diese Überprüfung beinhaltet im Wesentlichen nur, zur Seite „Erkennen“ im Clustermodus zurückzukehren und die darin enthaltenen Cluster zu überprüfen , um ihre Vorhersagen zu überprüfen und um festzustellen, ob Discover Cluster gefunden hat, die bei Ihrem Training möglicherweise übersehen wurden.

Da die Cluster in Discover erneut trainiert werden, nachdem eine beträchtliche Menge an Training in der Plattform abgeschlossen wurde (180 Anmerkungen) oder eine beträchtliche Datenmenge zum Dataset hinzugefügt wurde (1000 Nachrichten oder 1 %, je nachdem, welcher Wert höher ist, und mindestens 1 Anmerkung ), sollten während des gesamten Trainingsprozesses regelmäßig aktualisiert werden.

Discover versucht, Cluster zu finden, die durch Beschriftungsvorhersagen nicht gut abgedeckt werden. Wenn es in Discover Cluster gibt, die bestimmte Beschriftungen vorhergesagt haben sollten, dies aber nicht geschieht, wissen Sie, dass Sie für diese Beschriftungen mehr Training durchführen müssen. Weitere Informationen zum Versehen von Clustern in Discover mit Anmerkungen finden Sie unter Training mit Clustern.

Wenn Ihr Modell gut trainiert ist, wird Discover Schwierigkeiten haben, Cluster mit geringer Konfidenz oder ohne Vorhersagen zu finden. Wenn Sie feststellen, dass jeder der Cluster in Discover eine relativ hohe Konfidenz und korrekte Vorhersagen aufweist, ist das ein guter Indikator dafür, dass Ihr Modell das Dataset gut abdeckt.

War diese Seite hilfreich?

Hilfe erhalten
RPA lernen – Automatisierungskurse
UiPath Community-Forum
Uipath Logo
Vertrauen und Sicherheit
© 2005–2025 UiPath. Alle Rechte vorbehalten