- Einleitung
- Einrichten Ihres Kontos
- Ausgewogenheit
- Cluster
- Konzeptabweichung
- Abdeckung
- Datasets
- Allgemeine Felder
- Beschriftungen (Vorhersagen, Konfidenzniveaus, Beschriftungshierarchie und Beschriftungsstimmung)
- Modelle
- Streams
- Modellbewertung
- Projekte
- Präzision
- Rückruf
- Nachrichten mit und ohne Anmerkungen
- Extraktionsfelder
- Quellen
- Taxonomien
- Training
- „True“ und „false“ positive und negative Vorhersagen
- Validierung
- Messages
- Zugriffssteuerung und Administration
- Verwalten Sie Quellen und Datasets
- Verstehen der Datenstruktur und -berechtigungen
- Erstellen oder Löschen einer Datenquelle in der GUI
- Hochladen einer CSV-Datei in eine Quelle
- Vorbereiten von Daten für den CSV-Upload
- Ein Dataset wird erstellt
- Mehrsprachige Quellen und Datasets
- Aktivieren der Stimmung für ein Dataset
- Ändern der Dataset-Einstellungen
- Löschen einer Nachricht
- Löschen eines Datasets
- Exportieren eines Datasets
- Verwenden von Exchange-Integrationen
- Modelltraining und -wartung
- Grundlegendes zu Beschriftungen, allgemeinen Feldern und Metadaten
- Beschriftungshierarchie und Best Practices
- Vergleichen von Anwendungsfällen für Analyse und Automatisierung
- Konvertieren Ihrer Ziele in Bezeichnungen
- Übersicht über den Modelltrainingsprozess
- Generative Anmerkung
- Der Status des Datasets
- Best Practice für Modelltraining und Anmerkungen
- Training mit aktivierter Beschriftungs-Stimmungsanalyse
- Training von Chat- und Anrufdaten
- Grundlegendes zu Datenanforderungen
- Trainieren
- Einführung in Verfeinerung
- Erläuterungen zu Präzision und Rückruf
- Präzision und Rückruf
- So funktioniert die Validierung
- Verstehen und Verbessern der Modellleistung
- Gründe für die geringe durchschnittliche Beschriftungsgenauigkeit
- Training mit Beschriftung „Überprüfen“ und Beschriftung „Verpasst“.
- Training mit der Bezeichnung „Teach“ (Verfeinern)
- Training mit der Suche (verfeinern)
- Verstehen und Erhöhen der Abdeckung
- Verbesserung des Abgleichs und Verwendung des Abgleichs
- Wann das Training Ihres Modells beendet werden soll
- Verwenden von allgemeinen Feldern
- Generative Extraktion
- Verwenden von Analyse und Überwachung
- Automations and Communications Mining™
- Entwickler (Developer)
- Verwenden der API
- API-Tutorial
- Quellen
- Datasets
- Anmerkungen
- Anhänge (Attachments)
- Vorhersagen
- Erstellen Sie einen Stream
- Aktualisieren Sie einen Stream
- Rufen Sie einen Stream nach Namen ab
- Rufen Sie alle Streams ab
- Löschen Sie einen Stream
- Ergebnisse aus Stream abrufen
- Kommentare aus einem Stream abrufen (Legacy)
- Bringen Sie einen Stream vor
- Einen Stream zurücksetzen
- Kennzeichnen Sie eine Ausnahme
- Entfernen Sie das Tag einer Ausnahme
- Prüfungsereignisse
- Alle Benutzer abrufen
- Hochladen von Daten
- Herunterladen von Daten
- Exchange Integration mit einem Azure-Dienstbenutzer
- Exchange-Integration mit der Azure-Anwendungsauthentifizierung
- Exchange-Integration mit Azure Application Authentication und Graph
- Abrufen von Daten für Tableau mit Python
- Elasticsearch-Integration
- Allgemeine Feldextraktion
- Selbst gehostete Exchange-Integration
- UiPath® Automatisierungs-Framework
- Offizielle UiPath®-Aktivitäten
- Wie Maschinen lernen, Wörter zu verstehen: eine Anleitung zu Einbettungen in NLP
- Eingabeaufforderungsbasiertes Lernen mit Transformers
- Ef Robots II: Wissensdegesterration und Feinabstimmung
- Effiziente Transformer I: Warnmechanismen
- Tief hierarchische, nicht überwachte Absichtsmodellierung: Nutzen ohne Trainingsdaten
- Beheben von Anmerkungsverzerrungen mit Communications Mining™
- Aktives Lernen: Bessere ML-Modelle in weniger Zeit
- Auf Zahlen kommt es an – Bewertung der Modellleistung mit Metriken
- Darum ist Modellvalidierung wichtig
- Vergleich von Communications Mining™ und Google AutoML für Conversation Data Intelligence
- Lizenzierung
- Häufige Fragen und mehr

Communications Mining-Benutzerhandbuch
Erforderliche Berechtigungen: Streams verbrauchen, Beschriftungen anzeigen, Quellen anzeigen.
/results
-Route ist die neue Möglichkeit, Kommentare und deren Vorhersagen aus einem Stream abzurufen, und ersetzt die vorhandene /fetch
-Route (Streams – Legacy). Wir behalten die Route /fetch für die Legacy-Unterstützung bei, empfehlen aber, dass alle neuen Anwendungsfälle die Route /results
verwenden, da sie alle möglichen Anwendungsfälle unterstützt, einschließlich derjenigen, die generative Extraktion verwenden.
- Bash
curl -X GET 'https://<my_api_endpoint>/api/v1/datasets/project1/collateral/streams/dispute/results?max_results=5&max_filtered=15' \ -H "Authorization: Bearer $REINFER_TOKEN"
curl -X GET 'https://<my_api_endpoint>/api/v1/datasets/project1/collateral/streams/dispute/results?max_results=5&max_filtered=15' \ -H "Authorization: Bearer $REINFER_TOKEN" - Knoten
const request = require("request"); request.get( { url: "https://<my_api_endpoint>/api/v1/datasets/project1/collateral/streams/dispute/results?max_results=5&max_filtered=15", headers: { Authorization: "Bearer " + process.env.REINFER_TOKEN, }, }, function (error, response, json) { // digest response console.log(JSON.stringify(json, null, 2)); } );
const request = require("request"); request.get( { url: "https://<my_api_endpoint>/api/v1/datasets/project1/collateral/streams/dispute/results?max_results=5&max_filtered=15", headers: { Authorization: "Bearer " + process.env.REINFER_TOKEN, }, }, function (error, response, json) { // digest response console.log(JSON.stringify(json, null, 2)); } ); - Python
import json import os import requests response = requests.get( "https://<my_api_endpoint>/api/v1/datasets/project1/collateral/streams/dispute/results", headers={"Authorization": "Bearer " + os.environ["REINFER_TOKEN"]}, params={"max_results": 5, "max_filtered": 15}, ) print(json.dumps(response.json(), indent=2, sort_keys=True))
import json import os import requests response = requests.get( "https://<my_api_endpoint>/api/v1/datasets/project1/collateral/streams/dispute/results", headers={"Authorization": "Bearer " + os.environ["REINFER_TOKEN"]}, params={"max_results": 5, "max_filtered": 15}, ) print(json.dumps(response.json(), indent=2, sort_keys=True)) - Antwort
{ "status": "ok", "results": [ { "comment": { "uid": "18ba5ce699f8da1f.0123456789abcdef", "id": "0123456789abcdef", "timestamp": "2018-09-17T09:54:56.332000Z", "user_properties": { "number:Messages": 1, "string:Folder": "Sent (/ Sent)", "string:Has Signature": "Yes", "string:Message ID": "<abcdef@abc.company.com>", "string:Sender": "alice@company.com", "string:Sender Domain": "company.com", "string:Thread": "<abcdef@abc.company.com>" }, "messages": [ { "from": "alice@company.com", "to": [ "bob@organisation.org" ], "sent_at": "2018-09-17T09:54:56.332000Z", "body": { "text": "Hi Bob,\n\nCould you send me today's figures?" }, "subject": { "text": "Today's figures" }, "signature": { "text": "Thanks,\nAlice" } } ], "text_format": "plain", "attachments": [], "source_id": "18ba5ce699f8da1f", "last_modified": "2024-07-03T13:30:53.991000Z", "created_at": "2020-12-14T15:07:03.718000Z", "context": "1", "has_annotations": true }, "prediction": { "taxonomies": [ { "name": "default", "labels": [ { "name": "Margin Call", "occurrence_confidence": { "value": 0.9905891418457031, "thresholds": ["stream"] }, "extraction_confidence": { "value": 0.4712367373372217, "thresholds": [] }, "fields": [ { "name": "Notification Date", "value": null } ] }, { "name": "Margin Call > Interest Accrual", "occurrence_confidence": { "value": 0.9905891418457031, "thresholds": [] }, "extraction_confidence": { "value": 0.9905891418457031, "thresholds": [] }, "fields": [ { "name": "Amount", "value": { "formatted": "636,000.00" } }, { "name": "Broker number", "value": null }, { "name": "Client name", "value": null }, { "name": "Currency", "value": { "formatted": "AUD" } } ] } ], "general_fields": [ { "name": "monetary-quantity", "value": { "formatted": "636,000.00 GBP" } }, { "name": "MarginCallDateType", "value": { "formatted": "2018-09-21 00:00 UTC" } }, { "name": "client-name", "value": { "formatted": "Big Client Example Bank" } } ] } ] }, "continuation": "pmjKYXYBAAADqHUvPkQf1ypNCZFR37vu" } ], "num_filtered": 0, "more_results": true, "continuation": "pmjKYXYBAAAsXghZ2niXPNP6tOIJtL_8" }
{ "status": "ok", "results": [ { "comment": { "uid": "18ba5ce699f8da1f.0123456789abcdef", "id": "0123456789abcdef", "timestamp": "2018-09-17T09:54:56.332000Z", "user_properties": { "number:Messages": 1, "string:Folder": "Sent (/ Sent)", "string:Has Signature": "Yes", "string:Message ID": "<abcdef@abc.company.com>", "string:Sender": "alice@company.com", "string:Sender Domain": "company.com", "string:Thread": "<abcdef@abc.company.com>" }, "messages": [ { "from": "alice@company.com", "to": [ "bob@organisation.org" ], "sent_at": "2018-09-17T09:54:56.332000Z", "body": { "text": "Hi Bob,\n\nCould you send me today's figures?" }, "subject": { "text": "Today's figures" }, "signature": { "text": "Thanks,\nAlice" } } ], "text_format": "plain", "attachments": [], "source_id": "18ba5ce699f8da1f", "last_modified": "2024-07-03T13:30:53.991000Z", "created_at": "2020-12-14T15:07:03.718000Z", "context": "1", "has_annotations": true }, "prediction": { "taxonomies": [ { "name": "default", "labels": [ { "name": "Margin Call", "occurrence_confidence": { "value": 0.9905891418457031, "thresholds": ["stream"] }, "extraction_confidence": { "value": 0.4712367373372217, "thresholds": [] }, "fields": [ { "name": "Notification Date", "value": null } ] }, { "name": "Margin Call > Interest Accrual", "occurrence_confidence": { "value": 0.9905891418457031, "thresholds": [] }, "extraction_confidence": { "value": 0.9905891418457031, "thresholds": [] }, "fields": [ { "name": "Amount", "value": { "formatted": "636,000.00" } }, { "name": "Broker number", "value": null }, { "name": "Client name", "value": null }, { "name": "Currency", "value": { "formatted": "AUD" } } ] } ], "general_fields": [ { "name": "monetary-quantity", "value": { "formatted": "636,000.00 GBP" } }, { "name": "MarginCallDateType", "value": { "formatted": "2018-09-21 00:00 UTC" } }, { "name": "client-name", "value": { "formatted": "Big Client Example Bank" } } ] } ] }, "continuation": "pmjKYXYBAAADqHUvPkQf1ypNCZFR37vu" } ], "num_filtered": 0, "more_results": true, "continuation": "pmjKYXYBAAAsXghZ2niXPNP6tOIJtL_8" }
Sobald Sie einen Stream erstellt haben, können Sie ihn abfragen, um Kommentare und deren Vorhersagen abzurufen. Dazu gehören Beschriftungen, allgemeine Felder und Beschriftungsextraktionen, die einen Satz von Extraktionsfeldern für jede Instanz dieser Beschriftung enthalten.
Wenn Sie einen Stream erstellen, legen Sie seine ursprüngliche Position so fest, dass sie der Erstellungszeit entspricht. Bei Bedarf können Sie den Stream auf eine andere Position festlegen (entweder zeitlich vorwärts oder rückwärts), indem Sie den Endpunkt zurücksetzen verwenden . Der Stream gibt Kommentare ab seiner aktuellen Position zurück. Sie bestimmen die Position des Kommentars in der Kommentarwarteschlange durch die Reihenfolge, in der Sie die Kommentare hochgeladen haben.
Abhängig von Ihrem Anwendungsdesign können Sie wählen zwischen:
- Einmaliges Vorrücken des Streams für den gesamten Batch. Verwenden Sie die in der Antwort enthaltene
continuation
des Batches. - Vorrücken des Streams für jeden einzelnen Kommentar. Verwenden Sie die
continuation
des Kommentars, der in der Antwort enthalten ist.
comment_filter
when creating the stream, the results don't include comments not matching the filter, but still count towards the requested max_filtered
. You can notice responses where all of max_filtered
comments are filtered out, leading to an empty results
array. In the following example, you request a batch of 8 comments, all of which are filtered out.
{
"filtered": 8,
"results": [],
"sequence_id": "qs8QcHIBAADJ1p3W2FtmBB3QiOJsCJlR",
"status": "ok"
}
{
"filtered": 8,
"results": [],
"sequence_id": "qs8QcHIBAADJ1p3W2FtmBB3QiOJsCJlR",
"status": "ok"
}
max_filtered
, um zu verhindern, dass gefilterte Kommentare auf die angeforderte max_results
werden.
/fetch
gibt keine Kommentare mit Vorhersagen zurück, die den Konfidenzschwellenwert nicht erreicht haben.
/results
-Route geben Sie alle Vorhersagen für einen Kommentar und auch die confidence
value
zurück. Sie geben auch an, welchen Schwellenwerttyp(en) erreicht wird/werden.
"occurrence_confidence": {
"value": 0.9905891418457031,
"thresholds": ["stream"]
}
"occurrence_confidence": {
"value": 0.9905891418457031,
"thresholds": ["stream"]
}
confidence
für den -Wert einer Vorhersage 0.9905..
und der thresholds
-Wert geben an, dass die Vorhersage den konfigurierten Schwellenwert für den stream
erfüllt.
stream
, um zu bestätigen, dass die Vorhersage den Schwellenwert erfüllt, den Sie im Stream konfiguriert haben. Darüber hinaus können automatische Schwellenwerte zurückgegeben werden. Die erwarteten Werte dafür sind: high_recall
, high_precision
und balanced
.
Weitere Informationen zu generierten Extraktionen und zur Verwendung von Schwellenwerten finden Sie auf der Seite Grundlegendes zur Validierung bei Extraktionen und Extraktionsleistung .
Name | Typ | Erforderlich | BESCHREIBUNG |
---|---|---|---|
max_results | Nummer | nein | Die Anzahl der Kommentare, die für diesen Stream abgerufen werden sollen. Gibt weniger Kommentare zurück, wenn das Ende des Batches erreicht wird oder wenn Sie Kommentare gemäß dem Kommentarfilter herausfiltern. Der Maximalwert ist 32. Der Standardwert ist 16. |
max_filtered | Nummer | nein | Convenience-Parameter für Streams mit einem Kommentarfilter. Wenn Sie sie bereitstellen, werden bis zu max_filtered gefilterte Kommentare nicht zu den angeforderten max_results gezählt. Dies ist nützlich, wenn Sie erwarten, dass eine große Anzahl von Kommentaren nicht dem Filter entspricht. Hat keine Auswirkung auf Streams ohne Kommentarfilter. Der Höchstwert beträgt 1024. Der Standardwert ist null.
|
Name | Typ | BESCHREIBUNG |
---|---|---|
status | string | ok wenn die Anforderung erfolgreich ist, oder error im Falle eines Fehlers. Weitere Informationen zu Fehlermeldungen finden Sie auf der Seite Übersicht .
|
num_filtered | Nummer | Anzahl der Kommentare, die basierend auf einem Kommentarfilter herausgefiltert wurden. Wenn Sie den Stream ohne Filter erstellt haben, ist diese Zahl immer 0 .
|
continuation | string | Das Batchfortsetzungstoken. Verwenden Sie sie, um die Verarbeitung dieses Batches zu bestätigen und den Stream zum nächsten Batch fortzusetzen. |
more_results | Bool | „true“, wenn zum Zeitpunkt der Anforderung keine zusätzlichen Ergebnisse im Stream vorhanden waren. Andernfalls „false“. |
results | array<Result> | Ein Array mit Ergebnisobjekten. |
Result
das folgende Format:
Name | Typ | BESCHREIBUNG |
---|---|---|
comment | Kommentar (Comment) | Kommentardaten. Eine detaillierte Erklärung finden Sie unter Kommentarreferenz. |
continuation | string | Das Fortsetzungstoken des Kommentars. Wird verwendet, um die Verarbeitung dieses Kommentars zu bestätigen und den Stream zum nächsten Kommentar fortzusetzen. |
prediction | array<Prediction> | Die Vorhersage für diesen Kommentar. Ist nur verfügbar, wenn der Stream eine Modellversion angibt. Weitere Informationen zu generativen Vorhersagen finden Sie auf der Seite: Communications Mining™ – Grundlegendes zur Validierung bei Extraktionen und Extraktionsleistung . |
Prediction
hat das folgende Format:
Name | Typ | BESCHREIBUNG |
---|---|---|
taxonomies | Array<TaxonomyPrediction> | Liste der Taxonomievorhersagen. Derzeit definieren Sie nur eine Taxonomie pro Dataset, aber Sie stellen sie aus Gründen der zukünftigen Kompatibilität als Liste bereit. |
TaxonomyPrediction
hat das folgende Format:
Name | Typ | BESCHREIBUNG |
---|---|---|
name | string | Name der Taxonomie. Der einzige Wert ist derzeit default .
|
labels | Array<LabelPrediction> | Eine Liste der extrahierten Beschriftungsvorhersagen mit ihren occurrence_confidence , extraction_confidence und extrahierten fields . Weitere Informationen zu generativen Vorhersagen finden Sie auf der Seite Communications Mining – Grundlegendes zur Validierung bei Extraktionen und Extraktionsleistung .
|
general_fields | Array<FieldPrediction> | Eine Liste der extrahierten Vorhersagen des allgemeinen Felds mit ihren name und extrahierten value . Weitere Informationen zu generativen Vorhersagen finden Sie auf der Seite Communications Mining – Grundlegendes zur Validierung bei Extraktionen und Extraktionsleistung .
|