insights
latest
false
- Versionshinweise zu Cloud-Insights
- Erste Schritte
- Zugriff und Berechtigungen
- Benachrichtigungen
- Interaktion mit Insights
- Überblick
- Attended-Berichterstellung
- Prozesse
- Prozesse (eingebettt)
- Warteschlangen
- Warteschlangen (eingebettt)
- Geschäftlicher ROI
- Warteschlangen für Unternehmens-ROI
- Roboter und Maschinen
- Maschinen (eingebettt)
- Benutzerlizenzen
- [Vorschau] Übersicht zum Verbrauch von AI Units
- [Vorschau] Dashboard für Document Understanding- und AI Center-Verbrauch
- Autopilot
- [Vorschau] Autopilot-Nutzung
- Benutzerdefinierte Variablen
- Prognose
- Insights für alle
- Automation Hub-Integration.
- Document Understanding-Integration
- Integration des Action Centers
- Echtzeitüberwachung
- Datenexport in Echtzeit
- Fehlersuche und ‑behebung
Senden von Daten an Elasticsearch
Wichtig :
Bitte beachten Sie, dass dieser Inhalt teilweise mithilfe von maschineller Übersetzung lokalisiert wurde.
Insights
Last updated 15. Nov. 2024
Senden von Daten an Elasticsearch
In diesem Thema erfahren Sie, wie Sie die Echtzeit-Datenexportfunktion von Insights mit AWS SQS nutzen, um Daten an ElasticSearch zu senden und damit Echtzeit-Überwachungsdaten in das Kibana-Dashboard einzugeben.
Bevor Sie Echtzeitüberwachungsdaten in Kibana anzeigen können, müssen die folgenden Hosts eingerichtet werden:
Es gibt keine Out-of-the-Box-Unterstützung für ElasticSearch, das SNS-Nachrichten konsumiert. Dazu muss eine SNS -> SQS -> Elastic Pipeline konfiguriert werden. Eine SQS-Warteschlange kann als Ausgabe eines SNS-Themas konfiguriert werden. Folgen Sie dazu den Anweisungen in der offiziellen AWS-Dokumentation.
Um eine neue LogStash-Pipeline über die UI zu konfigurieren, melden Sie sich beim Kibana-Benutzer mit dem Benutzernamen
elastic
an, navigieren Sie zu und verwenden Sie das folgende Beispiel für die Pipelinevorlage:input {
sqs {
access_key_id => "<access_key_id>"
secret_access_key => "<secret_access_key>"
queue => "hztest_sns_sqs_output"
region => "us-west-2"
}
}
filter {
}
output {
elasticsearch {
index => "test_aws_sqs"
}
}
input {
sqs {
access_key_id => "<access_key_id>"
secret_access_key => "<secret_access_key>"
queue => "hztest_sns_sqs_output"
region => "us-west-2"
}
}
filter {
}
output {
elasticsearch {
index => "test_aws_sqs"
}
}
Hinweis:
- Der Parameter
regions
ist optional, aber wenn er fehlt, wird die Standardregion aufus-east-1
festgelegt, und die Konfiguration schlägt fehl, wenn der SQS in einer anderen Region definiert ist. - Für Geheimnisse wie das ElastiscSearch-Kennwort oder AWS IAM-Anmeldeinformationen sollten Sie logstash-keystoreverwenden.
- Wenn ein neuer Index erstellt wird, um ihn erkennen zu können, stellen Sie sicher, dass Sie den Index über zum Indexmuster hinzufügen.
Um die Konfiguration zu testen, führen Sie den folgenden Befehl für LogStash aus, wobei
test_config
eine Datei mit der obigen Pipelinedefinition ist.
/usr/share/logstash/bin/logstash --config.test_and_exit -f ./test_config
/usr/share/logstash/bin/logstash --config.test_and_exit -f ./test_config