insights
latest
false
- Notes de version Cloud Insights
- Démarrage
- Accès et autorisations
- Notifications
- Interaction avec Insights
- Vue d'ensemble (Overview)
- Rapports assistés
- Processus (Processes)
- Processus (intégrés)
- Files d'attente (Queues)
- Files d'attente (intégrées)
- ROI métier
- Files d'attente ROI métier
- Robots et machines
- Machines (intégrées)
- Licences utilisateur
- [Aperçu] Aperçu de la consommation d’AI Units
- [Aperçu] Tableau de bord de l’utilisation de Document Understanding et d’AI Center
- Autopilot
- [Aperçu] Utilisation d’Autopilot
- Variables personnalisées
- Prévision
- Insights pour tous
- Intégration d'Automation Hub
- Intégration de Document Understanding
- Intégration d’Action Center
- Surveillance en temps réel
- Exportation de données en temps réel
- Résolution des problèmes
Envoi de données à Elasticsearch
Important :
Veuillez noter que ce contenu a été localisé en partie à l’aide de la traduction automatique.
Insights
Last updated 15 nov. 2024
Envoi de données à Elasticsearch
Dans cette rubrique, vous pouvez apprendre à tirer parti de la fonctionnalité d'exportation de données en temps réel d'Insights avec AWS SQS pour envoyer des données à ElasticSearch et l'utiliser pour remplir des données de surveillance en temps réel dans le tableau de bord Kibana.
Avant de pouvoir commencer à afficher les données de surveillance en temps réel dans Kibana, les hôtes suivants doivent être configurés :
Il n'y a pas de prise en charge prête à l'emploi pour les messages SNS utilisant ElasticSearch. Pour ce faire, un pipeline SNS -> SQS -> Elastic doit être configuré. Une file d'attente SQS peut être configurée pour être la sortie d'une rubrique SNS. Pour ce faire, suivez les instructions de la documentation officielle AWS.
Pour configurer un nouveau pipeline LogStash à partir de l'interface utilisateur, connectez-vous à l'utilisateur Kibana avec le nom d'utilisateur
elastic
et accédez à et utilisez l'exemple suivant pour le modèle de pipeline :input {
sqs {
access_key_id => "<access_key_id>"
secret_access_key => "<secret_access_key>"
queue => "hztest_sns_sqs_output"
region => "us-west-2"
}
}
filter {
}
output {
elasticsearch {
index => "test_aws_sqs"
}
}
input {
sqs {
access_key_id => "<access_key_id>"
secret_access_key => "<secret_access_key>"
queue => "hztest_sns_sqs_output"
region => "us-west-2"
}
}
filter {
}
output {
elasticsearch {
index => "test_aws_sqs"
}
}
Remarque :
- Le paramètre
regions
est facultatif, mais s'il est manquant, la région par défaut est définie surus-east-1
et la configuration échouera si le SQS est défini dans une région différente. - Pour les clés secrètes telles que le mot de passe ElastiscSearch ou les informations d'identification AWS IAM, envisagez d'utiliser logstash-keystore.
- Si un nouvel index est créé pour pouvoir le découvrir, assurez-vous d'ajouter l'index au modèle d'index via .
Pour tester la configuration, exécutez la commande suivante sur LogStash, où
test_config
est un fichier avec la définition de pipeline ci-dessus.
/usr/share/logstash/bin/logstash --config.test_and_exit -f ./test_config
/usr/share/logstash/bin/logstash --config.test_and_exit -f ./test_config