Automation Suite
2023.10
False
Image de fond de la bannière
Guide d'installation d'Automation Suite sur Linux
Dernière mise à jour 19 avr. 2024

Configurer Elasticsearch et Kibana

La pile EFK (Elasticsearch, Fluentd, Kibana) est une solution de journalisation centralisée qui vous permet de rechercher, d'analyser et de visualiser les données de journal. Fluentd collecte et envoie les journaux à Elasticsearch, Kibana récupère les journaux et vous permet de visualiser et d'analyser les données.

Automation Suite prend en charge Elasticsearch version 7.x. La version 8.x est également prise en charge, mais uniquement pour les configurations avancées.

Créer une clé secrète avec le mot de passe Elasticsearch

Si votre instance Elasticsearch nécessite des informations d'identification, créez une clé secrète avec son mot de passe dans le cluster.

kubectl -n cattle-logging-system create secret generic elastic-user --from-literal=password=<password>kubectl -n cattle-logging-system create secret generic elastic-user --from-literal=password=<password>

ClusterOutput vers Elasticsearch

Exécutez la commande suivante pour ClusterOutput vers Elasticsearch. Remplacez les attributs suivants par ceux de votre configuration Elasticsearch :

  • <elasticsearch host> - l'hôte réseau de votre instance Elasticsearch ;
  • <elasticsearch port> - le port Elasticsearch pour la communication client ;
  • <secret key> - la clé secrète avec le mot de passe Elasticsearch ;
  • La valeur timekey dans elasticsearch.buffer - la fréquence de sortie, c'est-à-dire la fréquence à laquelle vous souhaitez transmettre les journaux ;
  • elasticsearch.scheme - le schéma d'URL. Les valeurs valides sont : http ou https.
    kubectl -n cattle-logging-system apply -f - <<"EOF"
    apiVersion: logging.banzaicloud.io/v1beta1
    kind: ClusterOutput
    metadata:
      name: es-output
    spec:
      elasticsearch:
        host: <elasticsearch host>
        port: <elasticsearch port>
        scheme: <http or https>
        ssl_verify: false
        ssl_version: TLSv1_2
        user: elastic
        password:
          valueFrom:
            secretKeyRef:
              name: elastic-user
              key: <secret key>
        buffer:
          timekey: 10m
          timekey_wait: 30s
          timekey_use_utc: true
    EOFkubectl -n cattle-logging-system apply -f - <<"EOF"
    apiVersion: logging.banzaicloud.io/v1beta1
    kind: ClusterOutput
    metadata:
      name: es-output
    spec:
      elasticsearch:
        host: <elasticsearch host>
        port: <elasticsearch port>
        scheme: <http or https>
        ssl_verify: false
        ssl_version: TLSv1_2
        user: elastic
        password:
          valueFrom:
            secretKeyRef:
              name: elastic-user
              key: <secret key>
        buffer:
          timekey: 10m
          timekey_wait: 30s
          timekey_use_utc: true
    EOF

ClusterFlow dans FluentD

Exécutez la commande suivante pour ClusterFlow dans FluendD :

kubectl -n cattle-logging-system apply -f - <<"EOF"
apiVersion: logging.banzaicloud.io/v1beta1
kind: ClusterFlow
metadata:
  name: es-flow
spec:
  filters:
    - tag_normaliser:
        format: ${namespace_name}/${pod_name}.${container_name}
  globalOutputRefs:
    - es-output
  match:
    - select:
        container_names:
          - istio-proxy
        namespaces:
          - istio-system
    - exclude:
        container_names:
          - istio-proxy
          - istio-init
          - aicenter-hit-count-update
    - exclude:
        namespaces:
          - fleet-system
          - cattle-gatekeeper-system
          - default
    - exclude:
        labels:
          app: csi-snapshotter
    - exclude:
        labels:
          app: csi-resizer
    - select: {}
EOFkubectl -n cattle-logging-system apply -f - <<"EOF"
apiVersion: logging.banzaicloud.io/v1beta1
kind: ClusterFlow
metadata:
  name: es-flow
spec:
  filters:
    - tag_normaliser:
        format: ${namespace_name}/${pod_name}.${container_name}
  globalOutputRefs:
    - es-output
  match:
    - select:
        container_names:
          - istio-proxy
        namespaces:
          - istio-system
    - exclude:
        container_names:
          - istio-proxy
          - istio-init
          - aicenter-hit-count-update
    - exclude:
        namespaces:
          - fleet-system
          - cattle-gatekeeper-system
          - default
    - exclude:
        labels:
          app: csi-snapshotter
    - exclude:
        labels:
          app: csi-resizer
    - select: {}
EOF
Les journaux du cluster sont collectés et consignés dans le ClusterOutput.

Configuration de Kibana

  1. Cliquez sur Découvrir (Discover) sous Analytique (Analytics) dans la barre latérale.


  2. Cliquez sur Créer un modèle d'index (Create Index Pattern), puis sur Créer un modèle d'index avec le nom Fluentd (Create an index pattern with name Fluentd).


  3. Sélectionnez Je ne veux pas utiliser le filtre horaire (I don’t want to use the time filter) dans la fenêtre Configurer les paramètres (Configure settings).


  4. Cliquez sur Découvrir (Discover) sous Kibana dans la barre latérale.


    • Vous pouvez voir les journaux dans le tableau de bord.


    • Requête de journaux pour l'espace de noms UiPath et un service spécifique :


Cette page vous a-t-elle été utile ?

Obtenez l'aide dont vous avez besoin
Formation RPA - Cours d'automatisation
Forum de la communauté UiPath
Logo Uipath blanc
Confiance et sécurité
© 2005-2024 UiPath. All rights reserved.