对于从ELK堆栈中具有filebeat和logstash的多个服务器获取日志的任何建议的想法?

时间:2020-03-20 08:27:23

标签: logstash filebeat elk

在我的办公室基础结构中有3个服务器,分别是feature_server,develop_server和log_server。两台服务器当前都在运行nginx服务。我想做的是如何使用ELk堆栈(logstash和filebeats)从它们两个收集nginx日志。它已经为一台服务器工作。任何想法都将不胜感激。

1 个答案:

答案 0 :(得分:0)

您需要在两台服务器上都安装filebeat,并配置filebeat输出以发送到单个logstash实例。您可以添加其他字段作为具有不同服务器值的filebeat的输入,并在logstash中使用该字段来区分日志。

filebeat.inputs:
 - type: log 
paths:
 - "/var/log/apache2/*"
fields:
 server_name: "feature"
 fields_under_root: true

从logstash发送到Elasticsearch时,您也可以将该字段用作索引。

Output:{
 elasticsearch {
    index => "logstash-%{[fields][server_name]}-%{+YYYY.MM.dd}"
 }
}

所有配置取决于您希望如何查看Kibana中的日志。

相关问题