kubernetes通过filebeat到logstash进行日志管理

时间:2018-07-31 14:39:09

标签: kubernetes logstash filebeat

我正在将一些服务迁移到kubernetes,并且我正在寻找用于日志文件管理的解决方案。所述服务可能非常嘈杂(说日志),并且由于它们将位于各种容器中,因此我计划使用logstash-> elasticsearch集中日志。

如果这些是VM ID,则可能会设置filebeat来获取日志,并将logrotate设置为非常坚决,以免任何文件超过一天。这是适用于kubernetes的机制吗?我不想通过填满磁盘在kube主机上引起问题。

本质上:每个容器都将具有服务+ Filebeat +严格的logrotate策略。日志将转发到中央logstash实例。

那合理吗?

1 个答案:

答案 0 :(得分:0)

使用任何类型的日志聚合器都没有限制。您可以使用服务+文件拍+严格的logrotate策略(如果适用)。另外,作为替代方案,您可以使用fluend-bit作为日志聚合器,然后将其发送给ELK。

official documentation中,您可以找到很好的方法来使用ELK + fluend。

相关问题