绑定完请刷新页面
取消
刷新

分享好友

×
取消 复制
Kubernetes日志收集常用套路,用了准不出错!
2022-06-20 17:04:04


一、准备


1、关于容器日志


Docker的日志分为两类,一类是 Docker引擎日志;另一类是容器日志。引擎日志一般都交给了系统日志,不同的操作系统会放在不同的位置。本文主要介绍容器日志,容器日志可以理解是运行在容器内部的应用输出的日志,默认情况下,docker logs 显示当前运行的容器的日志信息,内容包含 STOUT(标准输出) 和 STDERR(标准错误输出)。日志都会以json-file 的格式存储于 /var/lib/docker/containers/<容器id>/<容器id>-json.log ,不过这种方式并不适合放到生产环境中。


  • 默认方式下容器日志并不会限制日志文件的大小,容器会一直写日志,导致磁盘爆满,影响系统应用。(docker log-driver 支持log文件的rotate)


  • Docker Daemon 收集容器的标准输出,当日志量过大时会导致Docker Daemon 成为日志收集的瓶颈,日志的收集速度受限。


  • 日志文件量过大时,利用docker logs -f 查看时会直接将Docker Daemon阻塞住,造成docker ps等命令也不响应。


Docker提供了logging drivers配置,用户可根据自己的需求配置不同的log-driver,可参考官网(https://docs.docker.com/config/containers/logging/configure/)但是上述配置的日志收集也是通过Docker Daemon收集,收集日志的速度依然是瓶颈。


log-driver 日志收集速度;

syslog 14.9 MB/s;

json-file 37.9 MB/s


能不能找到不通过Docker Daemon收集日志直接将日志内容重定向到文件并自动 rotate的工具呢?答案是肯定的采用S6基底镜像。


S6-log 将 CMD 的标准输出重定向到/.../default/current,而不是发送到 Docker Daemon,这样就避免了 Docker Daemon 收集日志的性能瓶颈。本文就是采用S6基底镜像构建应用镜像形成统一日志收集方案。


2、关于k8s日志


k8s日志收集方案分成以下三个级别:


1)应用(Pod)级别


Pod级别的日志 , 默认是输出到标准输出和标志输入,实际上跟docker容器的一致。使用 kubectl logs pod-name -n namespace 查看,具体参考。


2)节点级别


Node级别的日志,通过配置容器的log-driver来进行管理,这种需要配合logrotare来进行,日志超过大限制,自动进行rotate操作。



3)集群级别


集群级别的日志收集 , 有以下三种:


  • 节点代理方式


在node级别进行日志收集。一般使用DaemonSet部署在每个node中。这种方式优点是耗费资源少,因为只需部署在节点,且对应用无侵入。缺点是只适合容器内应用日志必须都是标准输出。



  • 使用sidecar container作为容器日志代理


也就是在pod中跟随应用容器起一个日志处理容器,有两种形式。


一种是直接将应用容器的日志收集并输出到标准输出(叫做Streaming sidecar container),但需要注意的是,这时候,宿主机上实际上会存在两份相同的日志文件:一份是应用自己写入的;另一份则是 sidecar 的 stdout 和 stderr 对应的 JSON 文件。这对磁盘是很大的浪费 , 所以说,除非万不得已或者应用容器完全不可能被修改。



另一种是每一个pod中都起一个日志收集agent(比如logstash或fluebtd)也就是相当于把方案一里的 logging agent放在了pod里。但是这种方案资源消耗(cpu,内存)较大,并且日志不会输出到标准输出,kubectl logs 会看不到日志内容。



  • 应用容器中直接将日志推到存储后端


这种方式就比较简单了,直接在应用里面将日志内容发送到日志收集服务后端。



二、日志架构


通过上文对k8s日志收集方案的介绍,要想设计一个统一的日志收集系统,可以采用节点代理方式收集每个节点上容器的日志,日志的整体架构如图所示。



解释如下:


  • 所有应用容器都是基于s6基底镜像的,容器应用日志都会重定向到宿主机的某个目录文件下比如/data/logs/namespace/appname/podname/log/xxxx.log。

  • log-agent 内部 包含 filebeat ,logrotate 等工具,其中filebeat是作为日志文件收集的agent。

  • 通过filebeat将收集的日志发送到kafka。

  • kafka在讲日志发送的es日志存储/kibana检索层。

  • logstash 作为中间工具主要用来在es中创建index和消费kafka 的消息。


整个流程很好理解,但是需要解决的是:


  • 用户部署的新应用,如何动态更新filebeat配置。

  • 如何保证每个日志文件都被正常的rotate。

  • 如果需要更多的功能则需要二次开发filebeat,使filebeat 支持更多的自定义配置。


三、付诸实践


解决上述问题,就需要开发一个log-agent应用以daemonset形式运行在k8s集群的每个节点上,应用内部包含filebeat,logrotate,和需要开发的功能组件。


个问题,如何动态更新filebeat配置,可以利用(https://github.com/fsnotify/fsnotify)工具包监听日志目录变化create、delete事件,利用模板渲染的方法更新filebeat配置文件。


第二个问题,利用(https://github.com/robfig/cron)工具包创建cronJob,定期rotate日志文件,注意应用日志文件所属用户,如果不是root用户所属,可以在配置中设置切换用户。

/var/log/xxxx/xxxxx.log {      su www-data www-data      missingok      notifempty      size 1G      copytruncate    }


第三个,关于二次开发filebeat,可以参考博文:https://www.jianshu.com/p/fe3ac68f4a7a


四、总结


本文只是对k8s日志收集提供了一个简单的思路,关于日志收集可以根据公司的需求,因地制宜。


>>>>

参考资料


  • https://kubernetes.io/docs/concepts/cluster-administration/logging/
  • https://support.rackspace.com/how-to/understanding-logrotate-utility/
  • https://github.com/elastic/beats/tree/master/filebeat
  • http://skarnet.org/software/s6/


作者丨知道又忘了
来源丨网址:https://zhuanlan.zhihu.com/p/70662744



分享好友

分享这个小栈给你的朋友们,一起进步吧。

K8s
创建时间:2020-05-14 13:51:19
K8s技术分享
展开
订阅须知

• 所有用户可根据关注领域订阅专区或所有专区

• 付费订阅:虚拟交易,一经交易不退款;若特殊情况,可3日内客服咨询

• 专区发布评论属默认订阅所评论专区(除付费小栈外)

栈主、嘉宾

查看更多
  • 飘絮絮絮丶
    栈主
  • gaokeke123
    嘉宾
  • LCR_
    嘉宾

小栈成员

查看更多
  • at_1
  • zhengchengming
  • chenglinjava0501
  • hansen_hello2019
戳我,来吐槽~