ganglia监控hadoop集群的配置文件问题分析-成都快上网建站

ganglia监控hadoop集群的配置文件问题分析

这篇文章主要介绍“ganglia监控hadoop集群的配置文件问题分析”,在日常操作中,相信很多人在ganglia监控hadoop集群的配置文件问题分析问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”ganglia监控hadoop集群的配置文件问题分析”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!

十载的兰山网站建设经验,针对设计、前端、开发、售后、文案、推广等六对一服务,响应快,48小时及时工作处理。营销型网站的优势是能够根据用户设备显示端的尺寸不同,自动调整兰山建站的显示方式,使网站能够适用不同显示终端,在浏览器中调整网站的宽度,无论在任何一种浏览器上浏览网站,都能展现优雅布局与设计,从而大程度地提升浏览体验。创新互联从事“兰山网站设计”,“兰山网站推广”以来,每个客户项目都认真落实执行。

ganglia 是监控的hadoop 集群 的最佳系统. 

安装步骤就不写了. 比较简单.  

主要说下安装过程, hadoop 的metrics 的配置问题. 

hadoop-metrics2.properties  

如果采用默认配置,  一般情况下, 你会苦不堪言. 

主要问题是 默认的把所有的metrics 监控项 全部监控出来了. 

那么就带来了一个问题.  

每个任务, 会派生出 很多container  ,然后每个container 又有很多指标. 

因为一直忙着救火, 就没有 截图保留案底了. 

我统计一下 , 一个hadoo 节点  下面 关于container 的 rrd 文件就有11700+  

单个hadoop 节点 在一天内的监控数据 大于 7.5GB . 

到什么情况呢, 在ganglia 里面已经无法打开单个节点的监控页面了.  直接死了. 

同样的hbase 的 hadoop-metrics2-hbase.properties  中也会涉及到

regionserver 的问题. 每个节点 上有很多regions  ,然后每个region  都涉及到N多的metrics 监控项. 

然后导致rrd 文件暴涨.  效果跟前面一样. 烦死人. 

怎么解决呢?  查文档. 

在官方文档里找到了一点答案. 然后就开始各种演绎. 

Class Description
GlobFilter

A glob pattern filter for metrics.

RegexFilter

A regex pattern filter for metrics

正则表达. 

Fields inherited from class org.apache.hadoop.metrics2.filter.AbstractPatternFilter

EXCLUDE_KEY, EXCLUDE_TAGS_KEY, INCLUDE_KEY, INCLUDE_TAGS_KEY

通过正则表达 可以限制某些metrics 监控项的采集等等. 

到这里问题基本就解决了. 

我列出来我的配置的监控项做个示例: 

more  hadoop-metrics2-hbase.properties 

 hbase.sink.file-all.class=org.apache.hadoop.metrics2.sink.FileSink

 hbase.sink.file-all.filename=all.metrics

############################################################

*.period=10

*.sink.ganglia.period=10

*.sink.ganglia.class=org.apache.hadoop.metrics2.sink.ganglia.GangliaSink31

*.source.filter.class=org.apache.hadoop.metrics2.filter.RegexFilter

*.record.filter.class=${*.source.filter.class}

*.metric.filter.class=${*.source.filter.class}

hbase.sink.ganglia.metric.filter.exclude=.*_(max|min|mean|median|percentile)

hbase.sink.ganglia.record.filter.exclude=Regions

hbase.sink.ganglia.source.filter.exclude=.*Regions.*

hbase.sink.ganglia.period=10

hbase.sink.ganglia.servers=gangliaserver:8649

more  hadoop-metrics2.properties 

################################################

*.period=10

*.sink.ganglia.period=10

*.sink.ganglia.class=org.apache.hadoop.metrics2.sink.ganglia.GangliaSink31

*.source.filter.class=org.apache.hadoop.metrics2.filter.RegexFilter

*.record.filter.class=${*.source.filter.class}

*.metric.filter.class=${*.source.filter.class}

resourcemanager.sink.ganglia.metric.filter.exclude=.*_(max|min|mean|median|percentile)

resourcemanager.sink.ganglia.source.filter.exclude=.*_(container)*

resourcemanager.sink.ganglia.record.filter.exclude=container*

resourcemanager.sink.ganglia.source.filter.exclude=*.ontainerResource.*

nodemanager.sink.ganglia.metric.filter.exclude=.*_(max|min|mean|median|percentile)

nodemanager.sink.ganglia.source.filter.exclude=.*_(container)*

#nodeemanager.sink.ganglia.record.filter.exclude=*container.*

nodeemanager.sink.ganglia.record.filter.exclude=*container*

nodemanager.sink.ganglia.source.filter.exclude=*ontainerResource*

nodemanager.sink.ganglia.source.filter.exclude=*Containers*

mrappmaster.sink.ganglia.metric.filter.exclude=.*_(max|min|mean|median|percentile)

mrappmaster.sink.ganglia.source.filter.exclude=.*_(container)*

mrappmaster.sink.ganglia.record.filter.exclude=*container.*

mrappmaster.sink.ganglia.record.filter.exclude=*container*

mrappmaster.sink.ganglia.source.filter.exclude=*ontainerResource*

jobhistoryserver.sink.ganglia.metric.filter.exclude=.*_(max|min|mean|median|percentile)

jobhistoryserver.sink.ganglia.record.filter.exclude=*container.*

jobhistoryserver.sink.ganglia.record.filter.exclude=*container*

jobhistoryserver.sink.ganglia.source.filter.exclude=*ontainerResource*

##############################################################

到此,关于“ganglia监控hadoop集群的配置文件问题分析”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注创新互联网站,小编会继续努力为大家带来更多实用的文章!


文章题目:ganglia监控hadoop集群的配置文件问题分析
当前网址:http://kswjz.com/article/goeggd.html
扫二维码与项目经理沟通

我们在微信上24小时期待你的声音

解答本文疑问/技术咨询/运营咨询/技术建议/互联网交流