hadoop 启动时间写入文件-linux安全运维_跨零代码

跨零代码为大家提供高品质的运维解决方案,请大家多多来访,跨零不胜感激,在此谢过。

hadoop1.0.4;

昨天看了源码,说到可以使用log信息来打印出来JobTracker的启动时间,然后来解析这个Log文件,但是这里有个问题,就是log文件是在hadoop的主节点namenode的linux机器中的,不是在客户端,读取会有一定的问题,然后就又想到了还是写文件(hdfs文件系统)的方式。只要在JobTracker启动之后,然后再写入即可。

还是按源码来说(首先把原来修改的还原回来),看代码的302、303行:

  1. result = new JobTracker(conf, identifier);  
  2.         result.taskScheduler.setTaskTrackerManager(result);  

这里就是新建JobTracker的代码了,可以在这两行代码后面加上这样的代码:

  1. result = new JobTracker(conf, identifier);  
  2.         result.taskScheduler.setTaskTrackerManager(result);  
  3.         /** 
  4.          * add by fansy at 2013/12/20 
  5.          */  
  6.         writeString(JOBTRACKER_STARTTIME,conf);  
  7.         LOG.info(“***—JOBTRACKER_STARTTIME:”+JOBTRACKER_STARTTIME);  

这样就可以写入了,同时保证不会是在safemode状态写入,这样就不会报错了。

额,还需要修改的代码为:

新增一个static 变量:

  1. private static String JOBTRACKER_STARTTIME;  

修改generateNewIdentifier代码:

  1. private static String generateNewIdentifier() {  
  2. JOBTRACKER_STARTTIME=getDateFormat().format(new Date());  
  3.    return JOBTRACKER_STARTTIME;  
  4.  }  

这样就可以了。

编译、替换、重新启动集群,可以看到hdfs文件系统上面的新文件:

hadoop 启动时间写入文件
集群启动的图片为:

hadoop 启动时间写入文件
额,同时可以下载hadoop-core-1.0.4.jar 文件,在http://download.csdn.net/detail/fansy1990/6745283可以看到;

需要读取这个文件,可以使用下面的方法:

  1. public static String readString(Path path, Configuration conf) throws IOException {  
  2.             FileSystem fs = FileSystem.get(path.toUri(), conf);  
  3.             FSDataInputStream in = fs.open(path);  
  4.             try {  
  5.               return in.readUTF();  
  6.             } finally {  
  7.               Closeables.closeQuietly(in);  
  8.             }  
  9.           }  

从零到一,创造未来!跨零代码综合IT问题解决服务站,欢迎你的到来。运维教程 只为你绽放。

本文固定链接: http://kua0.com/2019/02/02/hadoop-启动时间写入文件-linux安全运维_跨零代码/

为您推荐

发表评论

电子邮件地址不会被公开。 必填项已用*标注