问题:因为ambari重启HDFS有某个节点失败导致,后续创建目录报错 根本原因:name node处于safe mode

浏览: 2198

错误信息:

Caused by: java.lang.RuntimeException: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.ipc.RetriableException): org.apache.hadoop.hdfs.server.namenode.SafeModeException: Cannot create directory /tmp/hive/vagubchd/4ca66724-71ac-4d64-b263-3aca96514e8e. Name node is in safe mode.

解决方法:

检查

hdfs fsck /
#可以看到Minimally replicated blocks: 不为100%,可能缺少block
  • 1
  • 2

关闭安全模式

hadoop dfsadmin -safemode leave
  • 1

修复

 hdfs fsck / | egrep -v '^\.+$' | grep -v eplica

参考

http://blog.csdn.net/hongweigg/article/details/7185328 
https://stackoverflow.com/questions/19205057/how-to-fix-corrupt-hdfs-files

推荐 0
本文由 思恩 创作,采用 知识共享署名-相同方式共享 3.0 中国大陆许可协议 进行许可。
转载、引用前需联系作者,并署名作者且注明文章出处。
本站文章版权归原作者及原出处所有 。内容为作者个人观点, 并不代表本站赞同其观点和对其真实性负责。本站是一个个人学习交流的平台,并不用于任何商业目的,如果有任何问题,请及时联系我们,我们将根据著作权人的要求,立即更正或者删除有关内容。本站拥有对此声明的最终解释权。

0 个评论

要回复文章请先登录注册