KETTLE访问HDFS数据

浏览: 2717

通过Hadoop File Input,可以通过kettle操作hdfs上文件,语尽,具体操作如下:

1、选择控件hadoop file input


2、点击浏览输入server port,点击connect-ok


3、选中内容点击增加


注意:hdfs的默认端口是9000

附:

1)查看文件/etc/yarn1/conf/core-site.xml中fs.defaultFs,查看是否安装了HA(High Available), 高可用性群集


2)然后到hdfs-site.xml中查看nameservice,下面肯定对应了两个ip,这个就对应的fs.defaultFS;如果是单个的,fs.defaultFS 就是hdfs://IP或主机名:port


3)查看参数dfs.namenode.rpc-address






推荐 1
本文由 华青莲 创作,采用 知识共享署名-相同方式共享 3.0 中国大陆许可协议 进行许可。
转载、引用前需联系作者,并署名作者且注明文章出处。
本站文章版权归原作者及原出处所有 。内容为作者个人观点, 并不代表本站赞同其观点和对其真实性负责。本站是一个个人学习交流的平台,并不用于任何商业目的,如果有任何问题,请及时联系我们,我们将根据著作权人的要求,立即更正或者删除有关内容。本站拥有对此声明的最终解释权。

3 个评论

和KETTLE连接HADOOP那篇的区别最好说一下啊。
可以成一个系列了。^-^
嗯,这个是访问hdfs上文件,那个是访问hive中表!在tdh中表示inceptor
您好!为何我的Hadoop File Input 中没有 浏览按钮,我用的是 kettle5.4

要回复文章请先登录注册