在spark中添加了hive2配置,然后启动thirftserver,之前在hive中创建表都正常,最近给hdfs增加节点后再创建hive的表时,hdfs中总是没有对应的目录了,这是怎么回事? 没有看到spark的日志中有明显示错误
0
没有找到相关结果
重要提示:提问者不能发表回复,可以通过评论与回答者沟通,沟通后可以通过编辑功能完善问题描述,以便后续其他人能够更容易理解问题.
0 个回复