在spark中添加了hive2配置,然后启动thirftserver,之前在hive中创建表都正常,最近给hdfs增加节点后再创建hive的表时,hdfs中总是没有对应的目录了,这是怎么回事? 没有看到spark的日志中有明显示错误

0
已邀请:

要回复问题请先登录注册