超大数据下的cube的分区设计,高手指点
0
公司一张超大日志表,大概将近30亿数据,每天会增长2-3G的数据;现在想建立cube,对数据进行汇总统计,最小粒度是分钟;请问cube应该怎么设计?包括分区,聚合等,能最大提高性能,越详细越好,小弟先谢谢各位了!
没有找到相关结果
重要提示:提问者不能发表回复,可以通过评论与回答者沟通,沟通后可以通过编辑功能完善问题描述,以便后续其他人能够更容易理解问题.
1 个回复
天桥下的郑成功 - Hadoop大数据开发工程师、数仓架构师、熟悉数据仓库设计、Hadoop、Spark、HBase、Hive、SSIS等开发 2016-05-17 回答
赞同来自: