超大数据下的cube的分区设计,高手指点

0
公司一张超大日志表,大概将近30亿数据,每天会增长2-3G的数据;现在想建立cube,对数据进行汇总统计,最小粒度是分钟;请问cube应该怎么设计?包括分区,聚合等,能最大提高性能,越详细越好,小弟先谢谢各位了!
已邀请:
0

天桥下的郑成功 - Hadoop大数据开发工程师、数仓架构师、熟悉数据仓库设计、Hadoop、Spark、HBase、Hive、SSIS等开发 2016-05-17 回答

这个范围太大了,先把维度事实表设计出来,再讨论分区问题

要回复问题请先登录注册