一次采集传输和处理的数据量约为100M,适不适合用storm做?

0
一次采集传输和处理的数据量约为100M,适不适合用storm做?用Hadoop做的话响应时间能多快?

这100M在服务器上要进行一定的逻辑处理后向采集端进行反馈,并要能在服务器上存储。

各位有知道的大神吗,求指导,先谢谢了
已邀请:
0

牟瑞 - 大数据 Hadoop 讲师 Hadoop入门课程地址:http://www.hellobi.com/course/39 有架构师,技术总监,CTO的职位请联系我! 2015-11-20 回答

1.什么样的数据?日志文件?结构化的数据?还是非结构化的数据
2.采集的频率是多大?1个小时?还是实时?
3.在服务器上存储?如何存?存文件?还是结构化的数据库?
最起码搞清楚上面的几个问题。。storm适合实时计算。。hadoop适合大文件存储,不适合小文件存储。如果实时性比较高,可以考虑Hbase

要回复问题请先登录注册