一次采集传输和处理的数据量约为100M,适不适合用storm做?
0
一次采集传输和处理的数据量约为100M,适不适合用storm做?用Hadoop做的话响应时间能多快?
这100M在服务器上要进行一定的逻辑处理后向采集端进行反馈,并要能在服务器上存储。
各位有知道的大神吗,求指导,先谢谢了
这100M在服务器上要进行一定的逻辑处理后向采集端进行反馈,并要能在服务器上存储。
各位有知道的大神吗,求指导,先谢谢了
没有找到相关结果
重要提示:提问者不能发表回复,可以通过评论与回答者沟通,沟通后可以通过编辑功能完善问题描述,以便后续其他人能够更容易理解问题.
1 个回复
牟瑞 - 大数据 Hadoop 讲师 Hadoop入门课程地址:http://www.hellobi.com/course/39 有架构师,技术总监,CTO的职位请联系我! 2015-11-20 回答
赞同来自:
2.采集的频率是多大?1个小时?还是实时?
3.在服务器上存储?如何存?存文件?还是结构化的数据库?
最起码搞清楚上面的几个问题。。storm适合实时计算。。hadoop适合大文件存储,不适合小文件存储。如果实时性比较高,可以考虑Hbase