像spark hadoop这些大数据相关的怎么自我学习,比如说集群 个人电脑条件也不满足 有没有什么云平台可以提供实验环境?
0
像spark hadoop这些大数据相关的怎么自我学习,比如说集群 个人电脑条件也不满足 有没有什么云平台可以?
想学 了解一些这方面的东西,一看资料就要linux 集群什么的,有没有什么在线平台 云平台模拟实验环境之类的?
想学 了解一些这方面的东西,一看资料就要linux 集群什么的,有没有什么在线平台 云平台模拟实验环境之类的?
没有找到相关结果
重要提示:提问者不能发表回复,可以通过评论与回答者沟通,沟通后可以通过编辑功能完善问题描述,以便后续其他人能够更容易理解问题.
2 个回复
liutangwow 2017-08-09 回答
赞同来自:
1. 公司支持
公司技术迭代,需要使用Hadoop、Spark,那肯定会提供测试环境等一切资源,那就很方便了;
公司没有需求,那是否可以和上级领导反馈下,申请测试环境供大家自主学习使用,这个估计要看具体情况;
公司有没有闲置的机器,都可以利用起来
2. 个人
个人电脑安装VirtualBox之类的虚拟机,开3个虚拟机玩儿就够了,电脑的话配置也就内存8G以上应该足够了,CPU差不多就行了,直接装Linux就行了;
可以使用Docker,可以简单的把他看成虚拟机,找些资料看看,简单使用应该没问题,使用Docker开实例很方便,不像虚拟机那样耗费很多资源
要不开通个阿里云之类的,在云平台上面玩儿,这个价钱不清楚,可以去官网看看
regan - run! run! run! happy runner! 我是奔跑的小米~ 2017-08-30 回答
赞同来自: