想做大数据处理分析,该专注于学spark还是深度学习呢?

1

spark是工具,深度学习是解决问题的策略。如果做大数据分析,至少应该熟练使用一种工具,并深入理解常用的算法。如果是是做大数据分析,并不需要做到代码级和架构级熟悉spark。因为它仅仅是一个工具,熟练使用即可。如果题主具有较好的编程基础,一个月的时间足够学好sparksql和sparkml。更多的精力应该用在算法学习上。但如果题主想要学习深度学习,不建议学习spark。因为常用的CNN、RNN等模型,通常利用GPU计算,而不是CPU计算,而spark是内存计算框架,主要是在CPU上完成计算,计算效率不如GPU。因此,如果使用深度学习做大数据分析,可以用TensorFlow等框架。

2

首先,你最需要明白的是大数据处理分析,最需要学习研究的是什么?

其次,需要弄清楚,spark最大的特长是什么,主要用来解决什么?

最后,deep learning 是用来做什么的,同样需要弄清楚。

此时,big data analysis 的主要任务,和 spark主要功能匹配吗?

研究生解决以上问题,没问题。如有疑问,欢迎留言

关于作者: 网站小编

码农网专注IT技术教程资源分享平台,学习资源下载网站,58码农网包含计算机技术、网站程序源码下载、编程技术论坛、互联网资源下载等产品服务,提供原创、优质、完整内容的专业码农交流分享平台。

热门文章