1
spark是工具,深度学习是解决问题的策略。如果做大数据分析,至少应该熟练使用一种工具,并深入理解常用的算法。如果是是做大数据分析,并不需要做到代码级和架构级熟悉spark。因为它仅仅是一个工具,熟练使用即可。如果题主具有较好的编程基础,一个月的时间足够学好sparksql和sparkml。更多的精力应该用在算法学习上。但如果题主想要学习深度学习,不建议学习spark。因为常用的CNN、RNN等模型,通常利用GPU计算,而不是CPU计算,而spark是内存计算框架,主要是在CPU上完成计算,计算效率不如GPU。因此,如果使用深度学习做大数据分析,可以用TensorFlow等框架。
2
首先,你最需要明白的是大数据处理分析,最需要学习研究的是什么?
其次,需要弄清楚,spark最大的特长是什么,主要用来解决什么?
最后,deep learning 是用来做什么的,同样需要弄清楚。
此时,big data analysis 的主要任务,和 spark主要功能匹配吗?
研究生解决以上问题,没问题。如有疑问,欢迎留言