1
这个题目有点难答。作为过来人,试着下。
本质
无论是java还是go,还是Hadoop spark,并没有本质区别,它们都是为特定业务场景开发服务的。
比如java go之类的,主要用于业务开发,比如各种业务系统,各种app或者pc服务的后台,比如淘宝的后台。主要解决的矛盾是实现业务需求,规模上来后。矛盾就是如何解决并发,流量,服务治理,扩容,存储,容灾这类问题。
而Hadoop spark是解决大数据问题而产生的,它们解决问题的场景是围绕大数据的存储,计算而产生的。当业务规模没有上来的时候,数据存储和计算都不是问题,比如统计用户的行为点击等等,用户分析,根本不需要这些大数据框架,往往单机就能搞定,单机能搞定的,肯定不需要多机分布式了。
2
个人观点,不喜勿喷。
这个得看个人的职业规划吧,服务端开发和大数据开发,各有特点,侧重点也不一样,没有好坏优劣之分,但是服务端开发或多或少得用到一些大数据相关的知识
3
直接从通信0基础转大数据,基本没什么困难的,只要好学,爱动脑,做普通的大数据开发绰绰有余
4
放弃java才是正确的
5
看了看,能搞就转了。
6
大数据一般都需要有java开发基础,两个互补[呲牙],有时间可以都学学