除了Hadoop?
光Hadoop那一套就夠喝一壺的。搞好這個已經很不容易。如果還要進階,分兩個方向發展,一個是繼續走Hadoop類的數據基礎設施達人之路,spark、kafka、storm、分布式rdbs等一系列架構。第二是走機器學習類的數據應用牛人之路,經典的學習算法、CNN、rnn那一套,tf、caffe2之類的框架,Python、r數據分析利器都需要了解使用。
這兩個是所有擁有大量數據的企業必須面對的問題。所以走那一條都會有錢途。但個人覺得,第二條顯然要更好玩更有趣。TB、pb級的數據日常接觸不到也沒有實用可能,但機器學習算法就不同了。腦洞大開可以玩到很多有意思的東西哦!