欧美一区二区三区,国内熟女精品熟女A片视频小说,日本av网,小鲜肉男男GAY做受XXX网站

數(shù)據(jù)倉庫和數(shù)據(jù)庫的區(qū)別是什么

阮建安2年前20瀏覽0評論
數(shù)據(jù)倉庫和數(shù)據(jù)庫的區(qū)別是什么?

一直想整理一下這塊內(nèi)容,既然是漫談,就想起什么說什么吧。我一直是在互聯(lián)網(wǎng)行業(yè),就以互聯(lián)網(wǎng)行業(yè)來說。先大概列一下互聯(lián)網(wǎng)行業(yè)數(shù)據(jù)倉庫、數(shù)據(jù)平臺的用途:

整合公司所有業(yè)務(wù)數(shù)據(jù),建立統(tǒng)一的數(shù)據(jù)中心;

提供各種報表,有給高層的,有給各個業(yè)務(wù)的;

為網(wǎng)站運營提供運營上的數(shù)據(jù)支持,就是通過數(shù)據(jù),讓運營及時了解網(wǎng)站和產(chǎn)品的運營效果;

為各個業(yè)務(wù)提供線上或線下的數(shù)據(jù)支持,成為公司統(tǒng)一的數(shù)據(jù)交換與提供平臺;

分析用戶行為數(shù)據(jù),通過數(shù)據(jù)挖掘來降低投入成本,提高投入效果;比如廣告定向精準(zhǔn)投放、用戶個性化推薦等;

開發(fā)數(shù)據(jù)產(chǎn)品,直接或間接為公司盈利;

建設(shè)開放數(shù)據(jù)平臺,開放公司數(shù)據(jù);

。。。。。。

上面列出的內(nèi)容看上去和傳統(tǒng)行業(yè)數(shù)據(jù)倉庫用途差不多,并且都要求數(shù)據(jù)倉庫/數(shù)據(jù)平臺有很好的穩(wěn)定性、可靠性;但在互聯(lián)網(wǎng)行業(yè),除了數(shù)據(jù)量大之外,越來越多的業(yè)務(wù)要求時效性,甚至很多是要求實時的 ,另外,互聯(lián)網(wǎng)行業(yè)的業(yè)務(wù)變化非常快,不可能像傳統(tǒng)行業(yè)一樣,可以使用自頂向下的方法建立數(shù)據(jù)倉庫,一勞永逸,它要求新的業(yè)務(wù)很快能融入數(shù)據(jù)倉庫中來,老的下線的業(yè)務(wù),能很方便的從現(xiàn)有的數(shù)據(jù)倉庫中下線;

其實,互聯(lián)網(wǎng)行業(yè)的數(shù)據(jù)倉庫就是所謂的敏捷數(shù)據(jù)倉庫,不但要求能快速的響應(yīng)數(shù)據(jù),也要求能快速的響應(yīng)業(yè)務(wù);

建設(shè)敏捷數(shù)據(jù)倉庫,除了對架構(gòu)技術(shù)上的要求之外,還有一個很重要的方面,就是數(shù)據(jù)建模,如果一上來就想著建立一套能兼容所有數(shù)據(jù)和業(yè)務(wù)的數(shù)據(jù)模型,那就又回到傳統(tǒng)數(shù)據(jù)倉庫的建設(shè)上了,很難滿足對業(yè)務(wù)變化的快速響應(yīng)。應(yīng)對這種情況,一般是先將核心的持久化的業(yè)務(wù)進行深度建模(比如:基于網(wǎng)站日志建立的網(wǎng)站統(tǒng)計分析模型和用戶瀏覽軌跡模型;基于公司核心用戶數(shù)據(jù)建立的用戶模型),其它的業(yè)務(wù)一般都采用維度+寬表的方式來建立數(shù)據(jù)模型。這塊是后話。

整體架構(gòu)下面的圖是我們目前使用的數(shù)據(jù)平臺架構(gòu)圖,其實大多公司應(yīng)該都差不多:

邏輯上,一般都有數(shù)據(jù)采集層、數(shù)據(jù)存儲與分析層、數(shù)據(jù)共享層、數(shù)據(jù)應(yīng)用層。可能叫法有所不同,本質(zhì)上的角色都大同小異。

我們從下往上看:

數(shù)據(jù)采集數(shù)據(jù)采集層的任務(wù)就是把數(shù)據(jù)從各種數(shù)據(jù)源中采集和存儲到數(shù)據(jù)存儲上,期間有可能會做一些簡單的清洗。

數(shù)據(jù)源的種類比較多:

網(wǎng)站日志:

作為互聯(lián)網(wǎng)行業(yè),網(wǎng)站日志占的份額最大,網(wǎng)站日志存儲在多臺網(wǎng)站日志服務(wù)器上,

一般是在每臺網(wǎng)站日志服務(wù)器上部署flume agent,實時的收集網(wǎng)站日志并存儲到HDFS上;

業(yè)務(wù)數(shù)據(jù)庫:

業(yè)務(wù)數(shù)據(jù)庫的種類也是多種多樣,有Mysql、Oracle、SqlServer等,這時候,我們迫切的需要一種能從各種數(shù)據(jù)庫中將數(shù)據(jù)同步到HDFS上的工具,Sqoop是一種,但是Sqoop太過繁重,而且不管數(shù)據(jù)量大小,都需要啟動MapReduce來執(zhí)行,而且需要Hadoop集群的每臺機器都能訪問業(yè)務(wù)數(shù)據(jù)庫;應(yīng)對此場景,淘寶開源的DataX,是一個很好的解決方案(可參考文章 《異構(gòu)數(shù)據(jù)源海量數(shù)據(jù)交換工具-Taobao DataX 下載和使用》),有資源的話,可以基于DataX之上做二次開發(fā),就能非常好的解決,我們目前使用的DataHub也是。

當(dāng)然,F(xiàn)lume通過配置與開發(fā),也可以實時的從數(shù)據(jù)庫中同步數(shù)據(jù)到HDFS

來自于Ftp/Http的數(shù)據(jù)源:

有可能一些合作伙伴提供的數(shù)據(jù),需要通過Ftp/Http等定時獲取,DataX也可以滿足該需求;

其他數(shù)據(jù)源:

比如一些手工錄入的數(shù)據(jù),只需要提供一個接口或小程序,即可完成

數(shù)據(jù)存儲與分析毋庸置疑,HDFS是大數(shù)據(jù)環(huán)境下數(shù)據(jù)倉庫/數(shù)據(jù)平臺最完美的數(shù)據(jù)存儲解決方案。

離線數(shù)據(jù)分析與計算,也就是對實時性要求不高的部分,在我看來,Hive還是首當(dāng)其沖的選擇,豐富的數(shù)據(jù)類型、內(nèi)置函數(shù);壓縮比非常高的ORC文件存儲格式;非常方便的SQL支持,使得Hive在基于結(jié)構(gòu)化數(shù)據(jù)上的統(tǒng)計分析遠遠比MapReduce要高效的多,一句SQL可以完成的需求,開發(fā)MR可能需要上百行代碼;

當(dāng)然,使用Hadoop框架自然而然也提供了MapReduce接口,如果真的很樂意開發(fā)Java,或者對SQL不熟,那么也可以使用MapReduce來做分析與計算;Spark是這兩年非常火的,經(jīng)過實踐,它的性能的確比MapReduce要好很多,而且和Hive、Yarn結(jié)合的越來越好,因此,必須支持使用Spark和SparkSQL來做分析和計算。因為已經(jīng)有Hadoop Yarn,使用Spark其實是非常容易的,不用單獨部署Spark集群,關(guān)于Spark On Yarn的相關(guān)文章,可參考:《Spark On Yarn系列文章》

實時計算部分,后面單獨說。

數(shù)據(jù)共享這里的數(shù)據(jù)共享,其實指的是前面數(shù)據(jù)分析與計算后的結(jié)果存放的地方,其實就是關(guān)系型數(shù)據(jù)庫和NOSQL數(shù)據(jù)庫;

前面使用Hive、MR、Spark、SparkSQL分析和計算的結(jié)果,還是在HDFS上,但大多業(yè)務(wù)和應(yīng)用不可能直接從HDFS上獲取數(shù)據(jù),那么就需要一個數(shù)據(jù)共享的地方,使得各業(yè)務(wù)和產(chǎn)品能方便的獲取數(shù)據(jù); 和數(shù)據(jù)采集層到HDFS剛好相反,這里需要一個從HDFS將數(shù)據(jù)同步至其他目標(biāo)數(shù)據(jù)源的工具,同樣,DataX也可以滿足。

另外,一些實時計算的結(jié)果數(shù)據(jù)可能由實時計算模塊直接寫入數(shù)據(jù)共享。

數(shù)據(jù)應(yīng)用

業(yè)務(wù)產(chǎn)品

業(yè)務(wù)產(chǎn)品所使用的數(shù)據(jù),已經(jīng)存在于數(shù)據(jù)共享層,他們直接從數(shù)據(jù)共享層訪問即可;

報表

同業(yè)務(wù)產(chǎn)品,報表所使用的數(shù)據(jù),一般也是已經(jīng)統(tǒng)計匯總好的,存放于數(shù)據(jù)共享層;

即席查詢

即席查詢的用戶有很多,有可能是數(shù)據(jù)開發(fā)人員、網(wǎng)站和產(chǎn)品運營人員、數(shù)據(jù)分析人員、甚至是部門老大,他們都有即席查詢數(shù)據(jù)的需求;

這種即席查詢通常是現(xiàn)有的報表和數(shù)據(jù)共享層的數(shù)據(jù)并不能滿足他們的需求,需要從數(shù)據(jù)存儲層直接查詢。

即席查詢一般是通過SQL完成,最大的難度在于響應(yīng)速度上,使用Hive有點慢,目前我的解決方案是SparkSQL,它的響應(yīng)速度較Hive快很多,而且能很好的與Hive兼容。

當(dāng)然,你也可以使用Impala,如果不在乎平臺中再多一個框架的話。

OLAP

目前,很多的OLAP工具不能很好的支持從HDFS上直接獲取數(shù)據(jù),都是通過將需要的數(shù)據(jù)同步到關(guān)系型數(shù)據(jù)庫中做OLAP,但如果數(shù)據(jù)量巨大的話,關(guān)系型數(shù)據(jù)庫顯然不行;

這時候,需要做相應(yīng)的開發(fā),從HDFS或者HBase中獲取數(shù)據(jù),完成OLAP的功能;

比如:根據(jù)用戶在界面上選擇的不定的維度和指標(biāo),通過開發(fā)接口,從HBase中獲取數(shù)據(jù)來展示。

其它數(shù)據(jù)接口

這種接口有通用的,有定制的。比如:一個從Redis中獲取用戶屬性的接口是通用的,所有的業(yè)務(wù)都可以調(diào)用這個接口來獲取用戶屬性。

實時計算現(xiàn)在業(yè)務(wù)對數(shù)據(jù)倉庫實時性的需求越來越多,比如:實時的了解網(wǎng)站的整體流量;實時的獲取一個廣告的曝光和點擊;在海量數(shù)據(jù)下,依靠傳統(tǒng)數(shù)據(jù)庫和傳統(tǒng)實現(xiàn)方法基本完成不了,需要的是一種分布式的、高吞吐量的、延時低的、高可靠的實時計算框架;Storm在這塊是比較成熟了,但我選擇Spark Streaming,原因很簡單,不想多引入一個框架到平臺中,另外,Spark Streaming比Storm延時性高那么一點點,那對于我們的需要可以忽略。

我們目前使用Spark Streaming實現(xiàn)了實時的網(wǎng)站流量統(tǒng)計、實時的廣告效果統(tǒng)計兩塊功能。

做法也很簡單,由Flume在前端日志服務(wù)器上收集網(wǎng)站日志和廣告日志,實時的發(fā)送給Spark Streaming,由Spark Streaming完成統(tǒng)計,將數(shù)據(jù)存儲至Redis,業(yè)務(wù)通過訪問Redis實時獲取。

任務(wù)調(diào)度與監(jiān)控在數(shù)據(jù)倉庫/數(shù)據(jù)平臺中,有各種各樣非常多的程序和任務(wù),比如:數(shù)據(jù)采集任務(wù)、數(shù)據(jù)同步任務(wù)、數(shù)據(jù)分析任務(wù)等;

這些任務(wù)除了定時調(diào)度,還存在非常復(fù)雜的任務(wù)依賴關(guān)系,比如:數(shù)據(jù)分析任務(wù)必須等相應(yīng)的數(shù)據(jù)采集任務(wù)完成后才能開始;數(shù)據(jù)同步任務(wù)需要等數(shù)據(jù)分析任務(wù)完成后才能開始; 這就需要一個非常完善的任務(wù)調(diào)度與監(jiān)控系統(tǒng),它作為數(shù)據(jù)倉庫/數(shù)據(jù)平臺的中樞,負責(zé)調(diào)度和監(jiān)控所有任務(wù)的分配與運行。

前面有寫過文章,《大數(shù)據(jù)平臺中的任務(wù)調(diào)度與監(jiān)控》,這里不再累贅。

總結(jié)在我看來架構(gòu)并不是技術(shù)越多越新越好,而是在可以滿足需求的情況下,越簡單越穩(wěn)定越好。目前在我們的數(shù)據(jù)平臺中,開發(fā)更多的是關(guān)注業(yè)務(wù),而不是技術(shù),他們把業(yè)務(wù)和需求搞清楚了,基本上只需要做簡單的SQL開發(fā),然后配置到調(diào)度系統(tǒng)就可以了,如果任務(wù)異常,會收到告警。這樣,可以使更多的資源專注于業(yè)務(wù)之上。