欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于賽靈思FPGA的廣告推薦算法Wide and deep硬件加速案例

電子設(shè)計(jì) ? 來(lái)源:雪湖科技 ? 作者:梅碧峰 ? 2020-11-27 10:46 ? 次閱讀

作者:雪湖科技 梅碧峰

在這篇文章里你可以了解到廣告推薦算法Wide and deep模型的相關(guān)知識(shí)和搭建方法,還能了解到模型優(yōu)化和評(píng)估的方式。我還為你準(zhǔn)備了將模型部署到賽靈思 FPGA上做硬件加速的方法,希望對(duì)你有幫助。閱讀這篇文章你可能需要20分鐘的時(shí)間。

早上起床打開(kāi)音樂(lè)APP,會(huì)有今日歌單為你推薦一些歌曲。地鐵上閑來(lái)無(wú)事,刷一刷抖音等短視頻,讓枯燥的時(shí)光變得有趣。睡前打開(kāi)購(gòu)物APP,看一看今天是不是有新品上架。不知不覺(jué)大家已經(jīng)習(xí)慣了這些APP,不知道大家有沒(méi)有留意到為什么這些APP這么懂你,知道你喜歡聽(tīng)什么音樂(lè),喜歡看什么類(lèi)型的短視頻,喜歡什么樣的商品?

這些APP都會(huì)有類(lèi)似“猜你喜歡”這類(lèi)欄目。在使用時(shí)會(huì)驚嘆“它怎么知道我喜歡這個(gè)?!”,當(dāng)然,也會(huì)有“我怎么可能喜歡這個(gè)?”的吐槽。其實(shí)這些推送都是由機(jī)器學(xué)習(xí)搭建的推薦系統(tǒng)預(yù)測(cè)的結(jié)果。今天就介紹一下推薦系統(tǒng)中的重要成員CTR預(yù)估模型,下面先讓大家對(duì)CTR預(yù)估模型有一個(gè)初步認(rèn)識(shí)。

兩個(gè)名詞

CTR(Click-Through-Rate)點(diǎn)擊率:它是在一定時(shí)間內(nèi)點(diǎn)擊量/曝光量*100%,意味著投放了A條廣告有 A*CTR 條被點(diǎn)擊了。


ECPM(earning cost per mille):每1000次曝光帶來(lái)收入。ECPM=1000*CTR*單條廣告點(diǎn)擊價(jià)格。

舉個(gè)“栗”子

廣告A:點(diǎn)擊率4%,每個(gè)曝光1元錢(qián),廣告B:點(diǎn)擊率1%,每個(gè)曝光5元錢(qián)。假如你要投放1000條廣告,你會(huì)選擇廣告A,還是廣告B?

直觀上來(lái)看,廣告A的點(diǎn)擊率高,當(dāng)然選擇投放廣告A。

那么:ECPM=1000*CTR*點(diǎn)擊出價(jià)

ECPM(A)=1000*4%*1=40

ECPM(B)=1000*1%*5=50

但是從ECPM指標(biāo)來(lái)看的話廣告B帶來(lái)的收益會(huì)更高,這就是廣告競(jìng)拍的關(guān)鍵計(jì)算規(guī)則。

我們可以看到CTR是為廣告排序用的,對(duì)于計(jì)算ECPM來(lái)說(shuō),只有CTR是未知的,只要準(zhǔn)確得出CTR值就可以了。因此CTR預(yù)估也是廣告競(jìng)拍系統(tǒng)的關(guān)鍵指標(biāo)。廣告系統(tǒng)的CTR預(yù)估在具體的數(shù)值上比推薦系統(tǒng)要求更高,比如推薦系統(tǒng)可能只需要知道A的CTR比B大就可以排序了,而廣告由于不是直接用CTR進(jìn)行排序,還加上了出價(jià),因此廣告系統(tǒng)不僅要知道A的CTR比B大,而且還需要知道A的CTR比B的CTR大多少。

再舉個(gè)“栗”子

如果廣告A:點(diǎn)擊率是5%,廣告B:點(diǎn)擊率也是5%,點(diǎn)擊價(jià)格也相同,該選擇廣告A還是廣告B?

點(diǎn)擊率相同,點(diǎn)擊價(jià)格也相同 ,得出ECPM也相同,該怎么選擇投放廣告A還是B呢?

此時(shí)就可以根據(jù)廣告屬性做針對(duì)性推薦,針對(duì)不同的人群,做合適的推薦。例如:廣告A是包,廣告B是游戲,可做針對(duì)性推薦。即:針對(duì)女人這一群體投放廣告A、針對(duì)男人這一群體投放廣告B,這樣則會(huì)提高總廣告收益率。

CTR模型是怎么得出結(jié)果的呢?

我們可以根據(jù)經(jīng)驗(yàn)判斷決定廣告點(diǎn)擊率的屬性:廣告行業(yè)、用戶年齡、用戶性別等。由此可分為三類(lèi)屬性:

User:年齡、性別、收入、興趣、工作等。

AD items:類(lèi)別、價(jià)格、創(chuàng)意、實(shí)用等。

Others:時(shí)間、投放位置、投放頻率、當(dāng)前熱點(diǎn)等。

這些決定屬性在CTR預(yù)估模型中都叫做特征,而CTR預(yù)估模型中有一重要過(guò)程“特征工程”,將能影響點(diǎn)擊率的特征找到并進(jìn)行處理,比如把特征變成0和1的二值化、把連續(xù)的特征離散化、把特征平滑化、向量化。這樣CTR模型相當(dāng)于是無(wú)數(shù)特征(x)的一個(gè)函數(shù),CTR=f(x1,x2,x3,x4,x5...),輸入歷史數(shù)據(jù)訓(xùn)練,不斷調(diào)整參數(shù)(超參數(shù)),模型根據(jù)輸入的數(shù)據(jù)不斷更新參數(shù)(權(quán)重),最終到迭代很多次,參數(shù)(權(quán)重)幾乎不變化。當(dāng)輸入新的數(shù)據(jù),就會(huì)預(yù)測(cè)該數(shù)據(jù)的結(jié)果,也就是點(diǎn)擊率了。

那么有沒(méi)有很好奇如何搭建并訓(xùn)練出一個(gè)好的CTR預(yù)估模型呢?

No.1、模型迭代過(guò)程

推薦系統(tǒng)這一場(chǎng)景常用的兩大分類(lèi):

CF-Based(協(xié)同過(guò)濾)、Content-Based(基于內(nèi)容的推薦)

協(xié)同過(guò)濾(collaborative ?ltering)就是指基于用戶的推薦,用戶A和B比較相似,那么A喜歡的B也可能喜歡。

基于內(nèi)容推薦是指物品item1和item2比較相似,那么喜歡item1的用戶多半也喜歡item2。

對(duì)于接下來(lái)的模型無(wú)論是傳統(tǒng)的機(jī)器學(xué)習(xí)還是結(jié)合現(xiàn)今火熱的深度學(xué)習(xí)模型都會(huì)針對(duì)場(chǎng)景需求構(gòu)建特征建模。

LR(Logistics Regression)==>

MLR(Mixed Logistic Regression)==>

LR+GBDT(Gradient Boost Decision Tree)==>

LR+DNN(Deep Neural Networks)即Wide&Deep==>

1.1、LR

所謂推薦也就離不開(kāi)Rank這一問(wèn)題,如何講不同的特征組通過(guò)一個(gè)表達(dá)式計(jì)算出分?jǐn)?shù)的高低并排序是推薦的核心問(wèn)題。通過(guò)線性回歸的方式找到一組滿足這一規(guī)律的參數(shù),公式如下:


再通過(guò)sigmoid函數(shù)將輸出映射到(0,1)之間,得出二分類(lèi)概率值。


LR模型一直是CTR預(yù)估的benchmark模型,原理通俗易懂、可解釋性強(qiáng)。但是當(dāng)特征與特征之間、特征與目標(biāo)之間存在非線性關(guān)系時(shí),模型效果就會(huì)大打折扣。因此模型十分依賴人們根據(jù)經(jīng)驗(yàn)提取、構(gòu)建特征。另外,LR模型不能處理組合特征,例如:年齡和性別的組合,不同年齡段不同性別對(duì)目標(biāo)的偏愛(ài)程度會(huì)不相同,但是模型無(wú)法自動(dòng)挖掘這一隱含信息,依賴人工根據(jù)經(jīng)驗(yàn)組合特征。這也直接使得它表達(dá)能力受限,基本上只能處理線性可分或近似線性可分的問(wèn)題。

為了讓線性模型能夠?qū)W習(xí)到原始特征與擬合目標(biāo)之間的非線性關(guān)系,通常需要對(duì)原始特征做一些非線性轉(zhuǎn)換。常用的轉(zhuǎn)換方法包括:連續(xù)特征離散化、向量化、特征之間的交叉等。稍后會(huì)介紹為什么這樣處理。

1.2、MLR

它相當(dāng)于聚類(lèi)+LR的形式。將X聚成m類(lèi),之后把每個(gè)類(lèi)單獨(dú)訓(xùn)練一個(gè)LR。MLR相較于LR有更好的非線性表達(dá)能力,是LR的一種拓展。

我們知道softmax的公式:


將x進(jìn)行聚類(lèi),即得拓展之后的模型公式:


當(dāng)聚類(lèi)數(shù)目m=1時(shí),退化為L(zhǎng)R。m越大,模型的擬合能力越強(qiáng),m根據(jù)具體訓(xùn)練數(shù)據(jù)分布來(lái)設(shè)置。

圖1:MLR 模型結(jié)構(gòu)

但是MLR與LR一樣,同樣需要人工特征工程處理,由于目標(biāo)函數(shù)是非凸函數(shù)(易陷入局部最優(yōu)解),需要預(yù)訓(xùn)練,不然可能會(huì)不收斂,得不到好的模型。

1.3、LR+GBDT

顧名思義LR模型和GBDT模型組合。GBDT可做回歸與分類(lèi),這個(gè)看自己的需求。在CTR預(yù)估這一任務(wù)中要使用的是回歸樹(shù)而非決策樹(shù)。梯度提升也就是朝著梯度下降的方向上建樹(shù),通過(guò)不斷更新弱分類(lèi)器,得到強(qiáng)分類(lèi)器的過(guò)程。 每一子樹(shù)都是學(xué)習(xí)之前樹(shù)的結(jié)論和的殘差,通過(guò)最小化 log 損失函數(shù)找到最準(zhǔn)確的分支,直到所有葉子節(jié)點(diǎn)的值唯一 ,或者達(dá)到樹(shù)的深度達(dá)到預(yù)設(shè)值。如果某葉子節(jié)點(diǎn)上的值不唯一,計(jì)算平均值作為預(yù)測(cè)值輸出。

LR+GBDT:

Facebook 率先提出用GBDT模型解決LR模型的組合特征問(wèn)題。特征工程分為兩部分,一部分特征通過(guò)GBDT模型訓(xùn)練,把每顆樹(shù)的葉子節(jié)點(diǎn)作為新特征,加入原始特征中,再用LR得到最終的模型。

GBDT模型能夠?qū)W習(xí)高階非線性特征組合,對(duì)應(yīng)樹(shù)的一條路徑(用葉子節(jié)點(diǎn)來(lái)表示)。通常用GBDT模型訓(xùn)練連續(xù)值特征、值空間不大(value種類(lèi)較少)的特征,空間很大的特征在LR模型中訓(xùn)練。這樣就能把高階特征進(jìn)行組合,同時(shí)又能利用線性模型處理大規(guī)模稀疏特征。

圖2:LR+GBDT 模型結(jié)構(gòu)圖

1.4、LR+DNN(Wide&Deep)

先回想一下我們學(xué)習(xí)的過(guò)程。從出生時(shí)代,不斷學(xué)習(xí)歷史知識(shí),通過(guò)記憶達(dá)到見(jiàn)多識(shí)廣的效果。然后通過(guò)歷史知識(shí)泛化(generalize)到之前沒(méi)見(jiàn)過(guò)的。但是泛化的結(jié)果不一定都準(zhǔn)確。記憶(memorization)又可以修正泛化的規(guī)則(generalized rules),作為特殊去處理。這就是通過(guò)Memorization和Generalization的學(xué)習(xí)方式。

推薦系統(tǒng)需要解決兩個(gè)問(wèn)題:

記憶能力: 比如通過(guò)歷史數(shù)據(jù)知道“喜歡吃水煮魚(yú)”的人也“喜歡吃回鍋肉”,當(dāng)輸入為“喜歡吃水煮魚(yú)”,推出“喜歡吃回鍋肉”。

泛化能力: 推斷在歷史數(shù)據(jù)中從未見(jiàn)過(guò)的情形,“喜歡吃水煮魚(yú)”,“喜歡吃回鍋肉”,推出喜歡吃川菜,進(jìn)而推薦出其他川菜。

但是,模型普遍都存在兩個(gè)問(wèn)題:

a) 偏向于提取低階或者高階的組合特征,不能同時(shí)提取這兩種類(lèi)型的特征。

b) 需要專(zhuān)業(yè)的領(lǐng)域知識(shí)來(lái)做特征工程。

線性模型結(jié)合深度神經(jīng)網(wǎng)絡(luò)為什么叫做wide and deep呢?

無(wú)論是線性模型、梯度下降樹(shù)、因子分解機(jī)模型,都是通過(guò)不斷學(xué)習(xí)歷史數(shù)據(jù)特征,來(lái)適應(yīng)新的數(shù)據(jù),預(yù)測(cè)出新數(shù)據(jù)的表現(xiàn)。這說(shuō)明模型要具備一個(gè)基本特征記憶能力,也就是wide 部分。

但是當(dāng)輸入一些之前沒(méi)有學(xué)習(xí)過(guò)的數(shù)據(jù),此時(shí)模型表現(xiàn)卻不優(yōu)秀,不能根據(jù)歷史數(shù)據(jù),有機(jī)組合,推出新的正確結(jié)論。此時(shí)單單依賴記憶能力是不夠的。深度學(xué)習(xí)卻可以構(gòu)建多層隱層通過(guò)FC(全連接)的方式挖掘到特征與特征之間的深度隱藏的信息,來(lái)提高模型的泛化能力,也就是deep部分。將這兩部分的輸出通過(guò)邏輯回歸,得出預(yù)測(cè)類(lèi)別。

圖3:Wide & Deep 模型結(jié)構(gòu)圖

它混合了一個(gè)線性模型(Wide part)和Deep模型(Deep part)。這兩部分模型需要不同的輸入,而Wide part部分的輸入,依舊依賴人工特征工程。本質(zhì)上是線性模型(左邊部分, Wide model)和DNN的融合(右邊部分,Deep Model)。

對(duì)于歷史數(shù)據(jù)特征保證一定的記憶能力,對(duì)于新的數(shù)據(jù)特征擁有推理泛化能力。較大地提高了預(yù)測(cè)的準(zhǔn)確率,這也是一次大膽的嘗試,在推薦系統(tǒng)中引入深度學(xué)習(xí),在之后的CTR模型發(fā)展中大多也都是按照此設(shè)計(jì)思路進(jìn)行的。

1.5、數(shù)據(jù)處理

CTR預(yù)估數(shù)據(jù)特點(diǎn):

a) 輸入中包含類(lèi)別型和連續(xù)型數(shù)據(jù)。類(lèi)別型數(shù)據(jù)需要one-hot(獨(dú)熱編碼),連續(xù)型數(shù)據(jù)可以先離散化再one-hot,也可以直接保留原值。

b) 維度非常高,特征值特別多。

c) 數(shù)據(jù)非常稀疏。如:city包含各種不同的地方。

d) 特征按照Field分組。如:city、brand、category等都屬于一個(gè)Field,或者將這些Field拆分為多個(gè)Fidld。

e) 正負(fù)樣本不均衡。點(diǎn)擊率一般都比較小,大量負(fù)樣本存在。

如何高效的提取這些組合特征?CTR預(yù)估重點(diǎn)在于學(xué)習(xí)組合特征。注意,組合特征包括二階、三階甚至更高階的,復(fù)雜的特征,網(wǎng)絡(luò)不太容易學(xué)習(xí)、表達(dá)。一般做法是人工設(shè)置相關(guān)知識(shí),進(jìn)行特征工程。但是這樣做會(huì)非常耗費(fèi)人力,另外人工引入知識(shí)也不能做到全面。

1.6、模型搭建

以Wide and Deep為例,介紹網(wǎng)絡(luò)的搭建。在tensorflow.estimator下有構(gòu)建好的API,使用方法如下:

Wide中不斷提到這樣一種變換用來(lái)生成組合特征:

tf.feature_column.categorical_column_with_vocabulary_list(file)()。知道所有的不同取值,而且取值不多??梢酝ㄟ^(guò)list或者file的形式,列出需要訓(xùn)練的value。

tf.feature_column.categorical_column_with_hash_bucket(),不知道所有不同取值,或者取值多。

通過(guò)hash的方式,生成對(duì)應(yīng)的hash_size個(gè)值,但是可能會(huì)出現(xiàn)哈希沖突的問(wèn)題,一般不會(huì)產(chǎn)生什么影響。

tf.feature_column.numeric_column(),對(duì)number類(lèi)型的數(shù)據(jù)進(jìn)行直接映射。一般會(huì)對(duì)number類(lèi)型feature做歸一化,標(biāo)準(zhǔn)化。

tf.feature_column.bucketized_column(),分桶離散化構(gòu)造為sparse特征。這種做法的優(yōu)點(diǎn)是模型可解釋高,實(shí)現(xiàn)快速高效,特征重要度易于分析。特征分區(qū)間之后,每個(gè)區(qū)間上目標(biāo)(y)的分布可能是不同的,從而每個(gè)區(qū)間對(duì)應(yīng)的新特征在模型訓(xùn)練結(jié)束后都能擁有獨(dú)立的權(quán)重系數(shù)。特征離散化相當(dāng)于把線性函數(shù)變成了分段線性函數(shù),從而引入了非線性結(jié)構(gòu)。比如不同年齡段的用戶的行為模式可能是不同的,但是并不意味著年齡越大就對(duì)擬合目標(biāo)(比如,點(diǎn)擊率)的貢獻(xiàn)越大,因此直接把年齡作為特征值訓(xùn)練就不合適。而把年齡分段(分桶處理)后,模型就能夠?qū)W習(xí)到不同年齡段的用戶的不同偏好模式。

tf.feature_column.indicator_column(),離散類(lèi)型數(shù)據(jù)轉(zhuǎn)換查找,將類(lèi)別型數(shù)據(jù)進(jìn)行one-hot,稀疏變量轉(zhuǎn)換為稠密變量。

tf.feature_column.embedding_column(),(加深feature維度,將特征向量化,可使模型學(xué)到深層次信息),對(duì)于RNN中有tf.nn.embedding_lookup(),將文字信息轉(zhuǎn)為向量,具體算法可以自行查一下。

離散化的其他好處還包括對(duì)數(shù)據(jù)中的噪音有更好的魯棒性(異常值也落在一個(gè)劃分區(qū)間,異常值本身的大小不會(huì)過(guò)度影響模型預(yù)測(cè)結(jié)果);離散化還使得模型更加穩(wěn)定,特征值本身的微小變化(只有還落在原來(lái)的劃分區(qū)間)不會(huì)引起模型預(yù)測(cè)值的變化。

tf.feature_column.crossed_column(),構(gòu)建交叉類(lèi)別,將兩個(gè)或者兩個(gè)以上的features根據(jù)hash值拼接,對(duì)hash_key(交叉類(lèi)別數(shù))取余。特征交叉是另一種常用的引入非線性性的特征工程方法。通常CTR預(yù)估涉及到用戶、物品、上下文等幾方面的特征,有時(shí)某個(gè)單個(gè)feature對(duì)目標(biāo)判定的影響會(huì)較小,而多種類(lèi)型的features組合在一起就能夠?qū)δ繕?biāo)的判定產(chǎn)生較大的影響。比如user的性別和item的類(lèi)別交叉就能夠刻畫(huà)例如“女性偏愛(ài)女裝”,“男性喜歡男裝”的知識(shí)。交叉類(lèi)別可以把領(lǐng)域知識(shí)(先驗(yàn)知識(shí))融入模型。

Deep部分,通過(guò)build_columns(),得到可分別得到wide 和deep部分,通過(guò)tf.estimator.DNNLinearCombinedClassifier(),可設(shè)置隱藏層層數(shù),節(jié)點(diǎn)數(shù),優(yōu)化方法(dnn中Adagrad,linear中Ftrl),dropout ,BN,激活函數(shù)等。將linear和dnn連接起來(lái)。將點(diǎn)擊率設(shè)置為lebel1,從經(jīng)驗(yàn)實(shí)測(cè)效果上說(shuō),理論原因這里就不贅述了。

將訓(xùn)練數(shù)據(jù)序列化為protobuf格式,加快io時(shí)間,設(shè)置batch_size、epoch等參數(shù)就可以訓(xùn)練模型了。

No.2、模型優(yōu)化

對(duì)于不同數(shù)據(jù),選用不同的features,不同的數(shù)據(jù)清理方式,模型效果也會(huì)有不同,通過(guò)測(cè)試集驗(yàn)證模型評(píng)價(jià)指標(biāo),對(duì)于CTR預(yù)估模型來(lái)說(shuō),AUC是關(guān)鍵指標(biāo)(稍后介紹)。同時(shí)監(jiān)測(cè)查準(zhǔn)(precision),查全率(recall),確定模型需要優(yōu)化的方向,對(duì)于正負(fù)不均衡情況還可以加大小樣本的權(quán)重系數(shù)。

一般來(lái)說(shuō),AUC指標(biāo)可以達(dá)到0.7-0.8。當(dāng)AUC在這個(gè)范圍時(shí),如果準(zhǔn)確率較低,說(shuō)明模型效果還有待提高,可以調(diào)整隱藏層數(shù)目(3-5)層和節(jié)點(diǎn)數(shù)(2**n,具體看自己的features輸出維度),構(gòu)建組合特征,構(gòu)建交叉特征。學(xué)習(xí)率可設(shè)置一個(gè)稍微大點(diǎn)的初始值,然后設(shè)置逐漸衰減的學(xué)習(xí)率,加快收斂。優(yōu)化手段千變?nèi)f化,掌握其本質(zhì),在盡可能學(xué)習(xí)到更多的特征性避免過(guò)擬合。具體優(yōu)化優(yōu)化方法由模型的表現(xiàn)來(lái)決定。

No.3、模型評(píng)估

AUC(Area under Curve):Roc曲線下的面積,介于0.5和1之間。AUC作為數(shù)值可以直觀的評(píng)價(jià)分類(lèi)器的好壞,值越大越好。

直觀理解就是:AUC是一個(gè)概率值,當(dāng)你隨機(jī)挑選一個(gè)正樣本以及負(fù)樣本,當(dāng)前的分類(lèi)算法根據(jù)計(jì)算得到的Score值將這個(gè)正樣本排在負(fù)樣本前面的概率就是AUC值,AUC值越大,當(dāng)前分類(lèi)算法越有可能將正樣本排在負(fù)樣本前面,從而能夠更好地分類(lèi)。

下表是經(jīng)過(guò)調(diào)整后,不同算法實(shí)現(xiàn)的模型效果對(duì)比表:

圖4:模型效果對(duì)比表

不斷優(yōu)化后得出幾個(gè)模型的不同效果,將每一次廣告曝光按照預(yù)測(cè)的CTR從小到大排序,可以根據(jù)預(yù)測(cè)的CTR值根據(jù)ECPM公式,按照單位曝光量統(tǒng)計(jì)出預(yù)估的ECPM和真實(shí)的ECMP進(jìn)行比較,就可以知道預(yù)估的CTR值是否可靠了。正確預(yù)估CTR是為了把真正高CTR的廣告挑出并展示出來(lái)么,錯(cuò)誤地預(yù)估——把高的CTR低估或把低的CTR高估都會(huì)讓高的ECPM不會(huì)排在最前面。在實(shí)際的實(shí)踐過(guò)程中,CTR預(yù)測(cè)正確通常ECPM、CTR、收入這些指標(biāo)通常都會(huì)漲。

No.4、模型部署

通常對(duì)于AI算法模型都是通過(guò)GPU服務(wù)器部署模型,但是對(duì)于推薦系統(tǒng)類(lèi)算法邏輯計(jì)算較多,在速度上反而沒(méi)有優(yōu)勢(shì),部署成本也比較高,經(jīng)濟(jì)性很差。所以大都通過(guò)CPU云服務(wù)器部署,但是速度又不夠理想。那么有沒(méi)有另外一種可能?

答案是肯定的,可以通過(guò)FPGA+CPU的方式,大型推薦系統(tǒng)的上線都是通過(guò)云端部署,同時(shí)用在線和離線方式更新模型。雪湖科技FPGA開(kāi)發(fā)團(tuán)隊(duì)把以Wide and Deep為基礎(chǔ)網(wǎng)絡(luò)的模型移植到阿里云FPGA服務(wù)器F3(FPGA:賽靈思 VU9P)上,用戶可以通過(guò)鏡像文件部署。根據(jù)最近的更新數(shù)據(jù)顯示,模型精度損失可控制在十萬(wàn)分之二。相較于CPU服務(wù)器,F(xiàn)PGA服務(wù)器的吞吐量提高了3~5倍。當(dāng)模型更新時(shí),通過(guò)雪湖科技提供的工具可直接載入模型參數(shù),可做到一鍵式更新模型參數(shù)。

No.5、CTR模型發(fā)展

Wide&Deep 雖然效果很好,但是隨著算法的不斷迭代基于Wide&Deep 模型思想,有很多新的模型被開(kāi)發(fā)出來(lái),基本思想是用FM、FFM代替LR部分,通過(guò)串聯(lián)或者并聯(lián)的方式與DNN部分組合成新的模型,例如FNN,PNN,DeepFM,DeepFFM,AFM,DeepCross等等,雪湖科技公司也致力于將所有CTR預(yù)估模型都完美兼容,在保證精度的前提下,增大吞吐量。

作者介紹:
本文作者為雪湖科技算法工程師 梅碧峰,現(xiàn)負(fù)責(zé)人工智能算法開(kāi)發(fā)。在AI算法領(lǐng)域工作超過(guò)5年,喜歡戴著Sony降噪耳機(jī)埋頭研究各類(lèi)算法模型。理想主義的現(xiàn)實(shí)工作者,致力于用算法解放人工,實(shí)現(xiàn)1+1>2的問(wèn)題。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • FPGA
    +關(guān)注

    關(guān)注

    1630

    文章

    21801

    瀏覽量

    606322
  • 賽靈思
    +關(guān)注

    關(guān)注

    32

    文章

    1794

    瀏覽量

    131545
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8444

    瀏覽量

    133115
  • 硬件加速
    +關(guān)注

    關(guān)注

    0

    文章

    29

    瀏覽量

    11162
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    數(shù)據(jù)中心中的FPGA硬件加速

    ? 再來(lái)看一篇FPGA的綜述,我們都知道微軟包括國(guó)內(nèi)的云廠商其實(shí)都在數(shù)據(jù)中心的服務(wù)器中部署了FPGA,所以這篇論文就以數(shù)據(jù)中心的視角,來(lái)看下FPGA這個(gè)硬件加速器。 還是一樣,想要論文
    的頭像 發(fā)表于 01-14 10:29 ?157次閱讀
    數(shù)據(jù)中心中的<b class='flag-5'>FPGA</b><b class='flag-5'>硬件加速</b>器

    低溫失效的原因,有沒(méi)有別的方法或者一些見(jiàn)解?

    低溫失效的原因,有沒(méi)有別的方法或者一些見(jiàn)解。就是芯片工作溫度在100°--40°區(qū)間,然后呢我們到了0°以下就不工作了,然后在低溫的情況下監(jiān)測(cè)了電流和電壓都正常,頻率也都正常,頻率不是F
    發(fā)表于 12-30 16:28

    FPGA產(chǎn)品的主要特點(diǎn)

    近年來(lái),全球半導(dǎo)體供應(yīng)鏈屢受挑戰(zhàn),芯片短缺問(wèn)題一度對(duì)行業(yè)產(chǎn)生深遠(yuǎn)影響。易通過(guò)優(yōu)化供應(yīng)鏈管理、強(qiáng)化產(chǎn)能規(guī)劃,確??蛻舻?b class='flag-5'>FPGA需求得到及時(shí)滿足。面向工業(yè)控制、機(jī)器視覺(jué)、醫(yī)療影像、消費(fèi)電子、汽車(chē)智駕等一眾終端領(lǐng)域,易
    的頭像 發(fā)表于 12-04 14:20 ?689次閱讀
    易<b class='flag-5'>靈</b><b class='flag-5'>思</b><b class='flag-5'>FPGA</b>產(chǎn)品的主要特點(diǎn)

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場(chǎng)可編程門(mén)陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個(gè)熱門(mén)研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于
    的頭像 發(fā)表于 10-25 09:22 ?372次閱讀

    RISC-V跑AI算法加速嗎?

    現(xiàn)在好多ARM單片機(jī)都帶機(jī)器學(xué)習(xí)加速,RISC-V有這方面的硬件加速嗎?
    發(fā)表于 10-10 22:14

    TDA4VM上的硬件加速運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)算法

    電子發(fā)燒友網(wǎng)站提供《TDA4VM上的硬件加速運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)算法.pdf》資料免費(fèi)下載
    發(fā)表于 09-24 11:39 ?0次下載
    TDA4VM上的<b class='flag-5'>硬件加速</b>運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)<b class='flag-5'>算法</b>

    爾芯題正式發(fā)布,邀你共戰(zhàn)EDA精英挑戰(zhàn)!

    全新的挑戰(zhàn)。今年的題,我們更加聚焦于數(shù)字集成電路設(shè)計(jì)的核心領(lǐng)域,直擊當(dāng)前超大規(guī)模設(shè)計(jì)下硬件仿真的技術(shù)難點(diǎn):設(shè)計(jì)并優(yōu)化一種高效的超圖分割算法。該技術(shù)可以加速設(shè)計(jì)驗(yàn)
    的頭像 發(fā)表于 08-03 08:24 ?754次閱讀
    <b class='flag-5'>思</b>爾芯<b class='flag-5'>賽</b>題正式發(fā)布,邀你共戰(zhàn)EDA精英挑戰(zhàn)<b class='flag-5'>賽</b>!

    FPGA與MCU的應(yīng)用場(chǎng)景

    使用FPGA可以提供定制化的硬件加速方案。通過(guò)將算法映射到FPGA硬件邏輯上,可以實(shí)現(xiàn)遠(yuǎn)超軟件實(shí)現(xiàn)的性能提升。
    發(fā)表于 07-29 15:45

    FPGA下載問(wèn)題

    在ARM開(kāi)發(fā)中,通??晒┻x擇的下載器有多種。清華的FPGA,除了官方的專(zhuān)用下載器,有其他的下載器可以使用嗎?使用下載器可以嗎?
    發(fā)表于 06-23 12:28

    PSoC 6 MCUBoot和mbedTLS是否支持加密硬件加速?

    。 使用 MCUBoot 驗(yàn)證兩個(gè)應(yīng)用程序時(shí),運(yùn)行時(shí)間大約需要五秒鐘。 在 README.md 的 \"安全 \"一欄中寫(xiě)道 與軟件實(shí)現(xiàn)相比,硬件加速加密技術(shù)將啟動(dòng)時(shí)間縮短了四倍多
    發(fā)表于 05-29 08:17

    新思科技硬件加速解決方案技術(shù)日在成都和西安站成功舉辦

    近日,【新思科技技術(shù)日】硬件加速驗(yàn)證解決方案專(zhuān)場(chǎng)成都站和西安站順利舉行,來(lái)自國(guó)內(nèi)領(lǐng)先的系統(tǒng)級(jí)公司、芯片設(shè)計(jì)公司以及高校的250多名開(kāi)發(fā)者們積極參與。
    的頭像 發(fā)表于 04-19 17:35 ?509次閱讀

    FPGA flash操作原理

    FPGA flash操作原理分享
    的頭像 發(fā)表于 04-09 15:03 ?1085次閱讀

    用DE1-SOC進(jìn)行硬件加速的2D N-Body重力模擬器設(shè)計(jì)

    該項(xiàng)目的目標(biāo)是創(chuàng)建一個(gè)用DE1-SOC進(jìn)行硬件加速的2D N-Body重力模擬器。
    的頭像 發(fā)表于 04-09 11:08 ?654次閱讀
    用DE1-SOC進(jìn)行<b class='flag-5'>硬件加速</b>的2D N-Body重力模擬器設(shè)計(jì)

    【國(guó)產(chǎn)FPGA+OMAPL138開(kāi)發(fā)板體驗(yàn)】(原創(chuàng))7.硬件加速Sora文生視頻源代碼

    算法,如循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)或Transformer,用于文本處理,以及卷積神經(jīng)網(wǎng)絡(luò)(CNN)或生成對(duì)抗網(wǎng)絡(luò)(GAN)用于視頻生成。通常涉及對(duì)模型中的計(jì)算密集型部分進(jìn)行硬件加速。文本到視頻生成模型
    發(fā)表于 02-22 09:49

    音視頻解碼器硬件加速:實(shí)現(xiàn)更流暢的播放效果

    隨著多媒體內(nèi)容的日益豐富和高清化,傳統(tǒng)的軟件解碼已經(jīng)難以滿足人們對(duì)流暢播放體驗(yàn)的需求。因此,音視頻解碼器硬件加速技術(shù)的出現(xiàn),為提升播放效果帶來(lái)了革命性的改變。 硬件加速的原理 硬件加速的核心
    的頭像 發(fā)表于 02-21 14:40 ?1085次閱讀
    音視頻解碼器<b class='flag-5'>硬件加速</b>:實(shí)現(xiàn)更流暢的播放效果