欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌 | 大規(guī)模深度推薦模型的特征嵌入問題有解了!

WpOh_rgznai100 ? 來源:YXQ ? 2019-07-16 13:51 ? 次閱讀

導(dǎo)讀:本文主要介紹下Google在大規(guī)模深度推薦模型上關(guān)于特征嵌入的最新論文。

一、背景

大部分的深度學(xué)習(xí)模型主要包含如下的兩大模塊:輸入模塊以及表示學(xué)習(xí)模塊。自從NAS[1]的出現(xiàn)以來,神經(jīng)網(wǎng)絡(luò)架構(gòu)的設(shè)計(jì)上正在往數(shù)據(jù)驅(qū)動(dòng)的自動(dòng)機(jī)器學(xué)習(xí)方向演進(jìn)。不過之前更多的研究都是聚焦在如何自動(dòng)設(shè)計(jì)表示學(xué)習(xí)模塊而不是輸入模塊,主要原因是在計(jì)算機(jī)視覺等成熟領(lǐng)域原始輸入(圖像像素)已經(jīng)是浮點(diǎn)數(shù)了。

輸入模塊:負(fù)責(zé)將原始輸入轉(zhuǎn)換為浮點(diǎn)數(shù);表示學(xué)習(xí)模塊:根據(jù)輸入模塊的浮點(diǎn)值,計(jì)算得到模型的最終輸出;

而在推薦、搜索以及廣告工業(yè)界的大規(guī)模深度模型上,情況卻完全不同。因?yàn)榘罅扛呔S稀疏的離散特征(譬如商品id,視頻id或者文章id)需要將這些類別特征通過embedding嵌入技術(shù)將離散的id轉(zhuǎn)換為連續(xù)的向量。而這些向量的維度大小往往被當(dāng)做一個(gè)超參手動(dòng)進(jìn)行設(shè)定。

一個(gè)簡單的數(shù)據(jù)分析就能告訴我們嵌入向量維度設(shè)定的合理與否非常影響模型的效果。以YoutubeDNN[2]為例,其中使用到的VideoId的特征詞典大小是100萬,每一個(gè)特征值嵌入向量大小是256。僅僅一個(gè)VideoId的特征就包含了2.56億的超參,考慮到其他更多的離散類特征輸入模塊的需要學(xué)習(xí)的超參數(shù)量可想而知。相應(yīng)地,表示學(xué)習(xí)模塊主要包含三層全連接層。也就是說大部分的超參其實(shí)聚集在了輸入模塊,那自然就會(huì)對(duì)模型的效果有著舉足輕重的影響。

二、主要工作

Google的研究者們?cè)谧钚碌囊黄撐腫3]中提出了NIS技術(shù)(Neural Input Search),可以自動(dòng)學(xué)習(xí)大規(guī)模深度推薦模型中每個(gè)類別特征最優(yōu)化的詞典大小以及嵌入向量維度大小。目的就是為了在節(jié)省性能的同時(shí)盡可能地最大化深度模型的效果。

并且,他們發(fā)現(xiàn)傳統(tǒng)的Single-size Embedding方式(所有特征值共享同樣的嵌入向量維度)其實(shí)并不能夠讓模型充分學(xué)習(xí)訓(xùn)練數(shù)據(jù)。因此與之對(duì)應(yīng)地,提出了Multi-size Embedding方式讓不同的特征值可以擁有不同的嵌入向量維度。

在實(shí)際訓(xùn)練中,他們使用強(qiáng)化學(xué)習(xí)來尋找每個(gè)特征值最優(yōu)化的詞典大小和嵌入向量維度。通過在兩大大規(guī)模推薦問題(檢索、排序)上的實(shí)驗(yàn)驗(yàn)證,NIS技術(shù)能夠自動(dòng)學(xué)習(xí)到更優(yōu)化的特征詞典大小和嵌入維度并且?guī)碓赗ecall@1以及AUC等指標(biāo)上的顯著提升。

三、Neural Input Search問題

NIS-SE問題:SE(Single-size Embedding)方式是目前常用的特征嵌入方式,所有特征值共享同樣的特征嵌入維度。NIS-SE問題就是在給定資源條件下,對(duì)于每個(gè)離散特征找到最優(yōu)化的詞典大小v和嵌入向量維度d。

這里面其實(shí)包含了兩部分的trade-off:一方面是各特征之間,更有用的特征應(yīng)該給予更多的資源;另一方面是每個(gè)特征內(nèi)部,詞典大小和嵌入向量維度之間。對(duì)于一個(gè)特征來說,更大的詞典可以有更大的覆蓋度,包含更多長尾的item;更多的嵌入向量維度則可以提升head item的嵌入質(zhì)量,因?yàn)閔ead item擁有充分的訓(xùn)練數(shù)據(jù)。而SE在資源限制下無法同時(shí)做到高覆蓋度和高質(zhì)量的特征嵌入。所以需要引入ME(Multi-size Embedding)。

NIS-ME問題:ME允許每個(gè)特征詞典內(nèi)不同的特征值可以有不同的嵌入向量維度。其實(shí)就是為了實(shí)現(xiàn)越頻繁的特征值擁有更大的嵌入特征維度,因?yàn)橛懈嗟挠?xùn)練數(shù)據(jù);而長尾的特征值則用更小的嵌入特征維度。引入ME為每一個(gè)類別離散特征找到最優(yōu)化的詞典大小和嵌入向量維度,就可以實(shí)現(xiàn)在長尾特征值上的高覆蓋度以及在頻繁特征值上的高質(zhì)量嵌入向量。下圖給出了embedding使用的場景例子中,SE和ME使用上的區(qū)別。

四、NIS解決方案

要想為每個(gè)類別離散特征手動(dòng)找到最優(yōu)化的詞典大小和嵌入向量維度是很難的,因?yàn)橥扑]廣告工業(yè)界的大規(guī)模深度模型的訓(xùn)練時(shí)很昂貴的。為了達(dá)到在一次訓(xùn)練中就能自動(dòng)找到最優(yōu)化的詞典大小和嵌入向量維度,他們改造了經(jīng)典的ENAS[4]:

首先針對(duì)深度模型的輸入模塊提出了一個(gè)新穎的搜索空間;

然后有一個(gè)單獨(dú)的Controller針對(duì)每一個(gè)離散特征選擇SE或者M(jìn)E;

其次可以根據(jù)Controller決策后考慮模型準(zhǔn)確度和資源消耗計(jì)算得到reward;

最后可以根據(jù)reward使用強(qiáng)化學(xué)習(xí)A3C[5]訓(xùn)練Controller進(jìn)行迭代。

搜索空間

Embedding Block的概念實(shí)際上就是原始Embedding矩陣的分塊。如下圖所示,假設(shè)原始Embedding矩陣大小是(10M,256),圖a將其分成了20個(gè)Embedding Block。Controller為每個(gè)特征有兩種選擇:圖b所示的SE以及圖c的所示的ME。

Reward函數(shù)

主模型是隨著Controller的選擇進(jìn)行訓(xùn)練的,因此Controller的參數(shù)實(shí)際上是根據(jù)在驗(yàn)證集上前向計(jì)算的reward通過RL追求收益最大化而來??紤]到在限定資源下的深度模型訓(xùn)練,這里的reward函數(shù)設(shè)計(jì)為同時(shí)考慮業(yè)務(wù)目標(biāo)與資源消耗。對(duì)于推薦領(lǐng)域的兩大主要任務(wù):信息檢索和排序,信息檢索的目標(biāo)可以使用Sampled Recall@1;而排序的目標(biāo)則可以使用AUC。

五、實(shí)驗(yàn)結(jié)果

他們?cè)趦纱蟠笠?guī)模推薦模型問題:檢索和排序上進(jìn)行了實(shí)驗(yàn)。在同等資源消耗的情況下,NIS可以獲得顯著提升,詳細(xì)數(shù)據(jù)如下圖所示。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6203

    瀏覽量

    106105

原文標(biāo)題:Google最新論文:大規(guī)模深度推薦模型的特征嵌入問題有解了!

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    使用EMBark進(jìn)行大規(guī)模推薦系統(tǒng)訓(xùn)練Embedding加速

    推薦系統(tǒng)是互聯(lián)網(wǎng)行業(yè)的核心系統(tǒng),如何高效訓(xùn)練推薦系統(tǒng)是各公司關(guān)注的核心問題。目前,推薦系統(tǒng)基本上都是基于深度學(xué)習(xí)的大規(guī)模 ID 類模型,模型包含數(shù)十億甚至數(shù)百億級(jí)別的 ID
    的頭像 發(fā)表于 10-31 14:46 ?281次閱讀
    使用EMBark進(jìn)行<b class='flag-5'>大規(guī)模</b>推薦系統(tǒng)訓(xùn)練Embedding加速

    谷歌正在考慮在越南建設(shè)超大規(guī)模數(shù)據(jù)中心

    據(jù)可靠消息透露,Alphabet集團(tuán)旗下的谷歌公司正積極籌劃在越南南部的經(jīng)濟(jì)樞紐胡志明市周邊建設(shè)一座“超大規(guī)模”數(shù)據(jù)中心。此舉標(biāo)志著美國科技巨頭首次在東南亞國家進(jìn)行此類重大投資,盡管具體的投資金額尚待揭曉。
    的頭像 發(fā)表于 08-30 14:55 ?698次閱讀

    深度學(xué)習(xí)的典型模型和訓(xùn)練過程

    深度學(xué)習(xí)作為人工智能領(lǐng)域的一個(gè)重要分支,近年來在圖像識(shí)別、語音識(shí)別、自然語言處理等多個(gè)領(lǐng)域取得了顯著進(jìn)展。其核心在于通過構(gòu)建復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型,從大規(guī)模數(shù)據(jù)中自動(dòng)學(xué)習(xí)并提取特征,進(jìn)而實(shí)
    的頭像 發(fā)表于 07-03 16:06 ?1714次閱讀

    大規(guī)模語言模型:從理論到實(shí)踐】- 閱讀體驗(yàn)

    再次感謝電子發(fā)燒友提供的書籍試讀機(jī)會(huì)。今天來分享下我在學(xué)習(xí)大模型訓(xùn)練中 注意力機(jī)制 的心得體會(huì)。 雖然注意力機(jī)制可以顯著提高模型處理長序列數(shù)據(jù)的能力,但這也帶來了計(jì)算成本的增加。在大型模型中,自
    發(fā)表于 06-07 14:44

    谷歌云部門進(jìn)行大規(guī)模裁員

    谷歌云部門近日進(jìn)行了大規(guī)模裁員,多個(gè)Cloud團(tuán)隊(duì)的員工收到了工作取消的通知。據(jù)一名知情員工透露,盡管受影響員工的總?cè)藬?shù)尚未明確,但亞太地區(qū)“Go To Market”團(tuán)隊(duì)約有100名員工被裁。
    的頭像 發(fā)表于 06-05 09:48 ?694次閱讀

    大規(guī)模語言模型:從理論到實(shí)踐】- 每日進(jìn)步一點(diǎn)點(diǎn)

    非常推薦大家去讀 【大規(guī)模語言模型:從理論到實(shí)踐】這本書,系統(tǒng)的講解了模型的前世今生,對(duì)各個(gè)環(huán)節(jié)知識(shí)進(jìn)行了普及。 今天跟我一起學(xué)習(xí)歸一化的部分。 大
    發(fā)表于 05-31 19:54

    谷歌提出大規(guī)模ICL方法

    谷歌DeepMind團(tuán)隊(duì)近日取得了一項(xiàng)突破性的研究成果。他們提出了強(qiáng)化和無監(jiān)督兩種新型的ICL(In-Context Learning)學(xué)習(xí)方法,這一創(chuàng)新技術(shù)能夠在多個(gè)領(lǐng)域顯著提升模型的性能。
    的頭像 發(fā)表于 05-14 14:17 ?413次閱讀

    【大語言模型:原理與工程實(shí)踐】大語言模型的基礎(chǔ)技術(shù)

    處理各種自然語言任務(wù)時(shí)都表現(xiàn)出了驚人的能力。這促使一個(gè)新的研究方向誕生——基于Transformer 的預(yù)訓(xùn)練語言模型。這類模型的核心思想是先利用大規(guī)模的文本數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,捕捉語言的通用特征
    發(fā)表于 05-05 12:17

    【大語言模型:原理與工程實(shí)踐】揭開大語言模型的面紗

    了隨著模型規(guī)模擴(kuò)大,其性能和能力提升速度的變化規(guī)律。這一定律在深度學(xué)習(xí)中表現(xiàn)為模型規(guī)模與性能改進(jìn)之間的關(guān)系,通常表明擴(kuò)大
    發(fā)表于 05-04 23:55

    名單公布!【書籍評(píng)測活動(dòng)NO.30】大規(guī)模語言模型:從理論到實(shí)踐

    ,在大模型實(shí)踐和理論研究的過程中,歷時(shí)8個(gè)月完成 《大規(guī)模語言模型:從理論到實(shí)踐》 一書的撰寫。希望這本書能夠幫助讀者快速入門大模型的研究和應(yīng)用,并解決相關(guān)技術(shù)問題。 本書一經(jīng)上市,
    發(fā)表于 03-11 15:16

    谷歌計(jì)劃將先進(jìn)大模型Gemini明年嵌入安卓手機(jī)

    谷歌對(duì)其人工智能大模型在智能手機(jī)上的應(yīng)用前景持樂觀態(tài)度,并預(yù)計(jì)其更先進(jìn)的大模型Gemini將于明年嵌入安卓手機(jī)。這一消息由谷歌Pixel部門
    的頭像 發(fā)表于 03-06 11:37 ?816次閱讀

    谷歌模型怎么用PS打開文件和圖片

    谷歌模型本身并不是用Adobe Photoshop(簡稱PS)打開的文件和圖片格式。谷歌模型通常是用于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的
    的頭像 發(fā)表于 02-29 18:25 ?1575次閱讀

    谷歌模型合成軟件有哪些

    谷歌模型合成軟件通常指的是谷歌提供的用于創(chuàng)建、修改和共享3D模型的軟件。目前,谷歌推出的模型合成
    的頭像 發(fā)表于 02-29 18:20 ?1481次閱讀

    谷歌模型怎么用手機(jī)打開文件

    要用手機(jī)打開谷歌模型文件,首先需要確定該文件的具體類型和格式。谷歌模型文件可能是以各種格式存在的,比如.pb(Protocol Buffers)、.h5(Keras/TensorFlo
    的頭像 發(fā)表于 02-29 18:17 ?1532次閱讀

    谷歌交互世界模型重磅發(fā)布

    谷歌模型
    北京中科同志科技股份有限公司
    發(fā)布于 :2024年02月28日 09:13:06