欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于注意力機(jī)制的用戶行為建模框架及其在推薦領(lǐng)域的應(yīng)用

DPVg_AI_era ? 2018-01-25 17:59 ? 次閱讀

本文提出一種基于注意力機(jī)制的用戶異構(gòu)行為序列的建??蚣埽⑵鋺?yīng)用到推薦場景中。我們將不同種類的用戶行為序列進(jìn)行分組編碼,并映射到不同子空間中。我們利用self-attention對行為間的互相影響進(jìn)行建模。最終我們得到用戶的行為表征,下游任務(wù)就可以使用基本的注意力模型進(jìn)行有更具指向性的決策。我們嘗試用同一種模型同時預(yù)測多種類型的用戶行為,使其達(dá)到多個單獨(dú)模型預(yù)測單類型行為的效果。另外,由于我們的方法中沒有使用RNN,CNN等方法,因此在提高效果的同時,該方法能夠有更快的訓(xùn)練速度。

研究背景

一個人是由其所表現(xiàn)出的行為所定義。而對用戶精準(zhǔn)、深入的研究也往往是很多商業(yè)問題的核心。從長期來看,隨著人們可被記錄的行為種類越來越多,平臺方需要有能力通過融合各類不同的用戶行為,更好的去理解用戶,從而提供更好的個性化服務(wù)。

對于阿里巴巴來說,以消費(fèi)者運(yùn)營為核心理念的全域營銷正是一個結(jié)合用戶全生態(tài)行為數(shù)據(jù)來幫助品牌實(shí)現(xiàn)新營銷的數(shù)據(jù)&技術(shù)驅(qū)動的解決方案。因此,對用戶行為的研究就成為了一個非常核心的問題。其中,很大的挑戰(zhàn)來自于能否對用戶的異構(gòu)行為數(shù)據(jù)進(jìn)行更精細(xì)的處理。

在這樣的背景下,本文提出一個通用的用戶表征框架,試圖融合不同類型的用戶行為序列,并以此框架在推薦任務(wù)中進(jìn)行了效果驗(yàn)證。另外,我們還通過多任務(wù)學(xué)習(xí)的方式,期望能夠利用該用戶表征實(shí)現(xiàn)不同的下游任務(wù)。

相關(guān)工作

異構(gòu)行為建模:通常通過手動特征工程來表示用戶特征。這些手工特征以聚合類特征或無時序的id特征集合為主。

單行為序列建模:用戶序列的建模通常會用RNN(LSTM/GRU)或者CNN + Pooling的方式。RNN難以并行,訓(xùn)練和預(yù)測時間較長,且LSTM中的Internal Memory無法記住特定的行為記錄。CNN也無法保留特定行為特征,且需要較深的層次來建立任意行為間的影響。

異構(gòu)數(shù)據(jù)表征學(xué)習(xí):參考知識圖譜和Multi-modal的表征研究工作,但通常都有非常明顯的映射監(jiān)督。而在我們的任務(wù)中,異構(gòu)的行為之間并沒有像image caption這種任務(wù)那樣明顯的映射關(guān)系。

本文的主要貢獻(xiàn)如下:

嘗試設(shè)計(jì)和實(shí)現(xiàn)了一種能夠融合用戶多種時序行為數(shù)據(jù)的方法,較為創(chuàng)新的想法在于提出了一種同時考慮異構(gòu)行為和時序的解決方案,并給出較為簡潔的實(shí)現(xiàn)方式。

使用類似Google的self-attention機(jī)制去除CNN、LSTM的限制,讓網(wǎng)絡(luò)訓(xùn)練和預(yù)測速度變快的同時,效果還可以略有提升。

此框架便于擴(kuò)展??梢栽试S更多不同類型的行為數(shù)據(jù)接入,同時提供多任務(wù)學(xué)習(xí)的機(jī)會,來彌補(bǔ)行為稀疏性。

ATRank方案介紹

基于注意力機(jī)制的用戶行為建??蚣芗捌湓谕扑]領(lǐng)域的應(yīng)用

整個用戶表征的框架包括原始特征層,語義映射層,Self-Attention層和目標(biāo)網(wǎng)絡(luò)。

語義映射層能讓不同的行為可以在不同的語義空間下進(jìn)行比較和相互作用。Self-Attention層讓單個的行為本身變成考慮到其他行為影響的記錄。目標(biāo)網(wǎng)絡(luò)則通過Vanilla Attention可以準(zhǔn)確的找到相關(guān)的用戶行為進(jìn)行預(yù)測任務(wù)。通過Time Encoding + Self Attention的思路,我們的實(shí)驗(yàn)表明其的確可以替代CNN/RNN來描述序列信息,能使模型的訓(xùn)練和預(yù)測速度更快。

1. 行為分組

某個用戶的行為序列可以用一個三元組來描述(動作類型,目標(biāo),時間)。我們先將用戶不同的行為按照目標(biāo)實(shí)體進(jìn)行分組,如圖中最下方不同顏色group。例如商品行為,優(yōu)惠券行為,關(guān)鍵字行為等等。動作類型可以是點(diǎn)擊/收藏/加購、領(lǐng)取/使用等等。

每個實(shí)體都有自己不同的屬性,包括實(shí)值特征和離散id類特征。動作類型是id類,我們也將時間離散化。三部分相加得到下一層的向量組。

即,某行為的編碼 = 自定義目標(biāo)編碼 + lookup(離散化時間) + lookup(動作類型)。

由于實(shí)體的信息量不同,因此每一組行為編碼的向量長度不一,其實(shí)也代表行為所含的信息量有所不同。另外,不同行為之間可能會共享一些參數(shù),例如店鋪id,類目id這類特征的lookup table,這樣做能減少一定的稀疏性,同時降低參數(shù)總量。

分組的主要目的除了說明起來比較方便,還與實(shí)現(xiàn)有關(guān)。因?yàn)樽冮L、異構(gòu)的處理很難高效的在不分組的情況下實(shí)現(xiàn)。并且在后面還可以看到我們的方法實(shí)際上并不強(qiáng)制依賴于行為按時間排序。

2. 語義空間映射

這一層通過將異構(gòu)行為線性映射到多個語義空間,來實(shí)現(xiàn)異構(gòu)行為之間的同語義交流。例如框架圖中想表達(dá)的空間是紅綠藍(lán)(RGB)構(gòu)成的原子語義空間,下面的復(fù)合色彩(不同類型的用戶行為)會投影到各個原子語義空間。在相同語義空間下,這些異構(gòu)行為的相同語義成分才有了可比性。

類似的思路其實(shí)也在knowledge graph representation里也有出現(xiàn)。而在NLP領(lǐng)域,今年也有一些研究表明多語義空間的attention機(jī)制可以提升效果。個人認(rèn)為的一點(diǎn)解釋是說,如果不分多語義空間,會發(fā)生所謂語義中和的問題。簡單的理解是,兩個不同種類的行為a,b可能只在某種領(lǐng)域上有相關(guān)性,然而當(dāng)attention score是一個全局的標(biāo)量時, a,b在不那么相關(guān)的領(lǐng)域上會增大互相影響,而在高度相關(guān)的領(lǐng)域上這種影響則會減弱。

盡管從實(shí)現(xiàn)的角度上來說,這一層就是所有行為編碼向一個統(tǒng)一的空間進(jìn)行映射,映射方法線性非線性都可以,但實(shí)際上,對于后面的網(wǎng)絡(luò)層來說,我們可以看作是將一個大的空間劃分為多語義空間,并在每個子空間里進(jìn)行self-attention操作。因此從解釋上來說,我們簡單的把這個映射直接描述成對多個子語義空間進(jìn)行投影。

3. Self Attention層

Self Attention層的目的實(shí)際上是想將用戶的每一個行為從一個客觀的表征,做成一個用戶記憶中的表征。客觀的表征是指,比如A,B做了同樣一件事,這個行為本身的表征可能是相同的。但這個行為在A,B的記憶中,可能強(qiáng)度、清晰度是完全不一樣的,這是因?yàn)锳,B的其他行為不同。實(shí)際上,觀察softmax函數(shù)可知,某種相似行為做的越多,他們的表征就越會被平均。而帶來不一樣體驗(yàn)的行為則會更容易保留自己的信息。因此self attention實(shí)際上模擬了一個行為被其他行為影響后的表征。

另外,Self Attention可以有多層??梢钥吹剑粚覵elf-Attention對應(yīng)著一階的行為影響。多層則會考慮多階的行為影響。這個網(wǎng)絡(luò)結(jié)構(gòu)借鑒的是google的self-attention框架。

具體計(jì)算方式如下:

記S是整個語義層拼接后的輸出,Sk是第k個語義空間上的投影,則經(jīng)過self-attention后第k個語義空間的表征計(jì)算公式為:

這里的attention function可以看做是一種bilinear的attention函數(shù)。最后的輸出則是這些空間向量拼接后再加入一個前饋網(wǎng)絡(luò)。

4. 目標(biāo)網(wǎng)絡(luò)

目標(biāo)網(wǎng)絡(luò)會隨著下游任務(wù)的不同而定制。本文所涉及的任務(wù)是用戶行為預(yù)測及推薦場景的點(diǎn)擊預(yù)測的任務(wù),采用的是point-wise的方式進(jìn)行訓(xùn)練和預(yù)測。

框架圖中灰色的bar代表待預(yù)測的任意種類的行為。我們將該行為也通過embedding、projection等轉(zhuǎn)換,然后和用戶表征產(chǎn)出的行為向量做vanilla attention。最后Attention向量和目標(biāo)向量將被送入一個Ranking Network。其他場景強(qiáng)相關(guān)的特征可以放在這里。這個網(wǎng)絡(luò)可以是任意的,可以是wide & deep,deep FM,pnn都行。我們在論文的實(shí)驗(yàn)中就是簡單的dnn。

離線實(shí)驗(yàn)

為了比較框架在單行為預(yù)測時的效果,我們在amazon購買行為的公開數(shù)據(jù)集上的實(shí)驗(yàn)。

訓(xùn)練收斂結(jié)果如下圖:

基于注意力機(jī)制的用戶行為建??蚣芗捌湓谕扑]領(lǐng)域的應(yīng)用

用戶平均AUC如下圖:

基于注意力機(jī)制的用戶行為建??蚣芗捌湓谕扑]領(lǐng)域的應(yīng)用

實(shí)驗(yàn)結(jié)論:在行為預(yù)測或推薦任務(wù)中,self-attention + time encoding也能較好的替代cnn+pooling或lstm的編碼方式。訓(xùn)練時間上能較cnn/lstm快4倍。效果上也能比其他方法略好一些。

Case Study

為了深究Self-Attention在多空間內(nèi)的意義,我們在amazon dataset上做了一個簡單的case study。如下圖:

從圖中我們可以看到,不同的空間所關(guān)注的重點(diǎn)很不一樣。例如空間I, II, III, VIII中每一行的attention分的趨勢類似。這可能是主要體現(xiàn)不同行為總體的影響。另一些空間,例如VII,高分attention趨向于形成稠密的正方形,我們可以看到這其實(shí)是因?yàn)檫@些商品屬于同樣的類目。

下圖則是vanilla attention在不同語義空間下的得分情況。

基于注意力機(jī)制的用戶行為建??蚣芗捌湓谕扑]領(lǐng)域的應(yīng)用

多任務(wù)學(xué)習(xí)

論文中,我們離線收集了阿里電商用戶對商品的購買點(diǎn)擊收藏加購、優(yōu)惠券領(lǐng)取、關(guān)鍵字搜索三種行為進(jìn)行訓(xùn)練,同樣的也對這三種不同的行為同時進(jìn)行預(yù)測。其中,用戶商品行為記錄是全網(wǎng)的,但最終要預(yù)測的商品點(diǎn)擊行為是店鋪內(nèi)某推薦場景的真實(shí)曝光、點(diǎn)擊記錄。優(yōu)惠券、關(guān)鍵字的訓(xùn)練和預(yù)測都是全網(wǎng)行為。

我們分別構(gòu)造了7種訓(xùn)練模式進(jìn)行對比。分別是單行為樣本預(yù)測同類行為(3種),全行為多模型預(yù)測單行為(3種),全行為單模型預(yù)測全行為(1種)。在最后一種實(shí)驗(yàn)設(shè)置下,我們將三種預(yù)測任務(wù)各自切成mini-batch,然后統(tǒng)一進(jìn)行shuffle并訓(xùn)練。

實(shí)驗(yàn)結(jié)果如下表:

基于注意力機(jī)制的用戶行為建??蚣芗捌湓谕扑]領(lǐng)域的應(yīng)用

all2one是三個模型分別預(yù)測三個任務(wù),all2all是單模型預(yù)測三個任務(wù),即三個任務(wù)共享所有參數(shù),而沒有各自獨(dú)占的部分。因此all2all與all2one相比稍低可以理解。我們訓(xùn)練多任務(wù)all2all時,將三種不同的預(yù)測任務(wù)各自batch后進(jìn)行充分隨機(jī)的shuffle。文中的多任務(wù)訓(xùn)練方式還是有很多可以提升的地方,前沿也出現(xiàn)了一些很好的可借鑒的方法,是我們目前正在嘗試的方向之一。

實(shí)驗(yàn)表明,我們的框架可以通過融入更多的行為數(shù)據(jù)來達(dá)到更好的推薦/行為預(yù)測的效果。

總結(jié)

本文提出一個通用的用戶表征框架,來融合不同類型的用戶行為序列,并在推薦任務(wù)中得到驗(yàn)證。

未來,我們希望能結(jié)合更多實(shí)際的商業(yè)場景和更豐富的數(shù)據(jù)沉淀出靈活、可擴(kuò)展的用戶表征體系,從而更好的理解用戶,提供更優(yōu)質(zhì)的個性化服務(wù),輸出更全面的數(shù)據(jù)能力。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 行為識別
    +關(guān)注

    關(guān)注

    0

    文章

    13

    瀏覽量

    2527

原文標(biāo)題:【AAAI oral】阿里北大提出新attention建??蚣埽粋€模型預(yù)測多種行為

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    DeepMind為視覺問題回答提出了一種新的硬注意力機(jī)制

    然而,基于梯度的學(xué)習(xí)框架(如深度學(xué)習(xí))中存在一個關(guān)鍵的缺點(diǎn):因?yàn)檫x擇要處理的信息的過程是離散化的,因此也就是不可微分的,所以梯度不能反向傳播到選擇機(jī)制中來支持基于梯度的優(yōu)化。目前研究人員正在努力來解決視覺
    的頭像 發(fā)表于 08-10 08:44 ?6263次閱讀

    淺談自然語言處理中的注意力機(jī)制

    本文深入淺出地介紹了近些年的自然語言中的注意力機(jī)制包括從起源、變體到評價指標(biāo)方面。
    的頭像 發(fā)表于 01-25 16:51 ?6443次閱讀
    淺談自然語言處理中的<b class='flag-5'>注意力</b><b class='flag-5'>機(jī)制</b>

    深度分析NLP中的注意力機(jī)制

    注意力機(jī)制越發(fā)頻繁的出現(xiàn)在文獻(xiàn)中,因此對注意力機(jī)制的學(xué)習(xí)、掌握與應(yīng)用顯得十分重要。本文便對注意力機(jī)制
    的頭像 發(fā)表于 02-17 09:18 ?3911次閱讀

    注意力機(jī)制的誕生、方法及幾種常見模型

    簡而言之,深度學(xué)習(xí)中的注意力機(jī)制可以被廣義地定義為一個描述重要性的權(quán)重向量:通過這個權(quán)重向量為了預(yù)測或者推斷一個元素,比如圖像中的某個像素或句子中的某個單詞,我們使用注意力向量定量地估計(jì)出目標(biāo)元素與其他元素之間具有多么強(qiáng)烈的相關(guān)
    的頭像 發(fā)表于 03-12 09:49 ?4.2w次閱讀

    基于注意力機(jī)制的深度興趣網(wǎng)絡(luò)點(diǎn)擊率模型

    和自適應(yīng)激活函數(shù),根據(jù)用戶歷史行為和給定廣告自適應(yīng)地學(xué)習(xí)用戶興趣。引人注意力機(jī)制,區(qū)分不同特征對預(yù)測結(jié)果的影響程度,從而增強(qiáng)模型的可解釋性。
    發(fā)表于 03-12 10:55 ?5次下載
    基于<b class='flag-5'>注意力</b><b class='flag-5'>機(jī)制</b>的深度興趣網(wǎng)絡(luò)點(diǎn)擊率模型

    基于注意力機(jī)制的深度學(xué)習(xí)模型AT-DPCNN

    情感分析是自然語言處理領(lǐng)域的一個重要分支,卷積神經(jīng)網(wǎng)絡(luò)(CNN)文本情感分析方面取得了較好的效果,但其未充分提取文本信息中的關(guān)鍵情感信息。為此,建立一種基于注意力機(jī)制的深度學(xué)習(xí)模型A
    發(fā)表于 03-17 09:53 ?12次下載
    基于<b class='flag-5'>注意力</b><b class='flag-5'>機(jī)制</b>的深度學(xué)習(xí)模型AT-DPCNN

    基于多層CNN和注意力機(jī)制的文本摘要模型

    基于注意力機(jī)制的編解碼模型文本摘要、杌器翻譯等序列到序列任務(wù)上得到了廣泛的應(yīng)用。深度學(xué)習(xí)框架中,深層神經(jīng)網(wǎng)絡(luò)能夠提取輸λ數(shù)據(jù)不冋的特征表
    發(fā)表于 04-07 11:35 ?2次下載
    基于多層CNN和<b class='flag-5'>注意力</b><b class='flag-5'>機(jī)制</b>的文本摘要模型

    結(jié)合注意力機(jī)制的跨域服裝檢索方法

    針對跨域服裝檢索中服裝商品圖像拍攝嚴(yán)格約束光照、背景等條件,而用戶圖像源自復(fù)雜多變的日常生活場景,難以避免背景干擾以及視角、姿態(tài)引起的服裝形變等問題。提出一種結(jié)合注意力機(jī)制的跨域服裝檢索方法。利用
    發(fā)表于 05-12 14:19 ?2次下載

    基于情感評分的分層注意力網(wǎng)絡(luò)框架

    編碼器分別對詞向量和句向量進(jìn)行編碼,并通過注意力機(jī)制加杈求和以獲得文檔的最終表示。設(shè)計(jì)輔助網(wǎng)絡(luò)對文本的詞、句進(jìn)行情感評分,利用該評分調(diào)整注意力權(quán)重分布。探究文本的情感信息對分類性能的
    發(fā)表于 05-14 11:02 ?5次下載

    基于注意力機(jī)制等的社交網(wǎng)絡(luò)熱度預(yù)測模型

    基于注意力機(jī)制等的社交網(wǎng)絡(luò)熱度預(yù)測模型
    發(fā)表于 06-07 15:12 ?14次下載

    基于多通道自注意力機(jī)制的電子病歷架構(gòu)

    基于多通道自注意力機(jī)制的電子病歷架構(gòu)
    發(fā)表于 06-24 16:19 ?75次下載

    基于注意力機(jī)制的跨域服裝檢索方法綜述

    基于注意力機(jī)制的跨域服裝檢索方法綜述
    發(fā)表于 06-27 10:33 ?2次下載

    基于注意力機(jī)制的新聞文本分類模型

    基于注意力機(jī)制的新聞文本分類模型
    發(fā)表于 06-27 15:32 ?30次下載

    計(jì)算機(jī)視覺中的注意力機(jī)制

    在自然語言處理、圖像識別及語音識別等各種不同類型的機(jī)器學(xué)習(xí)任務(wù)中。注意力機(jī)制本質(zhì)上與人類對外界事物的觀察機(jī)制相似。通常來說,人們觀察外界事物的時候,首先會比較關(guān)注比較傾向于觀察事物
    發(fā)表于 05-22 09:46 ?0次下載
    計(jì)算機(jī)視覺中的<b class='flag-5'>注意力</b><b class='flag-5'>機(jī)制</b>

    PyTorch教程11.4之Bahdanau注意力機(jī)制

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程11.4之Bahdanau注意力機(jī)制.pdf》資料免費(fèi)下載
    發(fā)表于 06-05 15:11 ?0次下載
    PyTorch教程11.4之Bahdanau<b class='flag-5'>注意力</b><b class='flag-5'>機(jī)制</b>