欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NLP中基于聯(lián)合知識的任務(wù)導(dǎo)向型對話系統(tǒng)HyKnow

深度學(xué)習(xí)自然語言處理 ? 來源:復(fù)旦DISC ? 作者:趙剛 ? 2021-09-08 10:43 ? 次閱讀

引言

對話系統(tǒng)(dialogue system)是 NLP 中的的重點研究方向之一。其可以分為任務(wù)型對話系統(tǒng)和開放域?qū)υ捪到y(tǒng)。兩者在現(xiàn)實生活中都有著廣泛的應(yīng)用。

本次 Fudan DISC 實驗室將分享 ACL 2021 中關(guān)于對話系統(tǒng)的 3 篇論文,介紹了任務(wù)型對話系統(tǒng)和基于人設(shè)的開放域?qū)υ捪到y(tǒng)的相關(guān)創(chuàng)新。

文章概覽

HyKnow: End to End Task-Oriented Dialog Modeling with Hybrid

論文地址:https://arxiv.org/pdf/2105.06041v2.pdf

這篇文章提出了一個基于聯(lián)合知識的任務(wù)導(dǎo)向型對話系統(tǒng)HyKnow,該模型通過延伸信念狀態(tài)來管理結(jié)構(gòu)化知識和非結(jié)構(gòu)化知識,它是第一個基于兩類知識進(jìn)行聯(lián)合優(yōu)化的端到端對話系統(tǒng)。實驗證明,HyKnow 模型展現(xiàn)了優(yōu)于現(xiàn)有模型的強(qiáng)大的端到端性能。其更加出色的非結(jié)構(gòu)化知識檢索準(zhǔn)確率,也證明了模型勝于管道知識管理策略的聯(lián)合知識管理能力。

BoB: BERT Over BERT for Training Persona-based Dialogue Models

論文地址:https://arxiv.org/pdf/2106.06169.pdf

當(dāng)前對話數(shù)據(jù)的人設(shè)稀疏性,阻礙了魯棒且一致的基于人設(shè)的對話系統(tǒng)的構(gòu)建。本文提出了 BoB 模型,通過將基于人設(shè)的對話生成任務(wù)分離為一致性理解子任務(wù)和回應(yīng)生成子任務(wù),利用非對話關(guān)系數(shù)據(jù)集訓(xùn)練一致性,解決了上述困難。模型在少量訓(xùn)練數(shù)據(jù)和人設(shè)稀疏的數(shù)據(jù)集上均展現(xiàn)了出色的性能。

Modulating Language Models with Emotions

論文地址:https://aclanthology.org/2021.findings-acl.379.pdf

針對情感對話生成任務(wù),本文受 CV 領(lǐng)域相關(guān)技術(shù)的啟發(fā),在Transformer 模型的層歸一化模塊中融入了情感信息,使得能夠利用大規(guī)模的預(yù)訓(xùn)練的語言模型來生成情感回應(yīng)。

論文細(xì)節(jié)

論文動機(jī)

現(xiàn)有的基于人設(shè)的對話模型嚴(yán)重依賴和人設(shè)相關(guān)的對話數(shù)據(jù),比如 PersonaChat 數(shù)據(jù)集。這類眾包數(shù)據(jù)集包含了大量的人設(shè)特征,但是其規(guī)模受到兩個因素的制約:其一,標(biāo)注者根據(jù)給定的人設(shè)來設(shè)計一致的對話會消耗大量精力;其二,日常生活中的對話常常不具備鮮明的人設(shè)特征,因此很難獲得現(xiàn)有的涉及豐富人設(shè)的對話。所以,在這類人設(shè)稀疏的對話數(shù)據(jù)集上訓(xùn)練的模型不能充分地學(xué)習(xí)一致性。

一個合格的基于人設(shè)的對話模型應(yīng)當(dāng)具備以下功能:一是能夠理解“人設(shè)-回應(yīng)”的一致性,二是能夠根據(jù)對話上下文生成人設(shè)相關(guān)的回應(yīng)。顯然,當(dāng)下缺乏合適的數(shù)據(jù)集支持這些功能的實現(xiàn)。然而,一旦將基于人設(shè)的對話生成任務(wù)分解為一致性理解子任務(wù)和對話生成子任務(wù),就很容易得到大量的訓(xùn)練資源。對于一致性理解子任務(wù),可以利用大規(guī)模的非對話關(guān)系數(shù)據(jù)集,比如 SNLI 和 MNLI 作為訓(xùn)練數(shù)據(jù)。至于對話生成子任務(wù),我們已經(jīng)有了充足的大規(guī)模人設(shè)稀疏的數(shù)據(jù)集。

模型

文章提出的模型主要分為三個模塊,包括一個編碼器(),一個用于回應(yīng)生成的解碼器()和一個一致性理解解碼器()。模型框架如下圖所示

編碼器

編碼器的輸入包括人設(shè) P 和上下文 Q,對于人設(shè),只需將人設(shè)句子簡單地拼接即可。模型將一個 special token 放在人設(shè)序列和對話上下文之間,得到編碼器的輸入

接著嵌入層將輸入轉(zhuǎn)化為表示,這種表示是詞嵌入,類型嵌入和位置嵌入的和,其中在類型嵌入中,用 0 和 1 分別表示人設(shè)和上下文。用和代表人設(shè)和上下文獨立的表示,用代表和的聯(lián)合表示,即

其中表示輸入的最大長度。

然后編碼器對做多頭注意力,將其轉(zhuǎn)化為隱向量的序列,

即其中,MultiHead是帶有的全連接層,是編碼器的最終輸出,即。

回應(yīng)生成解碼器

一個交叉注意力被植入在和之間,其中來自的最后一層,且和均來自:

包含多個相同的層,每一層的輸出都會作為下一層的輸入,最終輸出被送往。這里的是模型產(chǎn)生的粗糙回應(yīng),其不一定和人設(shè)保持一致,一致性學(xué)習(xí)和調(diào)整將會在一致性理解解碼器模塊上進(jìn)行。

一致性理解解碼器

利用進(jìn)行初始化。在的每一層中,多頭注意力被執(zhí)行兩次

以上得到的結(jié)果融合了人設(shè)信息和 粗糙回應(yīng)。最后一層的輸出連接一個線性層即可得到模型生成的最終回應(yīng)。

訓(xùn)練目標(biāo)

模型針對文本生成子任務(wù)采用了負(fù)對數(shù)損失,針對一致性理解采用了非似然損失。

回應(yīng)生成

模型在和上分別生成粗糙和精確的回應(yīng),兩者的負(fù)對數(shù)損失可以表示為

非似然訓(xùn)練

在一致性理解模塊的訓(xùn)練中,模型主要利用非對話的關(guān)系數(shù)據(jù)集。對于一個樣本,將 premise 和 hypothesis 輸入解碼器中。如果兩者關(guān)系是 entailment,則應(yīng)當(dāng)促進(jìn)這種生成,那么訓(xùn)練目標(biāo)是最大化這類輸出的概率;如果兩者關(guān)系是 contradiction,則應(yīng)當(dāng)抑制這種生成,那么訓(xùn)練目標(biāo)是最小化這類輸出的概率。經(jīng)過上述訓(xùn)練模式,一致性理解模塊可以隱式地判斷人設(shè)和粗糙回應(yīng)的關(guān)系,并傾向于產(chǎn)生一種和人設(shè)保持一致的回應(yīng)。具體而言,將關(guān)系數(shù)據(jù)集劃分為兩類,一類是關(guān)系為 entailment 的樣本組成的子集,另一類是關(guān)系為 contradiction 的樣本組成的子集。在和上的損失可以表示為(記 premise 和 hypothesis 為,)

生成損失和一致性理解損失可以表示為

總損失可以表示為

其中和是超參數(shù)。

實驗

本文為了驗證 BoB 在人設(shè)稀疏的數(shù)據(jù)集上依然能夠保持優(yōu)秀的性能,挑選了兩個數(shù)據(jù)集 PersonaChat 和 PersonaDialog,前者包含了充足的人設(shè)信息,后者人設(shè)信息較少。本文在兩個數(shù)據(jù)集上分別進(jìn)行實驗?;€模型選擇了包括 GPT-2 在內(nèi)的預(yù)訓(xùn)練模型和一些非預(yù)訓(xùn)練模型。評價指標(biāo)包括人工評價和自動評價,人工評價主要評估模型生成的流利度,信息量和相關(guān)性;自動評價中,利用困惑度評價回應(yīng)的內(nèi)容質(zhì)量,利用 Dist 評價回應(yīng)的多樣性,利用 C.Score 和來評價回應(yīng)和人設(shè)的一致性。在人設(shè)密集的 PersonaChat 數(shù)據(jù)集上實驗,得到如下結(jié)果

實驗證明,在各項評價指標(biāo)上,BoB 都超過了基線模型。同時當(dāng)數(shù)據(jù)量減少為 1/2,1/4,1/8 時,模型依然展現(xiàn)出比肩基線模型的強(qiáng)大性能,證明了 BoB 模型的優(yōu)越性。

在人設(shè)稀疏的 PersonaDialog數(shù)據(jù)集上實驗,得到如下結(jié)果

我們發(fā)現(xiàn),即使在人設(shè)信息不足的情況下,BoB 依然能夠產(chǎn)生和人設(shè)高度一致的回應(yīng),這得益于一致性理解模塊的訓(xùn)練脫離了有限的人設(shè)對話數(shù)據(jù),轉(zhuǎn)而依賴大量的非對話關(guān)系數(shù)據(jù)。因此,一致性的學(xué)習(xí)不受人設(shè)信息多少的影響。這也是 BoB 最核心的創(chuàng)新點!

2

論文動機(jī)

近幾年,任務(wù)型對話系統(tǒng)在達(dá)成用戶目的方面已經(jīng)收獲了不錯的效果。大部分這樣的對話系統(tǒng)基于用戶需求查詢結(jié)構(gòu)化知識,比如表格和數(shù)據(jù)庫等,并利用查詢到的結(jié)果引導(dǎo)系統(tǒng)回應(yīng)的生成。然而,現(xiàn)實生活中的對話常常涉及到非結(jié)構(gòu)化的知識,比如餐廳的廣告,用戶用餐反饋等等。這些出現(xiàn)在非結(jié)構(gòu)化知識中的信息通常無法在結(jié)構(gòu)化知識中查詢得到。但是現(xiàn)有的任務(wù)型對話系統(tǒng)缺乏利用非結(jié)構(gòu)化知識的能力,這樣的缺陷可能導(dǎo)致對話進(jìn)程的終端,造成追蹤用戶需求和生成系統(tǒng)回應(yīng)的困難。

針對以上問題,本文考慮在任務(wù)型對話系統(tǒng)中結(jié)合不同形式的領(lǐng)域知識,構(gòu)建了一個同時基于結(jié)構(gòu)化知識和非結(jié)構(gòu)化知識的對話系統(tǒng) HyKnow。在基于結(jié)構(gòu)化知識的對話輪中,系統(tǒng)需要用三元組來跟蹤用戶需求,以此查詢數(shù)據(jù)庫條目,最后利用查詢結(jié)果生成回應(yīng);在基于非結(jié)構(gòu)化知識的對話輪中,模型管理文檔庫來檢索相關(guān)信息來做回應(yīng)的生成。

模型

下圖給出了模型 HyKnow 的框架。模型總共分為三個部分:第一,模型使用拓展信念追蹤(extended belief tracking)來追蹤用戶需求;第二,模型基于拓展信念狀態(tài)(extended belief state)來搜索和用戶需求相關(guān)的結(jié)構(gòu)化知識和非結(jié)構(gòu)化知識;最后,模型利用拓展信念狀態(tài)和相關(guān)知識來生成系統(tǒng)回應(yīng)。

信念狀態(tài)

信念狀態(tài)有著特定的格式。信念狀態(tài)均由以上形式的三元組構(gòu)成,每個三元組表示用戶的某個需求,以(restaurant, food, Italian)為例,該三元組表示用戶需要了解餐飲領(lǐng)域關(guān)于意式食物的訊息。所謂拓展信念狀態(tài),就是隨著對話輪的進(jìn)行,用戶需求的更新,信念狀態(tài)中添加了一些表示用戶新需求的三元組,我們將這樣的三元組集合記為,其中表示第輪對話。除此之外,信念狀態(tài)中也會包含關(guān)于用戶需求的話題,記作。注意到,和在解碼時所用到的詞表是不同的??!

拓展信念狀態(tài)解碼

遵循 Seq2Seq 框架,首先利用上下文編碼器來編碼對話上下文,其中的最后一維輸出用來初始化解碼器的隱層?;谏舷挛木幋a器的隱狀態(tài)和上一輪對話的拓展信念狀態(tài),接著解碼本輪對話的拓展信念狀態(tài),具體可以采用兩種方案。

因為和基于的詞表是不同的,所以用兩種方法實現(xiàn)的解碼:

第一,利用一個信念狀態(tài)解碼器來生成整個,優(yōu)化過程是聯(lián)合的,即

第二,對和用各自的解碼器分別解碼,兩個解碼器的參數(shù)是不共享的,優(yōu)化過程是非聯(lián)合的,即

知識查詢

基于拓展信念狀態(tài),模型查詢數(shù)據(jù)庫得到,檢索文檔庫得到相關(guān)文檔,兩者用來引導(dǎo)系統(tǒng)生成。在數(shù)據(jù)庫的查詢中,只需要用三元組匹配條目即可。在文檔庫的檢索中,只需預(yù)處理文檔庫,提取每個文檔的話題,和三元組的相關(guān)內(nèi)容匹配即可。

回應(yīng)生成

基于上下文,拓展信念狀態(tài)和查詢結(jié)果,生成回應(yīng)由以下公式給出

其中和表示信念狀態(tài)編碼器和文檔編碼器。

實驗

本文選擇了修改的 MultiWOZ 2.1 數(shù)據(jù)集,并將 HyKnow 模型和以下幾類基線模型相比較:一、現(xiàn)有的端到端任務(wù)型對話模型(E2E TOD)和對話狀態(tài)跟蹤模型(DST),以證明結(jié)合非結(jié)構(gòu)化知識的好處;二、非結(jié)構(gòu)化知識管理模型,以證明 HyKnow 檢索非結(jié)構(gòu)化知識方法的優(yōu)越性;三、上述兩者的結(jié)合,以證明 HyKnow 不僅強(qiáng)大在同時結(jié)合了結(jié)構(gòu)化知識和非結(jié)構(gòu)化知識,而且知識的管理,組織和查詢方式以及兩類知識的融合方式都是非常優(yōu)秀的。實驗結(jié)果如下圖所示

實驗表明,HyKnow 在各項性能指標(biāo)上都超過了基線模型,包括用戶需求的完成度,知識查詢準(zhǔn)確率等等。除此之外,實驗證明,當(dāng)模型采用聯(lián)合優(yōu)化的時候,表現(xiàn)會更高,這說明兩類知識的模塊在共享參數(shù)時能夠彼此促進(jìn)。

3

論文動機(jī)

當(dāng)前對話系統(tǒng)領(lǐng)域的一個重要任務(wù)是基于情感產(chǎn)生合適的回應(yīng)。關(guān)于這個任務(wù),研究者提出了一些經(jīng)典的模型,比如 Seq2Seq 模型的變體,變分自編碼器,對抗網(wǎng)絡(luò)等等,不過這些模型生成的回應(yīng)通常較為枯燥乏味,可能是帶有情感標(biāo)簽的數(shù)據(jù)量有限的緣故。最近的研究提出了預(yù)訓(xùn)練模型來解決這類問題,比如 GPT-2 等等。不過,從頭訓(xùn)練一個預(yù)訓(xùn)練模型成本太高,并且收集用于預(yù)訓(xùn)練的包含豐富情感的對話數(shù)據(jù)非常困難。

針對上述困難,本文提出了一個簡單且易于部署的技術(shù),使得大規(guī)模的預(yù)訓(xùn)練模型能夠產(chǎn)生細(xì)粒度的情感回應(yīng)。首先,利用 emoji 表情作為情感標(biāo)簽;其次,在 Transformer 塊的每個層歸一化模塊中引入情感 emoji,使得在每次做層歸一化的時候模型都能向著目標(biāo)情感進(jìn)行自我調(diào)整,這種方法簡單而自然,且易于推廣。

方法

模型的創(chuàng)新主要集中在對 Transformer 模型的層歸一化的改造,我們稱經(jīng)過改造的層歸一化模塊為 Mod-LN。具體操作如下:對于輸入層歸一化模塊的隱狀態(tài)向量 x,,按照如下方式進(jìn)行歸一化

其中是磨光參數(shù),以避免分母為 0。和是兩個可訓(xùn)練的模塊,運行機(jī)制如下

其中和是屬于層的全連接層,表示情感標(biāo)簽的表示向量,表示偏置,表示激活函數(shù)。模型結(jié)構(gòu)如下圖所示

實驗

本文在 MojiTalk 數(shù)據(jù)集上進(jìn)行實驗,其中有 64 個細(xì)粒度的情感 emoji?;€模型選取 R-CVAE。本文分別在 BERT-to-BERT,GPT2-to-GPT2 上利用 Mod-LN,和基線模型相比較,以證明添加的 Mod-LN 的優(yōu)越性。關(guān)于情感分析性能,作者對模型生成的回應(yīng)用情感分類器預(yù)測情感,將其和正確情感比較,從而得到模型的情感預(yù)測準(zhǔn)確率,準(zhǔn)確率越高,情感分析質(zhì)量越高。除此之外,采用人工評價的方式,評估回應(yīng)的情感性和可讀性。以上兩個評價方面的結(jié)果如下表所示

實驗證明,添加了 Mod-LN 的模型不僅在各項性能指標(biāo)上超過了基線模型,而且在有限數(shù)據(jù)集上依然表現(xiàn)尚佳。這是因為,將目標(biāo)情感滲透到每個層歸一化模塊中,每個 Transformer 中,使得模型總是頻繁地向著目標(biāo)情感的方向進(jìn)行自我調(diào)整。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 解碼器
    +關(guān)注

    關(guān)注

    9

    文章

    1152

    瀏覽量

    40960
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    489

    瀏覽量

    22119

原文標(biāo)題:ACL2021 | 任務(wù)型和開放域?qū)υ捪到y(tǒng)

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    結(jié)合NLU在面向任務(wù)對話系統(tǒng)的具體應(yīng)用進(jìn)行介紹

    對面向任務(wù)對話系統(tǒng)來說,NLU模塊的主要任務(wù)是將用戶輸入的自然語言映射為用戶的意圖和相應(yīng)的槽位值。因此,在面向任務(wù)
    的頭像 發(fā)表于 03-21 09:31 ?5431次閱讀
    結(jié)合NLU在面向<b class='flag-5'>任務(wù)</b>的<b class='flag-5'>對話</b><b class='flag-5'>系統(tǒng)</b><b class='flag-5'>中</b>的具體應(yīng)用進(jìn)行介紹

    專欄 | 深度學(xué)習(xí)在NLP的運用?從分詞、詞性到機(jī)器翻譯、對話系統(tǒng)

    從分詞、詞性等基礎(chǔ)模塊,到機(jī)器翻譯、知識問答等領(lǐng)域,本文列舉并分析一些深度學(xué)習(xí)在 NLP 領(lǐng)域的具體運用,希望對大家研究深度學(xué)習(xí)和 NLP 有所幫助。
    的頭像 發(fā)表于 08-18 17:06 ?7600次閱讀
    專欄 | 深度學(xué)習(xí)在<b class='flag-5'>NLP</b><b class='flag-5'>中</b>的運用?從分詞、詞性到機(jī)器翻譯、<b class='flag-5'>對話</b><b class='flag-5'>系統(tǒng)</b>

    OpenAI介紹可擴(kuò)展的,與任務(wù)無關(guān)的的自然語言處理(NLP系統(tǒng)

    近日,OpenAI 在其官方博客發(fā)文介紹了他們最新的自然語言處理(NLP系統(tǒng)。這個系統(tǒng)是可擴(kuò)展的、與任務(wù)無關(guān)的,并且在一系列不同的 NLP
    的頭像 發(fā)表于 06-17 22:20 ?3915次閱讀
    OpenAI介紹可擴(kuò)展的,與<b class='flag-5'>任務(wù)</b>無關(guān)的的自然語言處理(<b class='flag-5'>NLP</b>)<b class='flag-5'>系統(tǒng)</b>

    四大維度講述了一個較為完整的智能任務(wù)對話全景

    這是一個非常典型的任務(wù)對話,它滿足兩個條件,第一,它有一個明確的目標(biāo);第二,它通過多輪對話交互來達(dá)成這個目標(biāo)。像這樣的任務(wù)
    的頭像 發(fā)表于 02-04 09:20 ?7178次閱讀
    四大維度講述了一個較為完整的智能<b class='flag-5'>任務(wù)</b><b class='flag-5'>型</b><b class='flag-5'>對話</b>全景

    NLP的深度學(xué)習(xí)技術(shù)概述

    該項目是對基于深度學(xué)習(xí)的自然語言處理(NLP)的概述,包括用來解決不同 NLP 任務(wù)和應(yīng)用的深度學(xué)習(xí)模型(如循環(huán)神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)和強(qiáng)化學(xué)習(xí))的理論介紹和實現(xiàn)細(xì)節(jié),以及對 NLP
    的頭像 發(fā)表于 03-01 09:13 ?4883次閱讀
    <b class='flag-5'>NLP</b><b class='flag-5'>中</b>的深度學(xué)習(xí)技術(shù)概述

    強(qiáng)化學(xué)習(xí)應(yīng)用對話系統(tǒng)的用戶模擬器

    近幾年來,強(qiáng)化學(xué)習(xí)在任務(wù)導(dǎo)向對話系統(tǒng)得到了廣泛的應(yīng)用,
    發(fā)表于 08-06 14:16 ?2076次閱讀

    如何利用機(jī)器學(xué)習(xí)思想,更好地去解決NLP分類任務(wù)

    NLP分類任務(wù)我們每個NLPer都異常熟悉了,其在整個NLP業(yè)務(wù)占據(jù)著舉足輕重的地位,更多領(lǐng)域的子任務(wù)也常常轉(zhuǎn)化為一個分類
    的頭像 發(fā)表于 08-28 10:02 ?2339次閱讀
    如何利用機(jī)器學(xué)習(xí)思想,更好地去解決<b class='flag-5'>NLP</b>分類<b class='flag-5'>任務(wù)</b>

    對話系統(tǒng)最原始的實現(xiàn)方式 檢索式對話

    對話系統(tǒng)可以說是NLP領(lǐng)域目前已知最扎實的落地場景了,整個流程都脫離不了NLP的核心作用,而且整個流程涉及NLP的大量
    的頭像 發(fā)表于 09-25 17:08 ?2398次閱讀
    <b class='flag-5'>對話</b><b class='flag-5'>系統(tǒng)</b>最原始的實現(xiàn)方式   檢索式<b class='flag-5'>對話</b>

    口語語言理解在任務(wù)對話系統(tǒng)的探討

    1.1 研究背景與任務(wù)定義 口語語言理解在任務(wù)對話系統(tǒng)扮演了一個非常重要的角色,其目的是識別
    的頭像 發(fā)表于 03-31 17:48 ?2501次閱讀
    口語語言理解在<b class='flag-5'>任務(wù)</b><b class='flag-5'>型</b><b class='flag-5'>對話</b><b class='flag-5'>系統(tǒng)</b><b class='flag-5'>中</b>的探討

    知識圖譜是NLP的未來嗎?

    我的看法:知識圖譜不是NLP的未來,因為知識圖譜是另外一種與NLP有很多交集的技術(shù)。在目前所有已知的發(fā)展方向,
    的頭像 發(fā)表于 04-15 14:36 ?3746次閱讀
    <b class='flag-5'>知識</b>圖譜是<b class='flag-5'>NLP</b>的未來嗎?

    通過NVIDIA DLI課程學(xué)習(xí)NLP對話人工智能

      Riva 語音 API 服務(wù)器公開了一個用于執(zhí)行語音識別、語音合成和各種 NLP 推斷的簡單 API 。在本課程,開發(fā)人員使用 Python 示例從 Riva 示例客戶機(jī)運行其中幾個 API
    的頭像 發(fā)表于 04-11 09:32 ?2818次閱讀

    基于知識對話生成任務(wù)

    基于知識對話生成任務(wù)(Knowledge-Grounded Dialogue Generation,KGD)是當(dāng)前對話系統(tǒng)的研究熱點,這個
    的頭像 發(fā)表于 09-05 09:54 ?1736次閱讀

    多語言任務(wù)在內(nèi)的多種NLP任務(wù)實現(xiàn)

    WeLM是一個百億級別的中文模型,能夠在零樣本以及少樣本的情境下完成包括對話-采訪、閱讀理解、翻譯、改寫、續(xù)寫、多語言閱讀理解在內(nèi)的多種NLP任務(wù),并具備記憶能力、自我糾正和檢查能力。
    發(fā)表于 10-13 11:52 ?671次閱讀

    基于主觀知識任務(wù)對話建模

    我們參加了 DSTC11-track5 并在所有 14 個參賽隊伍排名第三(客觀指標(biāo)),其中 Turn Detection 子任務(wù)排名第一。本文將介紹 track 5 相關(guān)內(nèi)容以及我們在競賽嘗試的方法。
    的頭像 發(fā)表于 10-31 16:48 ?532次閱讀
    基于主觀<b class='flag-5'>知識</b>的<b class='flag-5'>任務(wù)</b><b class='flag-5'>型</b><b class='flag-5'>對話</b>建模

    nlp自然語言處理的主要任務(wù)及技術(shù)方法

    的應(yīng)用,如搜索引擎、機(jī)器翻譯、語音識別、情感分析等。 NLP的主要任務(wù) NLP的主要任務(wù)可以分為以下幾個方面: 1.1 詞法分析(Lexical Analysis) 詞法分析是
    的頭像 發(fā)表于 07-09 10:26 ?1325次閱讀