欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何使用BERT模型進(jìn)行抽取式摘要

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:NLP工作站 ? 作者:NLP工作站 ? 2022-03-12 16:41 ? 次閱讀

寫?在前面

最近在梳理文本摘要相關(guān)內(nèi)容,翻到一篇19年關(guān)于基于BERT模型進(jìn)行抽取式摘要的老文「BertSum」,在這里分享給大家。該論文一開(kāi)始掛在arXiv時(shí),為《Fine-tune BERT for Extractive Summarization》,主要介紹了如何使用BERT模型進(jìn)行抽取式(Extractive)摘要。
paper:https://arxiv.org/pdf/1903.10318.pdf
github:https://github.com/nlpyang/BertSum

后面,又發(fā)表于EMNLP2019,為《Text Summarization with Pretrained Encoders》,增加了生成式(抽象式,Abstractive)摘要部分,并對(duì)第一版論文進(jìn)行了部分內(nèi)容的補(bǔ)充與刪減。

paper:https://aclanthology.org/D19-1387.pdf
github:https://github.com/nlpyang/PreSumm

介紹

文本摘要任務(wù)主要分為抽象式摘要(abstractive summarization)和抽取式摘要(extractive summarization)。在抽象式摘要中,目標(biāo)摘要所包含的詞或短語(yǔ)會(huì)不在原文中,通常需要進(jìn)行文本重寫等操作進(jìn)行生成;而抽取式摘要,就是通過(guò)復(fù)制和重組文檔中最重要的內(nèi)容(一般為句子)來(lái)形成摘要。那么如何獲取并選擇文檔中重要句子,就是抽取式摘要的關(guān)鍵。

傳統(tǒng)抽取式摘要方法包括Lead-3和TextRank,傳統(tǒng)深度學(xué)習(xí)方法一般采用LSTM或GRU模型進(jìn)行重要句子的判斷與選擇,而本文采用預(yù)訓(xùn)練語(yǔ)言模型BERT進(jìn)行抽取式摘要。

模型結(jié)構(gòu)BertSum模型

結(jié)構(gòu)如下圖所示

主要由句子編碼層和摘要判斷層組成,其中,「句子編碼層」通過(guò)BERT模型獲取文檔中每個(gè)句子的句向量編碼,「摘要判斷層」通過(guò)三種不同的結(jié)構(gòu)進(jìn)行選擇判斷,為每個(gè)句子進(jìn)行打分,最終選取最優(yōu)的top-n個(gè)句子作為文檔摘要。

句子編碼層

由于BERT模型MLM預(yù)訓(xùn)練機(jī)制,使得其輸出向量為每個(gè)token的向量;即使分隔符可以區(qū)分輸入的不同句子,但是僅有兩個(gè)標(biāo)簽(句子A或句子B),與抽取式摘要需要分隔多個(gè)句子大不相同;因此對(duì)BERT模型的輸入進(jìn)行了修改,如下:

將文檔中的每個(gè)句子前后均插入[CLS]和[SEP]標(biāo)記,并將每個(gè)句子前的[CLS]標(biāo)記進(jìn)入模型后的輸出向量,作為該句子的句向量表征。例如:文檔為”我愛(ài)南京。我喜歡NLP。我學(xué)習(xí)摘要?!?,輸入序列為”[CLS]我愛(ài)南京。[SEP][CLS]我喜歡NLP。[SEP][CLS]我學(xué)習(xí)摘要。[SEP]“

采用Segment Embeddings區(qū)分文檔中的多個(gè)句子,將奇數(shù)句子和偶數(shù)句子的Segment Embeddings分別設(shè)置為和,例如:文檔為,那么Segment Embeddings為。

摘要判斷層

從句子編碼層獲取文檔中每個(gè)句子的句向量后,構(gòu)建了3種摘要判斷層,以通過(guò)獲取每個(gè)句子在文檔級(jí)特征下的重要性。對(duì)于每個(gè)句子,計(jì)算出最終的預(yù)測(cè)分?jǐn)?shù),模型的損失是相對(duì)于金標(biāo)簽的二元交叉熵。

Simple Classifier,僅在BERT輸出上添加一個(gè)線性全連接層,并使用一個(gè)sigmoid函數(shù)獲得預(yù)測(cè)分?jǐn)?shù),如下:

Transformer,在BERT輸出后增加額外的Transformer層,進(jìn)一步提取專注于摘要任務(wù)的文檔級(jí)特征,如下:

其中,為句子的句向量,,PosEmb函數(shù)為在句向量中增加位置信息函數(shù),MHAtt函數(shù)為多頭注意力函數(shù),為Transformer的層數(shù)。最后仍然接一個(gè)sigmoid函數(shù)的全連接層,

最終選擇為2。

LSTM,在BERT輸出增加額外的LSTM層,進(jìn)一步提取專注于摘要任務(wù)的文檔級(jí)特征,如下:

其中,分別為遺忘門、輸入門和輸出門;分別為隱藏向量、記憶向量和輸出向量;分別為不同的layer normalization操作。最后仍然接一個(gè)sigmoid函數(shù)的全連接層,

實(shí)驗(yàn)細(xì)節(jié)訓(xùn)練集構(gòu)建

由于目前文本摘要的數(shù)據(jù)大多為抽象式文本摘要數(shù)據(jù)集,不適合訓(xùn)練抽取摘要模型。論文利用貪心算法構(gòu)建每個(gè)文檔抽取式摘要對(duì)應(yīng)的句子集合,即通過(guò)算法貪婪地選擇能使ROUGE分?jǐn)?shù)最大化的句子集合。將選中的句子集合中的句子的標(biāo)簽設(shè)為1,其余的句子為0。

模型預(yù)測(cè)

在模型預(yù)測(cè)階段,將文檔按照句子進(jìn)行切分,采用BertSum模型獲取每個(gè)句子的得分,然后根據(jù)分?jǐn)?shù)從高到低對(duì)這些句子進(jìn)行排序,并選擇前3個(gè)句子作為摘要。

在句子選擇階段,采用Trigram Blocking機(jī)制來(lái)減少摘要的冗余,即對(duì)應(yīng)當(dāng)前已組成摘要S和侯選句子c,如果S和c直接存在tri-gram相同片段,則跳過(guò)句子c,也就是句子c不會(huì)增加在已組成摘要S中。

數(shù)據(jù)超出BERT限制

BERT模型由于最大長(zhǎng)度為512,而現(xiàn)實(shí)中文檔長(zhǎng)度常常會(huì)超出。在《Text Summarization with Pretrained Encoders》文中提到,在BERT模型中添加更多的位置嵌入來(lái)克服這個(gè)限制,并且位置嵌入是隨機(jī)初始化的,并在訓(xùn)練時(shí)與其他參數(shù)同時(shí)進(jìn)行微調(diào)。

實(shí)驗(yàn)結(jié)果主要對(duì)比了LEAD、REFRESH、NEUSUM、PGN以及DCA方法,較當(dāng)時(shí)方法,該論文效果確實(shí)不錯(cuò),如下表所示,

在三種摘要判斷層中,Transformer的效果最優(yōu)。并且進(jìn)行了進(jìn)一步的消融實(shí)驗(yàn),發(fā)現(xiàn)采用不同的Segment Embeddings會(huì)給結(jié)果帶來(lái)一些提升,但是Trigram Blocking機(jī)制更為關(guān)鍵,具體如下表所示。

總結(jié)個(gè)人認(rèn)為該論文是一篇較為經(jīng)典的BERT模型應(yīng)用論文,當(dāng)時(shí)2019年看的時(shí)候就進(jìn)行了嘗試,并且也將其用到了一些項(xiàng)目中。

放假ing,但是也要學(xué)習(xí)。

原文標(biāo)題:BertSum-基于BERT模型的抽取式文本摘要

文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

審核編輯:湯梓紅


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 結(jié)構(gòu)
    +關(guān)注

    關(guān)注

    1

    文章

    117

    瀏覽量

    21651
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4346

    瀏覽量

    62990
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3329

    瀏覽量

    49246

原文標(biāo)題:BertSum-基于BERT模型的抽取式文本摘要

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    自動(dòng)識(shí)別事件類別的中文事件抽取技術(shù)研究

    【作者】:許紅磊;陳錦秀;周昌樂(lè);林如琦;楊肖方;【來(lái)源】:《心智與計(jì)算》2010年01期【摘要】:本文提出一種新的中文事件抽取中自動(dòng)識(shí)別事件類別的模型,即:基于事件實(shí)例句子的分類模型
    發(fā)表于 04-24 09:55

    基于XML的WEB信息抽取模型設(shè)計(jì)

    對(duì)現(xiàn)有的信息抽取技術(shù)和XML 技術(shù)加以研究,在此基礎(chǔ)上提出了適合XML 的通用的web 信息抽取模型,它能夠把Web 上的數(shù)據(jù)抽取出來(lái)整合到指定模式的XML 文檔中去,最大限度地實(shí)現(xiàn)
    發(fā)表于 12-22 13:56 ?17次下載

    Google最強(qiáng)模型BERT出爐

    在不少人看來(lái),BERT 對(duì)自然語(yǔ)言處理的研究具有里程碑的意義。
    的頭像 發(fā)表于 10-27 10:37 ?5005次閱讀

    BERT模型的PyTorch實(shí)現(xiàn)

    BertModel是一個(gè)基本的BERT Transformer模型,包含一個(gè)summed token、位置和序列嵌入層,然后是一系列相同的self-attention blocks(BERT-base是12個(gè)blocks,
    的頭像 發(fā)表于 11-13 09:12 ?1.4w次閱讀

    簡(jiǎn)述基于神經(jīng)網(wǎng)絡(luò)的抽取摘要方法

    將文本摘要建模為序列標(biāo)注任務(wù)的關(guān)鍵在于獲得句子的表示,即將句子編碼為一個(gè)向量,根據(jù)該向量進(jìn)行二分類任務(wù),例如 AAAI17 中,Nallapati 等人[10]的工作,使用雙向 GRU 分別建模詞語(yǔ)
    的頭像 發(fā)表于 04-01 10:23 ?7839次閱讀
    簡(jiǎn)述基于神經(jīng)網(wǎng)絡(luò)的<b class='flag-5'>抽取</b><b class='flag-5'>式</b><b class='flag-5'>摘要</b>方法

    XLNet和Bert比,有什么不同?要進(jìn)行改進(jìn)嗎?

    本文首先講講我對(duì)XLNet和Bert比,有什么異同?有什么模型方面的改進(jìn)?的理解
    的頭像 發(fā)表于 07-26 14:39 ?5193次閱讀
    XLNet和<b class='flag-5'>Bert</b>比,有什么不同?要<b class='flag-5'>進(jìn)行</b>改進(jìn)嗎?

    圖解BERT預(yù)訓(xùn)練模型!

    BERT的發(fā)布是這個(gè)領(lǐng)域發(fā)展的最新的里程碑之一,這個(gè)事件標(biāo)志著NLP 新時(shí)代的開(kāi)始。BERT模型打破了基于語(yǔ)言處理的任務(wù)的幾個(gè)記錄。在 BERT 的論文發(fā)布后不久,這個(gè)團(tuán)隊(duì)還公開(kāi)了
    的頭像 發(fā)表于 11-24 10:08 ?3740次閱讀

    模型NLP事件抽取方法總結(jié)

    (Survey) 模型(Models) 數(shù)據(jù)集(Datasets) 挑戰(zhàn)與展望(Future Research Challenges) 事件抽取 2020 1、 Reading the Manual
    的頭像 發(fā)表于 12-31 10:19 ?1w次閱讀
    <b class='flag-5'>模型</b>NLP事件<b class='flag-5'>抽取</b>方法總結(jié)

    NLP:關(guān)系抽取到底在乎什么

    關(guān)系抽取到底在乎什么?這是來(lái)自EMNLP20上清華大學(xué)劉知遠(yuǎn)團(tuán)隊(duì)的“靈魂發(fā)問(wèn)”~ 關(guān)系抽取是每一位NLPer都很熟知的任務(wù),特別是基于BERT的神經(jīng)關(guān)系抽取
    的頭像 發(fā)表于 01-07 14:46 ?5756次閱讀

    融合BERT詞向量與TextRank的關(guān)鍵詞抽取方法

    結(jié)合文檔本身的結(jié)構(gòu)信息與外部詞語(yǔ)的語(yǔ)義信息,提出一種融合BERT詞向量與 Textrank的關(guān)鍵詞抽取方法。在基于網(wǎng)絡(luò)圖的 Textrank方法基礎(chǔ)上,引入語(yǔ)義差異性并利用BERT詞向量加權(quán)方式優(yōu)化
    發(fā)表于 03-21 09:55 ?18次下載
    融合<b class='flag-5'>BERT</b>詞向量與TextRank的關(guān)鍵詞<b class='flag-5'>抽取</b>方法

    抽取摘要方法中如何合理設(shè)置抽取單元?

    的核心問(wèn)題。抽取摘要則是文本摘要技術(shù)中效果穩(wěn)定,實(shí)現(xiàn)簡(jiǎn)單的一類方法,本文結(jié)合COLING 2020中抽取
    的頭像 發(fā)表于 05-03 18:23 ?1685次閱讀
    <b class='flag-5'>抽取</b><b class='flag-5'>式</b><b class='flag-5'>摘要</b>方法中如何合理設(shè)置<b class='flag-5'>抽取</b>單元?

    基于BERT+Bo-LSTM+Attention的病歷短文分類模型

    中醫(yī)逐漸成為熱點(diǎn),中醫(yī)病歷文本中包含著巨大而寶貴的醫(yī)療信息。而在中醫(yī)病歷文本挖掘和利用方面,一直面臨中醫(yī)病歷文本利用率低、抽取有效信息并對(duì)信息文本進(jìn)行分類的難度大的問(wèn)題。針對(duì)這一問(wèn)題,研究一種對(duì)中醫(yī)
    發(fā)表于 04-26 14:30 ?13次下載
    基于<b class='flag-5'>BERT</b>+Bo-LSTM+Attention的病歷短文分類<b class='flag-5'>模型</b>

    基于BERT的中文科技NLP預(yù)訓(xùn)練模型

    深度學(xué)習(xí)模型應(yīng)用于自然語(yǔ)言處理任務(wù)時(shí)依賴大型、高質(zhì)量的人工標(biāo)注數(shù)據(jù)集。為降低深度學(xué)習(xí)模型對(duì)大型數(shù)據(jù)集的依賴,提出一種基于BERT的中文科技自然語(yǔ)言處理預(yù)訓(xùn)練模型 ALICE。通過(guò)對(duì)遮罩
    發(fā)表于 05-07 10:08 ?14次下載

    基于Zero-Shot的多語(yǔ)言抽取文本摘要模型

    抽取文本摘要目前在英文上已經(jīng)取得了很好的性能,這主要得益于大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型和豐富的標(biāo)注語(yǔ)料。但是對(duì)于其他小語(yǔ)種語(yǔ)言,目前很難得到大規(guī)模的標(biāo)注數(shù)據(jù)。
    的頭像 發(fā)表于 07-08 10:49 ?1582次閱讀

    Instruct-UIE:信息抽取統(tǒng)一大模型

    Instruct-UIE 統(tǒng)一了信息抽取任務(wù)訓(xùn)練方法,可以融合不同類型任務(wù)以及不同的標(biāo)注規(guī)范,統(tǒng)一進(jìn)行訓(xùn)練。針對(duì)新的任務(wù)需求,僅需要少量的數(shù)據(jù)進(jìn)行增量學(xué)習(xí),即可完成
    的頭像 發(fā)表于 04-25 10:46 ?1811次閱讀
    Instruct-UIE:信息<b class='flag-5'>抽取</b>統(tǒng)一大<b class='flag-5'>模型</b>