欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于BERT算法搭建一個問答搜索引擎

科技綠洲 ? 來源:Python實用寶典 ? 作者:Python實用寶典 ? 2023-10-30 11:46 ? 次閱讀

鼎鼎大名的 Bert 算法相信大部分同學(xué)都聽說過,它是Google推出的NLP領(lǐng)域“王炸級”預(yù)訓(xùn)練模型,其在NLP任務(wù)中刷新了多項記錄,并取得state of the art的成績。

但是有很多深度學(xué)習(xí)的新手發(fā)現(xiàn)BERT模型并不好搭建,上手難度很高,普通人可能要研究幾天才能勉強搭建出一個模型。

沒關(guān)系,今天我們介紹的這個模塊,能讓你在3分鐘內(nèi)基于BERT算法搭建一個問答索引擎。它就是 bert-as-service 項目。這個開源項目,能夠讓你基于多GPU機器快速搭建BERT服務(wù)(支持微調(diào)模型),并且能夠讓多個客戶端并發(fā)使用。

1.準備

開始之前,你要確保Pythonpip已經(jīng)成功安裝在電腦上,如果沒有,可以訪問這篇文章:超詳細Python安裝指南 進行安裝。

**(可選1) **如果你用Python的目的是數(shù)據(jù)分析,可以直接安裝Anaconda:Python數(shù)據(jù)分析與挖掘好幫手—Anaconda,它內(nèi)置了Python和pip.

**(可選2) **此外,推薦大家用VSCode編輯器,它有許多的優(yōu)點:Python 編程的最好搭檔—VSCode 詳細指南。

請選擇以下任一種方式輸入命令安裝依賴

  1. Windows 環(huán)境 打開 Cmd (開始-運行-CMD)。
  2. MacOS 環(huán)境 打開 Terminal (command+空格輸入Terminal)。
  3. 如果你用的是 VSCode編輯器 或 Pycharm,可以直接使用界面下方的Terminal.
pip install bert-serving-server # 服務(wù)端
pip install bert-serving-client # 客戶端

請注意,服務(wù)端的版本要求: Python >= 3.5 ,Tensorflow >= 1.10

此外還要下載預(yù)訓(xùn)練好的BERT模型,在 https://github.com/hanxiao/bert-as-service#install 上可以下載。

也可在Python實用寶典后臺回復(fù) bert-as-service 下載這些預(yù)訓(xùn)練好的模型。

下載完成后,將 zip 文件解壓到某個文件夾中,例如 /tmp/english_L-12_H-768_A-12/

2.Bert-as-service 基本使用

安裝完成后,輸入以下命令啟動BERT服務(wù):

bert-serving-start -model_dir /tmp/english_L-12_H-768_A-12/ -num_worker=4

-num_worker=4 代表這將啟動一個有四個worker的服務(wù),意味著它最多可以處理四個并發(fā)請求。超過4個其他并發(fā)請求將在負載均衡器中排隊等待處理。

下面顯示了正確啟動時服務(wù)器的樣子:

圖片

使用客戶端獲取語句的編碼

現(xiàn)在你可以簡單地對句子進行編碼,如下所示:

from bert_serving.client import BertClient
bc = BertClient()
bc.encode(['First do it', 'then do it right', 'then do it better'])

作為 BERT 的一個特性,你可以通過將它們與 |||(前后有空格)連接來獲得一對句子的編碼,例如

bc.encode(['First do it ||| then do it right'])

圖片

遠程使用 BERT 服務(wù)

你還可以在一臺 (GPU) 機器上啟動服務(wù)并從另一臺 (CPU) 機器上調(diào)用它,如下所示:

# on another CPU machine
from bert_serving.client import BertClient
bc = BertClient(ip='xx.xx.xx.xx') # ip address of the GPU machine
bc.encode(['First do it', 'then do it right', 'then do it better'])

3.搭建問答搜索引擎

我們將通過 bert-as-service 從FAQ 列表中找到與用戶輸入的問題最相似的問題,并返回相應(yīng)的答案。

FAQ列表你也可以在 Python實用寶典后臺回復(fù) bert-as-service 下載。

首先,加載所有問題,并顯示統(tǒng)計數(shù)據(jù):

prefix_q = '##### **Q:** '
with open('README.md') as fp:
    questions = [v.replace(prefix_q, '').strip() for v in fp if v.strip() and v.startswith(prefix_q)]
    print('%d questions loaded, avg. len of %d' % (len(questions), np.mean([len(d.split()) for d in questions])))
    # 33 questions loaded, avg. len of 9

一共有33個問題被加載,平均長度是9.

然后使用預(yù)訓(xùn)練好的模型:uncased_L-12_H-768_A-12 啟動一個Bert服務(wù):

bert-serving-start -num_worker=1 -model_dir=/data/cips/data/lab/data/model/uncased_L-12_H-768_A-12

接下來,將我們的問題編碼為向量:

bc = BertClient(port=4000, port_out=4001)
doc_vecs = bc.encode(questions)

最后,我們準備好接收用戶的查詢,并對現(xiàn)有問題執(zhí)行簡單的“模糊”搜索。

為此,每次有新查詢到來時,我們將其編碼為向量并計算其點積 ** doc_vecs **然后對結(jié)果進行降序排序,返回前N個類似的問題:

while True:
    query = input('your question: ')
    query_vec = bc.encode([query])[0]
    # compute normalized dot product as score
    score = np.sum(query_vec * doc_vecs, axis=1) / np.linalg.norm(doc_vecs, axis=1)
    topk_idx = np.argsort(score)[::-1][:topk]
    for idx in topk_idx:
        print(' > %st%s' % (score[idx], questions[idx]))

完成! 現(xiàn)在運行代碼并輸入你的查詢,看看這個搜索引擎如何處理模糊匹配:

圖片

完整代碼如下,一共23行代碼(在后臺回復(fù)關(guān)鍵詞也能下載):

上滑查看完整代碼

import numpyas np
from bert_serving.clientimport BertClient
from termcolorimport colored

prefix_q ='##### **Q:** '
topk =5

with open('README.md')as fp:
questions = [v.replace(prefix_q,'').strip()for vin fpif v.strip()and v.startswith(prefix_q)]
print('%d questions loaded, avg. len of %d' % (len(questions), np.mean([len(d.split())for din questions])))

with BertClient(port=4000, port_out=4001)as bc:
doc_vecs = bc.encode(questions)

while True:
query = input(colored('your question: ','green'))
query_vec = bc.encode([query])[0]
# compute normalized dot product as score
score = np.sum(query_vec * doc_vecs, axis=1) / np.linalg.norm(doc_vecs, axis=1)
topk_idx = np.argsort(score)[::-1][:topk]
print('top %d questions similar to "%s"' % (topk, colored(query,'green')))
for idxin topk_idx:
print(' > %st%s' % (colored('%.1f' % score[idx],'cyan'), colored(questions[idx],'yellow')))

夠簡單吧?當(dāng)然,這是一個基于預(yù)訓(xùn)練的Bert模型制造的一個簡單QA搜索模型。

你還可以微調(diào)模型,讓這個模型整體表現(xiàn)地更完美,你可以將自己的數(shù)據(jù)放到某個目錄下,然后執(zhí)行 run_classifier.py 對模型進行微調(diào),比如這個例子:

https://github.com/google-research/bert#sentence-and-sentence-pair-classification-tasks

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4787

    瀏覽量

    129415
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4631

    瀏覽量

    93423
  • 搜索引擎
    +關(guān)注

    關(guān)注

    0

    文章

    119

    瀏覽量

    13397
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3342

    瀏覽量

    49270
收藏 人收藏

    評論

    相關(guān)推薦

    [分享]最強山寨版搜索引擎震驚世界-熊熊搜索

    。在記者嘗試著搜索關(guān)鍵詞后,集合了多個搜索引擎的組合頁面出現(xiàn)在屏幕上。界面上不僅詳細列出
    發(fā)表于 11-22 18:58

    參加搜索引擎營銷SEM培訓(xùn)的好處?

    參加搜索引擎營銷SEM培訓(xùn)進入搜索引擎行業(yè),跟隨各大搜索引擎起成長;4. 可以通過校友會認識大量業(yè)界專家和從業(yè)者,為日后的職業(yè)發(fā)展廣聚人脈資源;北京鼎泰恒業(yè)網(wǎng)絡(luò)營銷培訓(xùn)學(xué)校010-5
    發(fā)表于 04-11 14:21

    基于網(wǎng)格技術(shù)的并行搜索引擎

    研究現(xiàn)有網(wǎng)格技術(shù)和搜索技術(shù),分析并行搜索引擎的優(yōu)點和不足,提出基于網(wǎng)格技術(shù)的并行搜索引擎解決方案,其中包含3 層結(jié)構(gòu)的應(yīng)用框架和
    發(fā)表于 03-30 10:09 ?23次下載

    搜索引擎查詢?nèi)罩镜木垲?/a>

    隨著搜索引擎技術(shù)和網(wǎng)絡(luò)數(shù)據(jù)挖掘技術(shù)的發(fā)展,怎樣從搜索引擎查詢?nèi)罩局姓业接杏玫男畔⒊蔀檠芯繜狳c。該文在討論Beeferman提出的算法及Chan對其改進的算法的優(yōu)缺點后,提出
    發(fā)表于 04-02 08:49 ?27次下載

    原創(chuàng)優(yōu)先的搜索引擎排序算法

    現(xiàn)有的搜索引擎排序算法大多根據(jù)網(wǎng)頁之間的鏈接關(guān)系進行排序,沒有考慮原創(chuàng)和轉(zhuǎn)載文章之間的優(yōu)先次序。該文提出種適用于專業(yè)搜索引擎的新型排序算法
    發(fā)表于 04-16 08:43 ?20次下載

    教育網(wǎng)BBS搜索引擎設(shè)計與實現(xiàn)

    BBS 是教育網(wǎng)的大特色,也是傳統(tǒng)搜索引擎搜索的盲點,本文系統(tǒng)介紹了根據(jù)教育網(wǎng)BBS 的特點建立BBS 搜索引擎的關(guān)鍵技術(shù)和實現(xiàn)方法。關(guān)鍵詞:搜索
    發(fā)表于 06-17 11:28 ?14次下載

    主題搜索引擎的研究

    介紹了將開源的全文檢索工具包Lucene嵌入到自己的搜索引擎中來滿足開發(fā)主題搜索引擎的需求。并基于Lucene中文分詞的不足設(shè)計了比較完善的中文分詞器,然后將其引入具體應(yīng)
    發(fā)表于 07-05 16:30 ?11次下載

    網(wǎng)絡(luò)搜索引擎,網(wǎng)絡(luò)搜索引擎的工作原理

    網(wǎng)絡(luò)搜索引擎,網(wǎng)絡(luò)搜索引擎的工作原理 21 世紀是信息時代,隨著信息科學(xué)技術(shù)的不斷發(fā)展,網(wǎng)絡(luò)已成為人們生活中的重要組成部分,網(wǎng)上
    發(fā)表于 03-26 15:51 ?1476次閱讀

    基于JAVA技術(shù)的搜索引擎的研究與實現(xiàn)

    本文還利用Java技術(shù)對搜索引擎的三核心部分即網(wǎng)絡(luò)蜘蛛、網(wǎng)頁索引、搜索進行了實現(xiàn)。索引搜索
    發(fā)表于 05-07 14:14 ?35次下載
    基于JAVA技術(shù)的<b class='flag-5'>搜索引擎</b>的研究與實現(xiàn)

    大規(guī)模超文本網(wǎng)絡(luò)搜索引擎剖析(英文版)

    大規(guī)模超文本網(wǎng)絡(luò)搜索引擎剖析(英文版)
    發(fā)表于 04-30 14:09 ?0次下載

    垂直搜索引擎是什么_垂直搜索引擎有哪些

    垂直搜索引擎是針對某一個行業(yè)的專業(yè)搜索引擎,是搜索引擎的細分和延伸,是對網(wǎng)頁庫中的某類專門的信息進行次整合,定向分字段抽取出需要的數(shù)據(jù)進行
    發(fā)表于 01-04 17:19 ?7969次閱讀

    Valossa推出由AI算法驅(qū)動的智能電影搜索引擎

    whatismymovie.com可以通過關(guān)鍵詞或描述搜索相應(yīng)的電影,但它不是普通網(wǎng)站,而是由AI
    的頭像 發(fā)表于 02-09 10:04 ?7998次閱讀

    介紹五具有高級功能的搜索引擎

    數(shù)據(jù)庫里存儲的大量的信息對標準的搜索引擎來說是不可見的,標準的搜索引擎只是索引網(wǎng)站上的內(nèi)容,從鏈接到另
    的頭像 發(fā)表于 04-04 09:13 ?7215次閱讀

    蘋果自研的搜索引擎干的過谷歌嗎?

    據(jù)TNW報道,蘋果正在加快研發(fā)自己的搜索引擎,以取代谷歌。推出自己的搜索引擎,將有利于蘋果的產(chǎn)品服務(wù)的推廣,同時削弱谷歌在搜索領(lǐng)域的壟斷地位。
    的頭像 發(fā)表于 12-22 14:54 ?1988次閱讀

    NAS下搭建linux命令搜索引擎教程

    前面寫到了程序?qū)S玫膙scode,今天再來介紹款程序佬專用的搜索引擎——Linux命令搜索引擎。該引擎專用于搜索Linux下的各種命令,畢
    的頭像 發(fā)表于 02-24 11:33 ?1163次閱讀
    NAS下<b class='flag-5'>搭建</b>linux命令<b class='flag-5'>搜索引擎</b>教程