欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

戴維斯分校提出實(shí)時(shí)分割框架YOLACT突破速度邊界

nlfO_thejiangme ? 來源:lp ? 2019-05-01 14:31 ? 次閱讀

深度學(xué)習(xí)計(jì)算機(jī)視覺領(lǐng)域取得了巨大成功,在分類、檢測(cè)甚至跟蹤任務(wù)上都有了巨大的進(jìn)步,可以產(chǎn)生實(shí)時(shí)的高質(zhì)量預(yù)測(cè),但高速的實(shí)例分割的發(fā)展卻落后于目標(biāo)檢測(cè)的進(jìn)步。在目標(biāo)檢測(cè)領(lǐng)域,我們已經(jīng)擁有了高效的SSD和YOLO,但實(shí)例分割領(lǐng)域?qū)τ谀P捅憩F(xiàn)更多的重視、使得網(wǎng)絡(luò)的速度進(jìn)展緩慢。

SSD和YOLO的加速主要通過移除Faster R-CNN這類網(wǎng)絡(luò)的第二個(gè)階段,通過單階段來提升速度,并通過其他的手段來彌補(bǔ)精度的下降。但實(shí)例分割的難度遠(yuǎn)大于目標(biāo)檢測(cè),這樣的方法不能簡(jiǎn)單的拓展到實(shí)例分割中。先進(jìn)的實(shí)例分割算法強(qiáng)烈依賴于特征的定位來預(yù)測(cè)mask,通過將特定區(qū)域的特征進(jìn)行“池化”后輸入到mask預(yù)測(cè)器中,這種串行的運(yùn)行的方法難以加速。雖然也有像FCIS等單階段的方法,但他們卻需要較為復(fù)雜的后處理操作,難以保證實(shí)時(shí)性。

為了解決這個(gè)問題、提高實(shí)例分割的速度,研究人員提出了一種快速、單階段的實(shí)例分割模型YOLACT,在單個(gè)Titan Xp上實(shí)現(xiàn)了30幀以上的實(shí)例分割速度,并在MS COCO上實(shí)現(xiàn)了約30mAP的表現(xiàn)。這種方法拋棄了先前方法中的定位步驟,將實(shí)例分割分為了兩個(gè)并行的任務(wù):一方面在整幅圖像上生成一系列mask原型,另一方面為每個(gè)實(shí)例預(yù)測(cè)出一系列線性疊加系數(shù)。隨后對(duì)于圖中的每個(gè)實(shí)例,基于線性疊加系數(shù)對(duì)原型mask進(jìn)行組合并利用預(yù)測(cè)框進(jìn)行剪切實(shí)現(xiàn)最后的實(shí)例輸出。在此過程中,網(wǎng)絡(luò)學(xué)會(huì)了如何定位不同位置、顏色和語義實(shí)例的mask。

此外,由于mask原型的預(yù)測(cè)不依賴于類別的數(shù)量,這一模型學(xué)習(xí)到如何組合mask原型的表示可以被所用類別所共享。這種表示的學(xué)習(xí)使得原型空間可以表示圖像中不同的位置、定位實(shí)例、檢測(cè)邊緣和編碼位置敏感信息,并對(duì)這些結(jié)果進(jìn)行有效組合。

YOLACT通過并行的計(jì)算架構(gòu)和輕量化的組合過程加速了實(shí)例分割的過程,在單階段檢測(cè)基礎(chǔ)網(wǎng)絡(luò)上僅僅添加了少量的計(jì)算,使得它可以輕松達(dá)到30fps。

YOLACT預(yù)測(cè)的mask由于充分利用了圖像空間的信息,不受特征池化的影響,對(duì)于大物體預(yù)測(cè)有著明顯的提升。而這種基于mask原型和mask系數(shù)的思想可以移植到很多先進(jìn)的目標(biāo)檢測(cè)架構(gòu)上,實(shí)現(xiàn)快速精確的實(shí)例分割。

具體實(shí)現(xiàn)

先前的實(shí)例分割主要在提升精度上下功夫,Mask-RCNN是兩階段方法的代表,而單階段的方法主要基于位置敏感圖池化來實(shí)現(xiàn)實(shí)例分割,這些計(jì)算極大的限制了模型運(yùn)行的速度。而目前的實(shí)時(shí)實(shí)例分割方法要么在精度上無法與先進(jìn)的實(shí)例分割方法比擬,要么所面對(duì)的分割情形較為簡(jiǎn)單。

在這篇文章的工作中,研究人員通過在現(xiàn)有的單階段目標(biāo)檢測(cè)網(wǎng)絡(luò)上加上mask預(yù)測(cè)分支,但去除了精確的定位步驟(eg feature repooling)。在模型中一個(gè)分支利用FCN來產(chǎn)生一系列不依賴與實(shí)例的原型mask,第二個(gè)分支則是在目標(biāo)檢測(cè)模塊后加上了預(yù)測(cè)mask系數(shù)的結(jié)構(gòu)(每個(gè) anchor),用于編碼實(shí)例在原型空間中的表示。

研究人員首先利用FCN實(shí)現(xiàn)了對(duì)于原型mask的預(yù)測(cè)。在基礎(chǔ)網(wǎng)絡(luò)特征層后添加了輸出為k通道的Protonet,它將生成k個(gè)獨(dú)立的mask原型。為了保證生成原型mask的穩(wěn)定,研究人員選用了基礎(chǔ)網(wǎng)絡(luò)中更深層的特征圖,這還有益于提高原型mask的分辨率,對(duì)于提高mask的質(zhì)量和小物體的效果有著重要的作用。

對(duì)于mask系數(shù)的預(yù)測(cè),研究人員對(duì)現(xiàn)有的單階段目標(biāo)檢測(cè)網(wǎng)絡(luò)進(jìn)行了改造,為每個(gè)anchor添加了k個(gè)預(yù)測(cè),并利用tanh對(duì)k個(gè)系數(shù)進(jìn)行操作提高穩(wěn)定性。

最后對(duì)生成的mask原型和系數(shù)進(jìn)行線性組合即可得到最終的mask。

值得一提的是,研究人員還在這一工作中實(shí)現(xiàn)了一種快速非極大值抑制方法Fast NMS,比傳統(tǒng)的方法提高了11-16ms的速度。通過基于GPU實(shí)現(xiàn)的批量排序算法和IoU計(jì)算實(shí)現(xiàn)了加速,并利用矩陣運(yùn)算和閾值找到每類需要保留的檢測(cè)結(jié)果。最后,研究人員還使用了語義分割損失在訓(xùn)練中補(bǔ)償FastNMS帶來的下降(0.1-0.3mAP),通過在基礎(chǔ)網(wǎng)絡(luò)P3上添加1*1卷積,和sigmoid激活實(shí)現(xiàn)了0.4mAP的提升。

下表顯示了YOLACT在不同基礎(chǔ)網(wǎng)絡(luò)與輸入圖像尺寸上的表現(xiàn),可以看到在保持較高mAP時(shí)實(shí)現(xiàn)了較快的速度。

FastNMS算法只會(huì)造成算法表現(xiàn)輕微的下降,但在速度上有較大的提升:

讓我們?cè)賮韲^一下網(wǎng)絡(luò)的表現(xiàn),對(duì)于重疊的物體表現(xiàn)依舊優(yōu)異:

目前這一代碼已經(jīng)開源,可以在下面的地址中找到:code:https://github.com/dbolya/yolact它基于Pytorch 1.0.1實(shí)現(xiàn),并依賴于一些額外的python包:

# Cython needs to be installed before pycocotoolspip install cython opencv-python pillow pycocotools matplotlib

直接將代碼下載到本地即可開始調(diào)試:

git clone https://github.com/dbolya/yolact.gitcd yolact

現(xiàn)在就可以開始進(jìn)行訓(xùn)練或者測(cè)試了,當(dāng)然測(cè)試之前需要先下載coco數(shù)據(jù)集

# Train setsh data/scripts/COCO.sh# Test setsh data/scripts/COCO.sh

# Display qualitative results on the specified image.python eval.py --trained_model=weights/yolact_base_54_800000.pth --score_threshold=0.3 --top_k=100 --image=my_image.png# Display qualitative results on the specified image.python eval.py --trained_model=weights/yolact_base_54_800000.pth --score_threshold=0.3 --top_k=100 --image=input_image.png:output_image.png# Process a whole folder of images.python eval.py --trained_model=weights/yolact_base_54_800000.pth --score_threshold=0.3 --top_k=100 --images=path/to/input/folder:path/to/output/folder

愉快的開始分割吧!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1089

    瀏覽量

    40593
  • 計(jì)算機(jī)視覺
    +關(guān)注

    關(guān)注

    8

    文章

    1701

    瀏覽量

    46154
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5519

    瀏覽量

    121613

原文標(biāo)題:實(shí)例分割太慢怎么破?戴維斯分校提出實(shí)時(shí)分割框架YOLACT突破速度邊界

文章出處:【微信號(hào):thejiangmen,微信公眾號(hào):將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    一種基于音調(diào)的語音/音樂實(shí)時(shí)分類算法

    【作者】:吳順妹;許麗凈;許洪光;張欽宇;【來源】:《電聲技術(shù)》2010年02期【摘要】:語音/音樂的實(shí)時(shí)分類,在語音/音樂通用編碼器中是尤其重要的。分析了語音和音樂的區(qū)別性特征,提出了一種利用音調(diào)
    發(fā)表于 04-23 11:13

    通過任務(wù)分割提高嵌入式系統(tǒng)的實(shí)時(shí)

    分析長(zhǎng)任務(wù)對(duì)嵌入式系統(tǒng)實(shí)時(shí)性的影響,在此基礎(chǔ)上提出任務(wù)分割是提高嵌入式系統(tǒng)實(shí)時(shí)性的一種有效途徑; 總結(jié)長(zhǎng)任務(wù)分割的方法, 給出一個(gè)通過任務(wù)
    發(fā)表于 05-15 15:07 ?4次下載

    圖像分割和圖像邊緣檢測(cè)

     圖像分割的研究多年來一直受到人們的高度重視,至今提出了各種類型的分割算法。Pal把圖像分割算法分成了6類:閾值分割,像素
    發(fā)表于 12-19 09:29 ?1.1w次閱讀
    圖像<b class='flag-5'>分割</b>和圖像邊緣檢測(cè)

    加州大學(xué)戴維分校利用RFID跟蹤蜂鳥活動(dòng)

    由加州大學(xué)戴維分校獸醫(yī)學(xué)院和該大學(xué)的疾病動(dòng)力學(xué)中心進(jìn)行的這項(xiàng)研究,并不是第一個(gè)使用RFID跟蹤蜂鳥的研究,加州大學(xué)戴維
    的頭像 發(fā)表于 02-11 14:01 ?2320次閱讀

    如何進(jìn)行面向農(nóng)業(yè)應(yīng)用的無人機(jī)遙感影像地塊邊界提取資料說明

    針對(duì)無人機(jī)(UAV)影像農(nóng)田 場(chǎng)景地塊邊界提取過程中由于大幅面、高分辨率和地塊尺寸 大小不一致等帶來的過分割問題,提出了一種基于多尺度分割的地塊邊界
    發(fā)表于 03-28 16:21 ?8次下載
    如何進(jìn)行面向農(nóng)業(yè)應(yīng)用的無人機(jī)遙感影像地塊<b class='flag-5'>邊界</b>提取資料說明

    高通財(cái)務(wù)長(zhǎng)戴維宣布離職 將轉(zhuǎn)任英特爾財(cái)務(wù)長(zhǎng)

    芯片大廠高通和英特爾周二表示,高通財(cái)務(wù)長(zhǎng)戴維(George Davis)已離職,將轉(zhuǎn)任英特爾財(cái)務(wù)長(zhǎng)。
    的頭像 發(fā)表于 04-03 17:32 ?2915次閱讀

    算法 | 超Mask RCNN速度4倍,僅在單個(gè)GPU訓(xùn)練的實(shí)時(shí)實(shí)例分割算法

    YOLACT——Real-time Instance Segmentation提出了一種簡(jiǎn)潔的實(shí)時(shí)實(shí)例分割全卷積模型,速度明顯優(yōu)于以往已有的
    的頭像 發(fā)表于 06-11 10:34 ?7340次閱讀

    使用無人機(jī)進(jìn)行農(nóng)業(yè)邊界提取的遙感影像說明

    針對(duì)無人機(jī)( UAV)影像農(nóng)田場(chǎng)景地塊邊界提取過程中由于大幅面、高分辨率和地塊尺寸大小不一致等帶來的過分割問題,提出了一種基于多尺度分割的地塊邊界
    發(fā)表于 10-24 16:18 ?4次下載

    如何使用無人機(jī)遙感影像地塊邊界提取應(yīng)用在農(nóng)業(yè)方面詳細(xì)資料概述

    針對(duì)無人機(jī)影像農(nóng)田場(chǎng)景地塊邊界提取過程中由于大幅面、高分辨率和地塊尺寸大小不一致等帶來的過分割問題,提出了一種基于多尺度分割的地塊邊界自動(dòng)化
    發(fā)表于 07-13 17:09 ?19次下載
    如何使用無人機(jī)遙感影像地塊<b class='flag-5'>邊界</b>提取應(yīng)用在農(nóng)業(yè)方面詳細(xì)資料概述

    詳解ENet:CPU可以實(shí)時(shí)的道路分割網(wǎng)絡(luò)

    OpenCV DNN模塊支持的圖像語義分割網(wǎng)絡(luò)FCN是基于VGG16作為基礎(chǔ)網(wǎng)絡(luò),運(yùn)行速度很慢,無法做到實(shí)時(shí)語義分割。2016年提出的ENe
    的頭像 發(fā)表于 12-15 00:18 ?757次閱讀

    基于遙感數(shù)據(jù)的海島邊界快速分割模型

    基于遙感數(shù)據(jù)的海島邊界快速分割模型
    發(fā)表于 06-11 15:32 ?4次下載

    用于弱監(jiān)督大規(guī)模點(diǎn)云語義分割的混合對(duì)比正則化框架

    為了解決大規(guī)模點(diǎn)云語義分割中的巨大標(biāo)記成本,我們提出了一種新的弱監(jiān)督環(huán)境下的混合對(duì)比正則化(HybridCR)框架,該框架與全監(jiān)督的框架相比
    的頭像 發(fā)表于 09-05 14:38 ?1435次閱讀

    中科院提出FastSAM快速分割一切模型!比Meta原版提速50倍!

    通過將分割?切任務(wù)重新劃分為全實(shí)例分割和提?指導(dǎo)選擇兩個(gè)?任務(wù),?帶實(shí)例分割分?的常規(guī) CNN 檢測(cè)器以?出50倍的運(yùn)?速度實(shí)現(xiàn)了與SAM?法相當(dāng)?shù)男阅?,?個(gè)
    的頭像 發(fā)表于 06-28 14:33 ?1812次閱讀
    中科院<b class='flag-5'>提出</b>FastSAM快速<b class='flag-5'>分割</b>一切模型!比Meta原版提速50倍!

    賽道清晰,紅利兌現(xiàn),AI有望實(shí)現(xiàn)戴維雙擊.zip

    賽道清晰,紅利兌現(xiàn),AI有望實(shí)現(xiàn)戴維雙擊
    發(fā)表于 01-13 09:07 ?1次下載

    戴維正弦發(fā)生器應(yīng)用說明

    電子發(fā)燒友網(wǎng)站提供《戴維正弦發(fā)生器應(yīng)用說明.pdf》資料免費(fèi)下載
    發(fā)表于 09-10 09:39 ?0次下載
    <b class='flag-5'>戴維</b><b class='flag-5'>斯</b>正弦發(fā)生器應(yīng)用說明