欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

以人為主體目標(biāo)的圖像理解與編輯任務(wù)

5b9O_deeplearni ? 來源:未知 ? 作者:李倩 ? 2018-05-10 16:29 ? 次閱讀

通過對視野內(nèi)景物位置關(guān)系的描寫,一幅登高遠(yuǎn)眺的秋色美景圖宛在眼前。而在計算機(jī)視覺領(lǐng)域,這幾句詩其實(shí)體現(xiàn)了場景內(nèi)物體之間的關(guān)系,對于場景理解的重要性。

今天,來自中科院信息工程研究所的劉偲副研究員,將從生成對抗網(wǎng)絡(luò)(GAN)講起,講述如何通過對場景內(nèi)物體及物體之間關(guān)系的梳理,讓機(jī)器“析毫剖厘”,以實(shí)現(xiàn)對場景的理解以及對圖像的編輯。

圖像理解與編輯涉及兩方面的內(nèi)容:首先獲取圖像中蘊(yùn)含的豐富信息,然后按照需求對圖像進(jìn)行編輯。下圖展示了圖像理解問題的具體示例,對于某個場景,我們提取圖像中的背景,如墻壁、桌椅等物體的信息,也可以解析圖像中的重要元素——人,即對人的身體、服飾等部件進(jìn)行分類、分割,進(jìn)一步的還可對人臉進(jìn)行解析,定位頭發(fā)、五官等部位。圖像理解與編輯具有廣泛的應(yīng)用場景,比如自動駕駛、娛樂產(chǎn)品、視頻監(jiān)控和增強(qiáng)現(xiàn)實(shí)等方面。

本文將主要介紹以人為主體目標(biāo)的圖像理解與編輯任務(wù)。首先介紹人臉編輯。在圖像編輯方面,生成對抗網(wǎng)絡(luò)(GAN)發(fā)揮著重要的作用,所以這里首先介紹一下GAN的基本原理以及當(dāng)前的主要發(fā)展方向。GAN由Ian Goodfellow在2014年提出,采用了兩個網(wǎng)絡(luò)相互對抗的訓(xùn)練模式,已成為生成模型中里程碑式的工作。GAN包含生成網(wǎng)絡(luò)G和判別網(wǎng)絡(luò)D,G生成數(shù)據(jù),D判斷數(shù)據(jù)是否來自真實(shí)的數(shù)據(jù)。在訓(xùn)練時,G盡可能生成的數(shù)據(jù)迷惑D,而D盡可能區(qū)分出數(shù)據(jù)是否來自真實(shí)的分布,通過這種對抗式學(xué)習(xí),模型最終能夠生成非常真實(shí)的圖片。這一工作也得到了Yann Lecun的高度評價,被其稱為近十年來機(jī)器學(xué)習(xí)領(lǐng)域中最有趣的想法之一。

從2014年GAN的提出,實(shí)現(xiàn)了從噪聲生成圖片功能后,生成對抗網(wǎng)絡(luò)的研究方向越來越多。原始的GAN只是從隨機(jī)噪聲生成圖像,缺少對生成圖片的控制,所以緊隨其后就有研究者提出了Conditional Generative Adversarial Nets。其通過改變輸入條件,可以控制圖片的生成結(jié)果。同時,以DCGAN為代表的一系列工作探索了適用于GAN的網(wǎng)絡(luò)結(jié)構(gòu)。也有研究者為了解決模式坍塌等問題,提出了更多的網(wǎng)絡(luò)形式進(jìn)行對抗學(xué)習(xí)的研究,如GMAN。 修正GAN的對抗損失函數(shù)的工作也在一直進(jìn)行中,WGAN是其中非常引人矚目的工作。此外,要擬合真實(shí)數(shù)據(jù)背后的分布度量,常常需要對D網(wǎng)絡(luò)進(jìn)行正則化, SN-GAN提出的譜歸一化是其中的代表性工作,其可在IMAGENET數(shù)據(jù)庫上訓(xùn)練成功,生成1000類的圖像。最后,提高大圖像的生成質(zhì)量也是GAN的一個重點(diǎn)的研究方向。英偉達(dá)提出的PG-GAN即是這樣的工作,可以生成1024x1024的高清真實(shí)圖像。

總而言之,GAN由最開始的隨機(jī)噪聲生成圖片,逐漸在眾多領(lǐng)域得到發(fā)展。有研究者使用GAN研究半監(jiān)督學(xué)習(xí)問題,也有研究者進(jìn)行圖像到圖像的生成探索,如給定輪廓圖生成正常的圖片,另外還有文本到圖像的生成以及域自適應(yīng)任務(wù)。域自適應(yīng)任務(wù)旨在提升模型對跨域數(shù)據(jù)的泛化能力,如在一個數(shù)據(jù)集上訓(xùn)練好圖像分析的模型,通過域適應(yīng)的方法,在其他不同的數(shù)據(jù)集上仍然能夠表現(xiàn)出較強(qiáng)的能力。此外還有人用GAN來做對抗樣本的攻防,旨在解決生成模型的正確性和安全性的問題。

基于GAN,在人臉圖像編輯方面,我們課題組主要進(jìn)行了智能美妝方面的研究,屬于圖像到圖像的生成領(lǐng)域的探索。首先我們構(gòu)建了一個較大的美妝數(shù)據(jù)庫,包括東方風(fēng)格和西方風(fēng)格的子數(shù)據(jù)庫。東方風(fēng)格包括復(fù)古妝、韓妝、日妝、素顏和煙熏妝,西方風(fēng)格包括彩妝、素顏和煙熏妝。如圖所示,每種妝容都有明確的定義。

除數(shù)據(jù)庫外,我們基于生成對抗網(wǎng)絡(luò)對智能美妝模型做了一定的改進(jìn),這項(xiàng)工作目前還在進(jìn)行中。具體包括兩方面改進(jìn),第一基于大規(guī)模的人臉數(shù)據(jù)庫輔助生成更高質(zhì)量的美妝圖像,目前是基于20萬張的celebA人臉圖像數(shù)據(jù),選取包括是否為濃妝在內(nèi)的總共三個人臉相關(guān)的屬性,利用粗標(biāo)注數(shù)據(jù)庫完成智能美妝任務(wù)的輔助訓(xùn)練,從而使美妝屬性的編輯更加細(xì)致。此外我們提出了新的網(wǎng)絡(luò)結(jié)構(gòu)。因?yàn)槿四樉庉嬋蝿?wù)更多是人臉的微調(diào),希望化完妝人的身份信息保持不變,我們的網(wǎng)絡(luò)強(qiáng)調(diào)保持妝前妝后基本一致,更好的保持了圖像的主體信息,更專注地編輯妝容條件。

觀察實(shí)驗(yàn)結(jié)果,各種妝容的編輯結(jié)果比較真實(shí)、自然,沒有明顯的網(wǎng)格。各種妝容的特點(diǎn)也比較明顯,如亞洲風(fēng)格妝容中復(fù)古妝的腮紅、韓妝漸變的咬唇妝,比較淡的日妝以及特征明顯的素顏和煙熏妝,同樣歐美風(fēng)格的妝容也有較好的編輯效果。值得一提的是,由于素顏類別的存在,我們的方法也可以實(shí)現(xiàn)卸妝的功能。

針對人臉編輯的另一個應(yīng)用是人臉老化。下圖中間是當(dāng)前給定圖片,通過人臉老化算法可以生成7個不同年齡段的人臉圖像,即可以變年輕如10歲以下,也可以變老如一直到60歲以上。它的應(yīng)用很廣泛,比如可以輔助跨年齡段的人臉識別。身份證照片常常是很多年前拍攝的,長時間沒有更新導(dǎo)致人證對比存在一定的難度,那么此時人臉老化的就可以輔助身份證的人證識別。另外比較有用的應(yīng)用是尋找丟失的兒童,比如小孩走丟了,只有他很小的照片,人臉老化可以輔助生成長大后的樣子,我們希望可以通過這樣的算法,能夠?qū)崿F(xiàn)跨年齡的身份識別。此外人臉老化編輯還可以應(yīng)用到互動娛樂應(yīng)用中。

我們提出的方法也是基于GAN的。在傳統(tǒng)的conditional GAN的基礎(chǔ)上,我們綜合考慮了不同年齡段人臉的形狀和紋理變化。具體實(shí)現(xiàn)細(xì)節(jié)可參考我們的相關(guān)論文。下圖是我們的結(jié)果,第一列是原始圖片,右邊七列分別是不同年齡條件下的生成結(jié)果??梢钥吹侥挲g較小時,臉型都相對較小,皮膚也很光滑,而從30歲到60歲,胡子越來越白,同時會出現(xiàn)魚尾紋或者皺紋。例如第四行輸入是一個老太太,模型能夠生成她比較小的樣子,皮膚非常光滑,同時很像這個人。

接下來介紹整個框架第二部分,就是人的部分。人體解析定義是這樣的,給定一張圖,去解析人的頭發(fā)、人臉、胳膊(手)等部位,以及上衣、褲子、鞋等衣著。人體解析的相關(guān)工作非常多,由于篇幅限制不再詳細(xì)說明。而數(shù)據(jù)集方面主要是中山大學(xué)發(fā)表在CVPR2017上的Look into person,它應(yīng)該是目前最大的人體解析數(shù)據(jù)庫。

我們在人體解析方面的最新研究是有關(guān)跨域人體解析。因?yàn)楸热缦朐诙鄠€城市建立圖像分析系統(tǒng),不可能在每個場景都標(biāo)注很多數(shù)據(jù),但是不同應(yīng)用場景很多條件確實(shí)不一樣。所以我們希望一旦建立了較好的模型,通過跨域的方法,該模型放在其他的特定場景中也可以使用。比如數(shù)據(jù)庫標(biāo)了很細(xì)致像素級的分類,這些庫姿態(tài)多變,光照很多,數(shù)據(jù)量大。我們在實(shí)際應(yīng)用的時候,比如想應(yīng)用在室內(nèi)餐廳,或者室外街道,這種情況下重新標(biāo)注數(shù)據(jù)的代價是非常大的,而直接使用預(yù)先訓(xùn)好的模型效果又不是特別好。我們想研究的就是已經(jīng)訓(xùn)練好的模型怎么使用。

跨域?qū)W習(xí)是近年來的一個研究熱點(diǎn),相關(guān)論文很多。比如,Ganin等人提出了一種新的基于深度網(wǎng)絡(luò)結(jié)構(gòu)的方法來做域變換,該方法促進(jìn)網(wǎng)絡(luò)學(xué)習(xí)一種深度特征:既能對主要的學(xué)習(xí)任務(wù)上得到區(qū)分,又能在不同域之間達(dá)到一致。MY Liu等人提出了一個耦合生成對抗網(wǎng)絡(luò)(coupled generative adversarial network, CoGAN)來學(xué)習(xí)關(guān)于多個域圖片的聯(lián)合分布。Long等人提出的一種新的深度變換網(wǎng)絡(luò)框架,通過MK-MMD將適應(yīng)于特定任務(wù)的深度特征進(jìn)行變換,而Chen等人提出了對抗姿態(tài)網(wǎng)絡(luò),潛在地考慮到了人物的結(jié)構(gòu)。

當(dāng)前已經(jīng)存在的域變換方法,都是單一考慮特征變換或者簡單地考慮結(jié)構(gòu)性的標(biāo)簽變換,而我們同時考慮了特征變換和結(jié)構(gòu)性的標(biāo)注變換。首先一方面,每個域的特征空間是不同的。例如餐廳中的圖片光照比室外中的光照要暗很多,監(jiān)控圖片的視角和手持相機(jī)拍攝也是不同。因此我們通過對抗特征變換最小化這種差異。然后另一方面源域和目標(biāo)域中的人物都有著固有的相同點(diǎn),例如人體部件的關(guān)系大概是相同的,左右胳膊、腿分布在身體的兩側(cè)等。因此我們通過對抗式結(jié)構(gòu)標(biāo)簽變換來最大化這種共性。

最后一個任務(wù)是綜合考慮到人和場景。今年ECCV的一項(xiàng)競賽就是我們和奇虎360公司以及新加坡國立大學(xué)(NUS)一起舉辦的。比賽的主要任務(wù)還是集中于人這一目標(biāo),希望能夠獲取圖像中最重要的元素——人的信息。

Person In Context (PIC) 2018 (http://www.picdataset.com/) 將于2018年9月9日在德國慕尼黑的ECCV 2018的workshop "1st Person in Context (PIC) Workshop and Challenge" 上舉辦。我們從真實(shí)場景收集了約1.5萬張圖像,平均每張圖包含4個人。這些圖像包含復(fù)雜的人的姿態(tài)、豐富的拍攝視角、不同程度的遮擋和圖像分辨率。每一張圖片都包含了人和物體像素級別的語義分割、場景分割以及人和人/物體的關(guān)系標(biāo)注。在客觀世界不計其數(shù)的類別中,人是最特殊的一類。因此本競賽在任務(wù)設(shè)定過程中,著重考量了以人為中心的關(guān)系分割 (relation segmentation)。傳統(tǒng)的關(guān)系預(yù)測,比如Visual Genome,以及Google 的Open Image Challenge 的關(guān)系都是定義在矩形框(bounding box)上的。PIC競賽的特別之處是,其關(guān)系是定義在分割區(qū)域(segmentation)上的。

以人為中心的關(guān)系分割包括該人的和周圍物體的動作關(guān)系、位置關(guān)系等。以左圖為例,人A在人B的旁邊。再比如右圖,人A在人C的后面。關(guān)系分割的形式是<主語,關(guān)系,賓語> 形式的三元組。值得一提的是,關(guān)系都是建立在人和物體的場景像素級別分割之上的。

以下為數(shù)據(jù)庫的標(biāo)注展示,可以看到該數(shù)據(jù)庫涵蓋了豐富的全景分割和關(guān)系分割。

上圖是PIC跟現(xiàn)有數(shù)據(jù)庫的區(qū)別。Visual Genome是知名的關(guān)系數(shù)據(jù)庫。其關(guān)系是定義在bounding-box上,PIC庫的關(guān)系是定義在像素級別的分割之上。這種更細(xì)粒度的標(biāo)注,使得定義的關(guān)系更為精確,也更符合實(shí)際應(yīng)用的要求。

我們競賽時間安排及競賽信息如下,同時我們還提供了眾多顯卡作為競賽獎品。冠軍隊伍可以獲得2塊TitanV 顯卡。

總結(jié)一下,我們的工作由小及大,包含了人臉,人以及人-物關(guān)系三個層面的內(nèi)容。我們會在這些領(lǐng)域繼續(xù)進(jìn)行探索。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1089

    瀏覽量

    40585
  • GaN
    GaN
    +關(guān)注

    關(guān)注

    19

    文章

    1966

    瀏覽量

    74330

原文標(biāo)題:讓機(jī)器“析毫剖厘”:圖像理解與編輯|VALSE2018之三

文章出處:【微信號:deeplearningclass,微信公眾號:深度學(xué)習(xí)大講堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    基于多智能主體系統(tǒng)的工程機(jī)械機(jī)群智能化研究

    ,綜合現(xiàn)場的各種信息,為高層領(lǐng)導(dǎo)提供決策支持,并負(fù)責(zé)對高層領(lǐng)導(dǎo)的決策進(jìn)行解釋和任務(wù)分配。道路成型智能主體負(fù)責(zé)道路的攤鋪工作,并指揮壓路機(jī)組輔助攤鋪工作。混合料拌和智能主體負(fù)責(zé)混合料的拌和,并指揮裝載機(jī)
    發(fā)表于 09-19 09:20

    基于FPGA的實(shí)時移動目標(biāo)的追蹤

    運(yùn)動目標(biāo)的檢測算法:1)幀間差分法 是采用視頻序列中的相鄰兩幀圖像做差的方法,來檢測視頻序列中的移動目標(biāo)。但是受運(yùn)動目標(biāo)和背景變化的影響,檢測過程中有可能出現(xiàn)偽
    發(fā)表于 08-10 09:15

    紅外圖像目標(biāo)檢測系統(tǒng)該怎么設(shè)計?

    近年來,紅外探測系統(tǒng)因其具有隱蔽性,抗干擾性,全天候工作等特點(diǎn),在現(xiàn)代戰(zhàn)爭中具有重要的作用,而紅外圖像中小目標(biāo)的檢測將直接影響制導(dǎo)系統(tǒng)的有效作用距離及設(shè)備的復(fù)雜程度,在紅外成像制導(dǎo)和預(yù)警系統(tǒng)中發(fā)揮著舉足輕重的作用。
    發(fā)表于 10-15 07:26

    基于YOLOX目標(biāo)檢測算法的改進(jìn)

    。2、本文方法2.1、 解耦 IoU 損失目標(biāo)檢測任務(wù)可分為目標(biāo)分類和目標(biāo)定位兩個任務(wù)。目標(biāo)分類
    發(fā)表于 03-06 13:55

    紅外運(yùn)動弱小目標(biāo)的動態(tài)規(guī)劃檢測

    紅外運(yùn)動弱小目標(biāo)的動態(tài)規(guī)劃檢測:針對動態(tài)規(guī)劃方法在對紅外序列圖像運(yùn)動弱小目標(biāo)進(jìn)行檢測時的能量擴(kuò)散問題,提出了一種新的檢測方法。該方法目標(biāo)的
    發(fā)表于 10-21 08:04 ?16次下載

    基于視頻圖像的運(yùn)動目標(biāo)檢測與識別

    運(yùn)動目標(biāo)檢測是場景監(jiān)控的核心技術(shù),而目標(biāo)的陰影在很大程度上影響了目標(biāo)的形狀,干擾了真實(shí)目標(biāo)的檢測。本文提出混合高斯模型為基礎(chǔ),利用背景差分
    發(fā)表于 12-22 11:44 ?49次下載

    基于目標(biāo)檢測的SAR圖像匹配算法

    該文提出一種基于目標(biāo)檢測的SAR 圖像匹配算法。針對SAR 圖像的特點(diǎn),該算法先檢測SAR 圖像的強(qiáng)散射目標(biāo),接著計算各強(qiáng)散射
    發(fā)表于 04-24 08:49 ?23次下載

    基于Opencv的運(yùn)動目標(biāo)的檢測和跟蹤

    檢測運(yùn)動物體需要無運(yùn)動物體的背景圖像,所以,首先應(yīng)用多幀像素平均值法提取了運(yùn)動視頻序列的背景圖,從背景圖像中分離目標(biāo)像素,獲取目標(biāo)的質(zhì)心坐標(biāo),并應(yīng)用質(zhì)心跟蹤法
    發(fā)表于 07-16 16:05 ?166次下載

    構(gòu)建醫(yī)院為主體的互聯(lián)網(wǎng)醫(yī)療新模式,進(jìn)一步改善醫(yī)療服務(wù)

    8月8日,在第八屆中國管理·全球論壇舉辦期間,金蝶醫(yī)療發(fā)起了一場“構(gòu)建醫(yī)院為主體的互聯(lián)網(wǎng)醫(yī)療服務(wù)新模式”為主體的醫(yī)療行業(yè)論壇。
    發(fā)表于 08-09 15:37 ?1934次閱讀

    解析在目標(biāo)檢測中怎么解決小目標(biāo)的問題?

    導(dǎo)讀 本文介紹了一些小目標(biāo)物體檢測的方法和思路。 在深度學(xué)習(xí)目標(biāo)檢測中,特別是人臉檢測中,由于分辨率低、圖像模糊、信息少、噪聲多,小目標(biāo)和小人臉的檢測一直是一個實(shí)用和常見的難點(diǎn)問題。然
    的頭像 發(fā)表于 04-26 14:13 ?6335次閱讀
    解析在<b class='flag-5'>目標(biāo)</b>檢測中怎么解決小<b class='flag-5'>目標(biāo)的</b>問題?

    基于行為主體定位的視頻快速檢測方法

    r-cnn算法進(jìn)行行為主體檢測,對檢測到行為主體的單元劃定時間區(qū)域生成行為發(fā)生候選區(qū)域,減少行為檢測網(wǎng)絡(luò)的輸入數(shù)據(jù)。在此基礎(chǔ)上,采用3D卷積神經(jīng)網(wǎng)絡(luò)判別候選區(qū)域類別,對行為類區(qū)域進(jìn)行邊界回歸,得到準(zhǔn)確的行為時間軸定位。實(shí)驗(yàn)
    發(fā)表于 05-26 16:53 ?9次下載

    圖像分類任務(wù)的各種tricks

    計算機(jī)視覺主要問題有圖像分類、目標(biāo)檢測和圖像分割等。針對圖像分類任務(wù),提升準(zhǔn)確率的方法路線有兩條,一個是模型的修改,另一個是各種數(shù)據(jù)處理和訓(xùn)
    的頭像 發(fā)表于 09-14 16:42 ?1211次閱讀

    高效理解機(jī)器學(xué)習(xí)

    為了更好地理解各種技術(shù),根據(jù)其目標(biāo)和復(fù)雜度級別進(jìn)行分類是有幫助的。通過將這些算法組織成不同類別和復(fù)雜度,可以簡化概念,使其更容易理解。這種方法可以極大增強(qiáng)人們對機(jī)器學(xué)習(xí)的理解,并幫助確
    的頭像 發(fā)表于 05-06 11:02 ?680次閱讀
    高效<b class='flag-5'>理解</b>機(jī)器學(xué)習(xí)

    導(dǎo)彈制導(dǎo)系統(tǒng)是如何定位目標(biāo)的?

    歸位制導(dǎo)系統(tǒng)通過在武器中使用對目標(biāo)的某些顯著特征做出反應(yīng)的裝置來控制飛行路徑。歸位裝置可以對各種能量形式敏感,包括射頻、紅外、反射激光和可見光。為了鎖定目標(biāo),導(dǎo)彈必須至少通過角度跟蹤方法之一確定目標(biāo)的方位角和仰角。
    發(fā)表于 08-20 09:36 ?2854次閱讀
    導(dǎo)彈制導(dǎo)系統(tǒng)是如何定位<b class='flag-5'>目標(biāo)的</b>?

    字節(jié)發(fā)布SeedEdit圖像編輯模型

    ,SeedEdit模型憑借其強(qiáng)大的技術(shù)實(shí)力,支持用戶通過一句簡單的自然語言描述,即可輕松實(shí)現(xiàn)對圖像的多種編輯操作。無論是修圖、換裝、美化,還是轉(zhuǎn)化風(fēng)格、在指定區(qū)域添加或刪除元素等復(fù)雜任務(wù),SeedEdit都能輕松應(yīng)對。這種
    的頭像 發(fā)表于 11-12 10:43 ?353次閱讀