欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

必讀!生成對抗網(wǎng)絡(luò)GAN論文TOP 10

DPVg_AI_era ? 來源:lp ? 2019-03-20 09:02 ? 次閱讀

生成對抗網(wǎng)絡(luò) (GAN) 是深度學(xué)習(xí)中最有趣、最受歡迎的應(yīng)用之一。本文列出了 10 篇關(guān)于 GAN 的論文,這些論文將為你提供一個(gè)很好的對 GAN 的介紹,幫助你理解最先進(jìn)技術(shù)的基礎(chǔ)。

本文選擇的10篇GAN論文包括:

DCGANs

Improved Techniques for Training GANs

Conditional GANs

Progressively Growing GANs

BigGAN

StyleGAN

CycleGAN

Pix2Pix

StackGAN

Generative Adversarial Networks

DCGANs?—?Radford et al.(2015)

我建議你以DCGAN這篇論文來開啟你的GAN之旅。這篇論文展示了卷積層如何與GAN一起使用,并為此提供了一系列架構(gòu)指南。這篇論文還討論了GAN特征的可視化、潛在空間插值、利用判別器特征來訓(xùn)練分類器、評估結(jié)果等問題。所有這些問題都必然會出現(xiàn)在你的GAN研究中。

總之,DCGAN論文是一篇必讀的GAN論文,因?yàn)樗砸环N非常清晰的方式定義架構(gòu),因此很容易從一些代碼開始,并開始形成開發(fā)GAN的直覺。

DCGAN模型:具有上采樣卷積層的生成器架構(gòu)

論文:

Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks

Alec Radford, Luke Metz, Soumith Chintala

https://arxiv.org/abs/1511.06434

改進(jìn)GAN訓(xùn)練的技術(shù)——?Salimans et al.(2016)

這篇論文(作者包括Ian Goodfellow)根據(jù)上述DCGAN論文中列出的架構(gòu)指南,提供了一系列建議。這篇論文將幫助你了解GAN不穩(wěn)定性的最佳假設(shè)。此外,本文還提供了許多用于穩(wěn)定DCGAN訓(xùn)練的其他機(jī)器,包括特征匹配、minibatch識別、歷史平均、單邊標(biāo)簽平滑和虛擬批標(biāo)準(zhǔn)化。使用這些技巧來構(gòu)建一個(gè)簡單的DCGAN實(shí)現(xiàn)是一個(gè)很好的練習(xí),有助于更深入地了解GAN。

論文:

Improved Techniques for Training GANs

Tim Salimans, Ian Goodfellow, Wojciech Zaremba, Vicki Cheung, Alec Radford, Xi Chen

https://arxiv.org/abs/1606.03498

Conditional GANs?—?Mirza and Osindero(2014)

這是一篇很好的論文,讀起來很順暢。條件GAN(Conditional GAN)是最先進(jìn)的GAN之一。論文展示了如何整合數(shù)據(jù)的類標(biāo)簽,從而使GAN訓(xùn)練更加穩(wěn)定。利用先驗(yàn)信息對GAN進(jìn)行調(diào)節(jié)這樣的概念,在此后的GAN研究中是一個(gè)反復(fù)出現(xiàn)的主題,對于側(cè)重于image-to-image或text-to-image的論文尤其重要。

Conditional GAN架構(gòu):除了隨機(jī)噪聲向量z之外,類標(biāo)簽y被連接在一起作為網(wǎng)絡(luò)的輸入

論文:

Conditional Generative Adversarial Nets

Mehdi Mirza, Simon Osindero

https://arxiv.org/abs/1411.1784

Progressively Growing GANs—?Karras et al.(2017)

Progressively Growing GAN (PG-GAN)有著驚人的結(jié)果,以及對GAN問題的創(chuàng)造性方法,因此也是一篇必讀論文。

這篇GAN論文來自NVIDIA Research,提出以一種漸進(jìn)增大(progressive growing)的方式訓(xùn)練GAN,通過使用逐漸增大的GAN網(wǎng)絡(luò)(稱為PG-GAN)和精心處理的CelebA-HQ數(shù)據(jù)集,實(shí)現(xiàn)了效果令人驚嘆的生成圖像。作者表示,這種方式不僅穩(wěn)定了訓(xùn)練,GAN生成的圖像也是迄今為止質(zhì)量最好的。

它的關(guān)鍵想法是漸進(jìn)地增大生成器和鑒別器:從低分辨率開始,隨著訓(xùn)練的進(jìn)展,添加新的層對越來越精細(xì)的細(xì)節(jié)進(jìn)行建模?!癙rogressive Growing”指的是先訓(xùn)練4x4的網(wǎng)絡(luò),然后訓(xùn)練8x8,不斷增大,最終達(dá)到1024x1024。這既加快了訓(xùn)練速度,又大大穩(wěn)定了訓(xùn)練速度,并且生成的圖像質(zhì)量非常高。

Progressively Growing GAN的多尺度架構(gòu),模型從4×4 逐步增大到1024×1024

論文:

Progressive Growing of GANs for Improved Quality, Stability, and Variation

Tero Karras, Timo Aila, Samuli Laine, Jaakko Lehtinen

https://arxiv.org/abs/1710.10196

相關(guān)閱讀:

迄今最真實(shí)的GAN:英偉達(dá)漸進(jìn)增大方式訓(xùn)練GAN,生成前所未有高清圖像

BigGAN?—?Brock et al.(2019)

BigGAN模型是基于ImageNet生成圖像質(zhì)量最高的模型之一。該模型很難在本地機(jī)器上實(shí)現(xiàn),而且BigGAN有許多組件,如Self-Attention、Spectral Normalization和帶有投影鑒別器的cGAN,這些組件在各自的論文中都有更好的解釋。不過,這篇論文對構(gòu)成當(dāng)前最先進(jìn)技術(shù)水平的基礎(chǔ)論文的思想提供了很好的概述,因此非常值得閱讀。

BigGAN生成的圖像

論文:

Large Scale GAN Training for High Fidelity Natural Image Synthesis

Andrew Brock, Jeff Donahue, Karen Simonyan

https://arxiv.org/abs/1809.11096

StyleGAN?—?Karras et al.(2019)

StyleGAN模型可以說是最先進(jìn)的,特別是利用了潛在空間控制。該模型借鑒了神經(jīng)風(fēng)格遷移中一種稱為自適應(yīng)實(shí)例標(biāo)準(zhǔn)化(AdaIN)的機(jī)制來控制潛在空間向量z。映射網(wǎng)絡(luò)和AdaIN條件在整個(gè)生成器模型中的分布的結(jié)合使得很難自己實(shí)現(xiàn)一個(gè)StyleGAN,但它仍是一篇很好的論文,包含了許多有趣的想法。

StyleGAN架構(gòu),允許潛在空間控制

論文:

A Style-Based Generator Architecture for Generative Adversarial Networks

Tero Karras, Samuli Laine, Timo Aila

https://arxiv.org/abs/1812.04948

CycleGAN?—?Zhu et al.(2017)

CycleGAN的論文不同于前面列舉的6篇論文,因?yàn)樗懻摰氖莍mage-to-image的轉(zhuǎn)換問題,而不是隨機(jī)向量的圖像合成問題。CycleGAN更具體地處理了沒有成對訓(xùn)練樣本的image-to-image轉(zhuǎn)換的情況。然而,由于Cycle-Consistency loss公式的優(yōu)雅性,以及如何穩(wěn)定GAN訓(xùn)練的啟發(fā)性,這是一篇很好的論文。CycleGAN有很多很酷的應(yīng)用,比如超分辨率,風(fēng)格轉(zhuǎn)換,例如將馬的圖像變成斑馬。

Cycle Consistency Loss背后的主要想法,一個(gè)句子從法語翻譯成英語,再翻譯回法語,應(yīng)該跟原來的是同一個(gè)句子

論文:

Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks

Jun-Yan Zhu, Taesung Park, Phillip Isola, Alexei A. Efros

https://arxiv.org/abs/1703.10593

Pix2Pix?—?Isola et al.(2016)

Pix2Pix是另一種圖像到圖像轉(zhuǎn)換的GAN模型。該框架使用成對的訓(xùn)練樣本,并在GAN模型中使用多種不同的配置。讀這篇論文時(shí),我覺得最有趣部分是關(guān)于PatchGAN的討論。PatchGAN通過觀察圖像的70×70的區(qū)域來判斷它們是真的還是假的,而不是查看整個(gè)圖像。該模型還展示了一個(gè)有趣的U-Net風(fēng)格的生成器架構(gòu),以及在生成器模型中使用ResNet風(fēng)格的skip connections。Pix2Pix有很多很酷的應(yīng)用,比如將草圖轉(zhuǎn)換成逼真的照片。

使用成對的訓(xùn)練樣本進(jìn)行Image-to-Image轉(zhuǎn)換

論文:

Image-to-Image Translation with Conditional Adversarial Networks

Phillip Isola, Jun-Yan Zhu, Tinghui Zhou, Alexei A. Efros

https://arxiv.org/abs/1611.07004

StackGAN?—?Zhang et al.(2017)

StackGAN的論文與本列表中的前幾篇論文相比非常不同。它與Conditional GAN和Progressively Growing GANs最為相似。StackGAN模型的工作原理與Progressively Growing GANs相似,因?yàn)樗梢栽诙鄠€(gè)尺度上工作。StackGAN首先輸出分辨率為64×64的圖像,然后將其作為先驗(yàn)信息生成一個(gè)256×256分辨率的圖像。

StackGAN是從自然語言文本生成圖像。這是通過改變文本嵌入來實(shí)現(xiàn)的,以便捕獲視覺特征。這是一篇非常有趣的文章,如果StyleGAN中顯示的潛在空間控制與StackGAN中定義的自然語言接口相結(jié)合,想必會非常令人驚訝。

基于文本嵌入的StackGAN多尺度架構(gòu)背后的想法

論文:

StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generative Adversarial Networks

Han Zhang, Tao Xu, Hongsheng Li, Shaoting Zhang, Xiaogang Wang, Xiaolei Huang, Dimitris Metaxas

https://arxiv.org/abs/1612.03242

Generative Adversarial Networks?—?Goodfellow et al.(2014)

Ian Goodfellow的原始GAN論文對任何研究GAN的人來說都是必讀的。這篇論文定義了GAN框架,并討論了“非飽和”損失函數(shù)。論文還給出了最優(yōu)判別器的推導(dǎo),這是近年來GAN論文中經(jīng)常出現(xiàn)的一個(gè)證明。論文還在MNIST、TFD和CIFAR-10圖像數(shù)據(jù)集上對GAN的有效性進(jìn)行了實(shí)驗(yàn)驗(yàn)證。

論文:

Generative Adversarial Networks

Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, Yoshua Bengio

https://arxiv.org/abs/1406.2661

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • GaN
    GaN
    +關(guān)注

    關(guān)注

    19

    文章

    1966

    瀏覽量

    74322
  • 分類器
    +關(guān)注

    關(guān)注

    0

    文章

    152

    瀏覽量

    13235
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5516

    瀏覽量

    121586

原文標(biāo)題:必讀!生成對抗網(wǎng)絡(luò)GAN論文TOP 10

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    #新年新氣象,大家新年快樂!#AIGC入門及鴻蒙入門

    Generated Content,即人工智能生成內(nèi)容。它利用人工智能技術(shù)自動(dòng)生成或輔助生成文本、圖像、音頻、視頻等內(nèi)容。 AIGC的核心技術(shù)包括自然語言處理(NLP)、計(jì)算機(jī)視覺、生成對抗
    發(fā)表于 01-13 10:46

    AIGC入門及鴻蒙入門

    Generated Content,即人工智能生成內(nèi)容。它利用人工智能技術(shù)自動(dòng)生成或輔助生成文本、圖像、音頻、視頻等內(nèi)容。 AIGC的核心技術(shù)包括自然語言處理(NLP)、計(jì)算機(jī)視覺、生成對抗
    發(fā)表于 01-13 10:32

    羅姆宣布全面委托臺積電代工GaN產(chǎn)品

    近日,日本功率器件大廠羅姆半導(dǎo)體(ROHM)宣布了一項(xiàng)重要決策,將在GaN功率半導(dǎo)體領(lǐng)域加強(qiáng)與臺積電的合作。據(jù)悉,羅姆將全面委托臺積電代工生產(chǎn)GaN功率半導(dǎo)體器件,以水平分工的方式提升競爭力,對抗海外競爭對手。
    的頭像 發(fā)表于 10-10 17:17 ?581次閱讀

    2024年汽車操作系統(tǒng)趨勢及TOP10分析報(bào)告

    2024年汽車操作系統(tǒng)趨勢及TOP10分析報(bào)告
    的頭像 發(fā)表于 09-30 08:07 ?409次閱讀
    2024年汽車操作系統(tǒng)趨勢及<b class='flag-5'>TOP10</b>分析報(bào)告

    請問LM311能準(zhǔn)確的交截生成對應(yīng)的PWM波形嗎?

    UC3825, TLV3501輸入正是100k的正弦波 輸入負(fù)是100kHz的鋸齒波 二者交截生成PWM波形 請問LM311能準(zhǔn)確的交截生成對應(yīng)的PWM波形嗎 之前使用UC3525里面自帶的比較器做的,LM311能達(dá)到這樣的速度嗎
    發(fā)表于 08-06 07:46

    基于神經(jīng)網(wǎng)絡(luò)的全息圖生成算法

    全息圖生成技術(shù)作為光學(xué)與計(jì)算機(jī)科學(xué)交叉領(lǐng)域的重要研究方向,近年來隨著神經(jīng)網(wǎng)絡(luò)技術(shù)的飛速發(fā)展,取得了顯著進(jìn)展?;谏窠?jīng)網(wǎng)絡(luò)的全息圖生成算法,以其強(qiáng)大的非線性擬合能力和高效的計(jì)算性能,為全
    的頭像 發(fā)表于 07-09 15:54 ?572次閱讀

    生成對抗網(wǎng)絡(luò)(GANs)的原理與應(yīng)用案例

    生成對抗網(wǎng)絡(luò)(Generative Adversarial Networks,GANs)是一種由蒙特利爾大學(xué)的Ian Goodfellow等人在2014年提出的深度學(xué)習(xí)算法。GANs通過構(gòu)建兩個(gè)
    的頭像 發(fā)表于 07-09 11:34 ?1354次閱讀

    人工神經(jīng)網(wǎng)絡(luò)模型的分類有哪些

    詳細(xì)介紹人工神經(jīng)網(wǎng)絡(luò)的分類,包括前饋神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、深度神經(jīng)網(wǎng)絡(luò)、生成對抗
    的頭像 發(fā)表于 07-05 09:13 ?1378次閱讀

    神經(jīng)網(wǎng)絡(luò)架構(gòu)有哪些

    、語音識別、自然語言處理等多個(gè)領(lǐng)域。本文將對幾種主要的神經(jīng)網(wǎng)絡(luò)架構(gòu)進(jìn)行詳細(xì)介紹,包括前饋神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)、生成對抗
    的頭像 發(fā)表于 07-01 14:16 ?877次閱讀

    瑞薩完成對Transphorm的收購

    2024年6月20日完成對氮化鎵(GaN)功率半導(dǎo)體全球供應(yīng)商Transphorm, Inc.(以下“Transphorm”,Nasdaq:TGAN)的收購。隨著收購的完成,瑞薩電子將立即開始提供
    的頭像 發(fā)表于 06-21 13:59 ?810次閱讀

    思科完成對Isovalent的收購

    全球領(lǐng)先的網(wǎng)絡(luò)技術(shù)公司思科(Cisco)近日宣布,已完成對開源云原生網(wǎng)絡(luò)與安全領(lǐng)域的佼佼者Isovalent的收購。
    的頭像 發(fā)表于 05-06 10:41 ?678次閱讀

    深度學(xué)習(xí)生成對抗網(wǎng)絡(luò)GAN)全解析

    GANs真正的能力來源于它們遵循的對抗訓(xùn)練模式。生成器的權(quán)重是基于判別器的損失所學(xué)習(xí)到的。因此,生成器被它生成的圖像所推動(dòng)著進(jìn)行訓(xùn)練,很難知道生成
    發(fā)表于 03-29 14:42 ?4781次閱讀
    深度學(xué)習(xí)<b class='flag-5'>生成對抗</b><b class='flag-5'>網(wǎng)絡(luò)</b>(<b class='flag-5'>GAN</b>)全解析

    在使用spc5 stdio的時(shí)候生成對應(yīng)的功能,main.c里面為什么沒有調(diào)用對應(yīng)的接口?

    在使用spc5 stdio的時(shí)候生成對應(yīng)的功能,main.c里面怎么沒有調(diào)用對應(yīng)的接口; eg:這是怎么回事?
    發(fā)表于 03-26 07:00

    2023年全球動(dòng)力電池TOP10“變局”解析

    2023年度全球動(dòng)力電池TOP10合計(jì)裝機(jī)662.72GWh,占總裝機(jī)量的93.7%。
    的頭像 發(fā)表于 02-25 09:37 ?3852次閱讀
    2023年全球動(dòng)力電池<b class='flag-5'>TOP10</b>“變局”解析

    生成式人工智能和感知式人工智能的區(qū)別

    生成新的內(nèi)容和信息的人工智能系統(tǒng)。這些系統(tǒng)能夠利用已有的數(shù)據(jù)和知識來生成全新的內(nèi)容,如圖片、音樂、文本等。生成式人工智能通?;谏疃葘W(xué)習(xí)技術(shù),如生成對抗
    的頭像 發(fā)表于 02-19 16:43 ?2035次閱讀