欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

清華&美團(tuán)提出稀疏Pairwise損失函數(shù)!ReID任務(wù)超已有損失函數(shù)!

CVer ? 來(lái)源:CVer ? 2023-04-09 10:18 ? 次閱讀

ReID任務(wù)的目的是從海量圖像中檢索出與給定query相同ID的實(shí)例。

Pairwise損失函數(shù)在ReID 任務(wù)中發(fā)揮著關(guān)鍵作用。現(xiàn)有方法都是基于密集采樣機(jī)制,即將每個(gè)實(shí)例都作為錨點(diǎn)(anchor)采樣其正樣本和負(fù)樣本構(gòu)成三元組。這種機(jī)制不可避免地會(huì)引入一些幾乎沒(méi)有視覺(jué)相似性的正對(duì),從而影響訓(xùn)練效果。為了解決這個(gè)問(wèn)題,我們提出了一種新穎的損失范式,稱為稀疏Pairwise (SP) 損失,在ReID任務(wù)中針對(duì)mini-batch的每一類篩選出少數(shù)合適的樣本對(duì)來(lái)構(gòu)造損失函數(shù)(如圖1所示)?;谒岢龅膿p失框架,我們進(jìn)一步提出了一種自適應(yīng)正挖掘策略,可以動(dòng)態(tài)地適應(yīng)不同類別內(nèi)部的變化。大量實(shí)驗(yàn)表明,SP 損失及其自適應(yīng)變體AdaSP 損失在多個(gè)ReID數(shù)據(jù)集上均優(yōu)于其他成對(duì)損失方法,并取得了state-of-the-art性能。

d8a2c002-d629-11ed-bfe3-dac502259ad0.png

圖1. Sparse pairwise損失與Dense pairwise損失之間的差異

d8bb4884-d629-11ed-bfe3-dac502259ad0.png

Adaptive Sparse Pairwise Loss for Object Re-Identification

論文地址:https://arxiv.org/abs/2303.18247

Github地址(已開(kāi)源):

https://github.com/Astaxanthin/AdaSP

研究動(dòng)機(jī):

ReID任務(wù)中的由于光照變化、視角改變和遮擋等原因會(huì)造成同一類中不同實(shí)例的視覺(jué)相似度很低(如圖2所示),因此由視覺(jué)相似度很低的實(shí)例(我們稱之為harmful positive pair)構(gòu)成的正樣本對(duì)會(huì)對(duì)特征表示的學(xué)習(xí)過(guò)程帶來(lái)不利的影響,從而使訓(xùn)練收斂至局部極小點(diǎn)?,F(xiàn)有的方法都是以每個(gè)樣本作為錨(anchor)密集采樣正樣本對(duì)來(lái)構(gòu)造度量損失函數(shù),不可避免的會(huì)引入大量壞對(duì)影響訓(xùn)練結(jié)果?;诖?,我們提出了稀疏Pairwise損失函數(shù)以降低對(duì)壞對(duì)的采樣概率,從而減輕壞對(duì)在訓(xùn)練過(guò)程的不利影響。

d8cd9ba6-d629-11ed-bfe3-dac502259ad0.png

圖2. 行人ReID數(shù)據(jù)集上不同級(jí)別的類內(nèi)差異

方法介紹:我們提出的稀疏Pairwise損失函數(shù)(命名為SP loss)針對(duì)每一類僅采樣一個(gè)正樣本對(duì)和一個(gè)負(fù)樣本對(duì)。其中負(fù)樣本對(duì)為該類別與其他所有類別間最難的負(fù)樣本對(duì),而正樣本對(duì)為所有樣本的hard positive pair集合中的最不難positive pair(least-hard mining):

d8f9ed14-d629-11ed-bfe3-dac502259ad0.png

從幾何角度看,以最難positive pair的距離作為半徑的超球面是能夠覆蓋所有類內(nèi)樣本的最大球,而以hard positive pair集合中最不難positive pair的距離作為半徑的超球面是能夠副高所有類內(nèi)樣本的最小球,如圖3所示。利用最小球能夠有效的避免過(guò)于難的harmful positive pair對(duì)于訓(xùn)練過(guò)程的影響,我們從理論上證明了針對(duì)一個(gè)mini-batch,我們的方法采樣得到的正樣本對(duì)中harmful positive pair的期望占比小于Triplet-BH和Circle等密集采樣方法。

d906d934-d629-11ed-bfe3-dac502259ad0.png

圖3. 不同級(jí)別類內(nèi)差異差異下的最大和最小覆蓋球。

為了適應(yīng)不同類別可能具有不同的類內(nèi)差異,我們?cè)赟P loss的基礎(chǔ)上增加了自適應(yīng)策略構(gòu)成AdaSP loss:

d9169d7e-d629-11ed-bfe3-dac502259ad0.png

d92431fa-d629-11ed-bfe3-dac502259ad0.png

d939626e-d629-11ed-bfe3-dac502259ad0.png

該loss通過(guò)動(dòng)態(tài)調(diào)整構(gòu)造loss所用到的正樣本對(duì)相似度以適應(yīng)不同的類內(nèi)差異。

實(shí)驗(yàn)結(jié)果:

我們?cè)诙鄠€(gè)行人ReID數(shù)據(jù)集(包括MSMT17,Market1501,DukeMTMC,CUHK03)和車輛ReID數(shù)據(jù)集(包括VeRi-776,VehicleID,VERIWild)上驗(yàn)證了AdaSP loss的有效性。實(shí)驗(yàn)結(jié)果顯示AdaSP loss在單獨(dú)使用時(shí)超過(guò)Triplet-BH,Circle,MS,Supcon,EP等已有度量損失函數(shù),如表1所示;AdaSP loss在不同骨干網(wǎng)絡(luò)(包括ResNet-50/101/152,ResNet-IBN,MGN,ViT,DeiT)上的ReID性能均優(yōu)于Triplet-BH;此外,AdaSP loss結(jié)合分類損失函數(shù)在ReID任務(wù)上達(dá)到了State-of-the-art的性能。

表1. 在不同數(shù)據(jù)集上不同度量損失函數(shù)的性能比較

d94748fc-d629-11ed-bfe3-dac502259ad0.png

具體細(xì)節(jié)可以參考原文。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4346

    瀏覽量

    62992
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1209

    瀏覽量

    24842
  • REID
    +關(guān)注

    關(guān)注

    1

    文章

    18

    瀏覽量

    10875

原文標(biāo)題:CVPR 2023 | 清華&美團(tuán)提出稀疏Pairwise損失函數(shù)!ReID任務(wù)超已有損失函數(shù)!

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    對(duì)象檢測(cè)邊界框損失函數(shù)–從IOU到ProbIOU介紹

    目標(biāo)檢測(cè)損失函數(shù)的選擇在目標(biāo)檢測(cè)問(wèn)題建模中至關(guān)重要。通常,目標(biāo)檢測(cè)需要兩個(gè)損失函數(shù),一個(gè)用于對(duì)象分類,另一個(gè)用于邊界框回歸(BBR)。
    的頭像 發(fā)表于 01-24 10:50 ?3098次閱讀
    對(duì)象檢測(cè)邊界框<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>–從IOU到ProbIOU介紹

    TensorFlow損失函數(shù)(定義和使用)詳解

    了如何實(shí)現(xiàn)不同類型的損失函數(shù)。那么根據(jù)手頭的回歸任務(wù),你可以選擇相應(yīng)的損失函數(shù)或設(shè)計(jì)自己的損失
    發(fā)表于 07-28 14:38

    keras常用的損失函數(shù)Losses與評(píng)價(jià)函數(shù)Metrics介紹

    ,這使得它在設(shè)置中可用作損失函數(shù)。如果&amp;#039; y_true &amp;#039;或&amp;#039; y_pred &
    發(fā)表于 08-18 06:31

    神經(jīng)網(wǎng)絡(luò)中的損失函數(shù)層和Optimizers圖文解讀

    對(duì)于許多機(jī)器學(xué)習(xí)算法來(lái)說(shuō),最終要解決的問(wèn)題往往是最小化一個(gè)函數(shù),我們通常稱這個(gè)函數(shù)損失函數(shù)。在神經(jīng)網(wǎng)絡(luò)里面同樣如此,損失
    的頭像 發(fā)表于 11-30 16:09 ?8309次閱讀

    機(jī)器學(xué)習(xí)經(jīng)典損失函數(shù)比較

    所有的機(jī)器學(xué)習(xí)算法都或多或少的依賴于對(duì)目標(biāo)函數(shù)最大化或者最小化的過(guò)程。我們常常將最小化的函數(shù)稱為損失函數(shù),它主要用于衡量模型的預(yù)測(cè)能力。
    的頭像 發(fā)表于 06-13 17:53 ?8628次閱讀
    機(jī)器學(xué)習(xí)經(jīng)典<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>比較

    機(jī)器學(xué)習(xí)實(shí)用指南:訓(xùn)練和損失函數(shù)

    這個(gè)損失函數(shù)是合理的,因?yàn)楫?dāng) $t$ 接近 0 時(shí),$-log(t)$ 變得非常大,所以如果模型估計(jì)一個(gè)正例概率接近于 0,那么損失函數(shù)將會(huì)很大,同時(shí)如果模型估計(jì)一個(gè)負(fù)例的概率接近 1
    的頭像 發(fā)表于 06-29 15:02 ?8603次閱讀
    機(jī)器學(xué)習(xí)實(shí)用指南:訓(xùn)練和<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>

    三種常見(jiàn)的損失函數(shù)和兩種常用的激活函數(shù)介紹和可視化

    從上面闡釋的步驟可以看出,神經(jīng)網(wǎng)絡(luò)中的權(quán)重由損失函數(shù)的導(dǎo)數(shù)而不是損失函數(shù)本身來(lái)進(jìn)行更新或反向傳播。因此,損失
    的頭像 發(fā)表于 05-05 11:42 ?7265次閱讀
    三種常見(jiàn)的<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>和兩種常用的激活<b class='flag-5'>函數(shù)</b>介紹和可視化

    深度學(xué)習(xí)的19種損失函數(shù)你了解嗎?帶你詳細(xì)了解

    損失函數(shù)通過(guò)torch.nn包實(shí)現(xiàn)基本用法 criterion = LossCriterion() #構(gòu)造函數(shù)有自己的參數(shù)loss = criterion(x, y) #調(diào)用標(biāo)準(zhǔn)時(shí)也有參數(shù)19種
    的頭像 發(fā)表于 09-14 10:34 ?1.1w次閱讀

    計(jì)算機(jī)視覺(jué)的損失函數(shù)是什么?

    損失函數(shù)在模型的性能中起著關(guān)鍵作用。選擇正確的損失函數(shù)可以幫助你的模型學(xué)習(xí)如何將注意力集中在數(shù)據(jù)中的正確特征集合上,從而獲得最優(yōu)和更快的收斂。
    的頭像 發(fā)表于 03-13 16:30 ?3609次閱讀
    計(jì)算機(jī)視覺(jué)的<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>是什么?

    損失函數(shù)的簡(jiǎn)要介紹

    例如,你有一個(gè)神經(jīng)網(wǎng)絡(luò),通過(guò)該網(wǎng)絡(luò)可以獲取一些與房屋有關(guān)的數(shù)據(jù)并預(yù)測(cè)其價(jià)格。在這種情況下,你可以使用MSE(均方誤差)損失。基本上,在輸出為實(shí)數(shù)的情況下,應(yīng)使用此損失函數(shù)。
    的頭像 發(fā)表于 04-17 10:01 ?3662次閱讀

    機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中分類與回歸常用的幾種損失函數(shù)

    本文將介紹機(jī)器學(xué)習(xí)、深度學(xué)習(xí)中分類與回歸常用的幾種損失函數(shù),包括均方差損失 Mean Squared Loss、平均絕對(duì)誤差損失 Mean Absolute Error Loss、Hu
    的頭像 發(fā)表于 10-09 16:36 ?6309次閱讀
    機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中分類與回歸常用的幾種<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>

    表示學(xué)習(xí)中7大損失函數(shù)的發(fā)展歷程及設(shè)計(jì)思路

    表示學(xué)習(xí)的目的是將原始數(shù)據(jù)轉(zhuǎn)換成更好的表達(dá),以提升下游任務(wù)的效果。在表示學(xué)習(xí)中,損失函數(shù)的設(shè)計(jì)一直是被研究的熱點(diǎn)。損失指導(dǎo)著整個(gè)表示學(xué)習(xí)的過(guò)程,直接決定了表示學(xué)習(xí)的效果。這篇文章總結(jié)了
    的頭像 發(fā)表于 07-08 14:23 ?2289次閱讀

    詳細(xì)分析14種可用于時(shí)間序列預(yù)測(cè)的損失函數(shù)

    在處理時(shí)間序列預(yù)測(cè)問(wèn)任務(wù)時(shí),損失函數(shù)的選擇非常重要,因?yàn)樗鼤?huì)驅(qū)動(dòng)算法的學(xué)習(xí)過(guò)程。以往的工作提出了不同的損失
    的頭像 發(fā)表于 02-14 09:19 ?3023次閱讀

    語(yǔ)義分割25種損失函數(shù)綜述和展望

    本綜述提供了對(duì)25種用于圖像分割的損失函數(shù)的全面且統(tǒng)一的回顧。我們提供了一種新穎的分類法,并詳細(xì)審查了這些損失函數(shù)如何在圖像分割中被定制和利用,強(qiáng)調(diào)了它們的重要特征和應(yīng)用,并進(jìn)行了系統(tǒng)
    的頭像 發(fā)表于 10-22 08:04 ?815次閱讀
    語(yǔ)義分割25種<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>綜述和展望

    RNN的損失函數(shù)與優(yōu)化算法解析

    RNN的損失函數(shù) RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))在處理序列數(shù)據(jù)的過(guò)程中,損失函數(shù)(Loss Function)扮演著重要的角色,它可以測(cè)量模型在訓(xùn)練中的表現(xiàn),并推動(dòng)模型朝著正確的方向?qū)W習(xí)。RN
    的頭像 發(fā)表于 11-15 10:16 ?631次閱讀