欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

不同種類(lèi)的損失函數(shù)以及它們的作用

MqC7_CAAI_1981 ? 來(lái)源:未知 ? 作者:李倩 ? 2018-06-29 10:31 ? 次閱讀

“損失函數(shù)”是機(jī)器學(xué)習(xí)優(yōu)化中至關(guān)重要的一部分。L1、L2損失函數(shù)相信大多數(shù)人都早已不陌生。那你了解Huber損失、Log-Cosh損失、以及常用于計(jì)算預(yù)測(cè)區(qū)間的分位數(shù)損失么?這些可都是機(jī)器學(xué)習(xí)大牛最常用的回歸損失函數(shù)哦!

機(jī)器學(xué)習(xí)中所有的算法都需要最大化或最小化一個(gè)函數(shù),這個(gè)函數(shù)被稱(chēng)為“目標(biāo)函數(shù)”。其中,我們一般把最小化的一類(lèi)函數(shù),稱(chēng)為“損失函數(shù)”。它能根據(jù)預(yù)測(cè)結(jié)果,衡量出模型預(yù)測(cè)能力的好壞。

在實(shí)際應(yīng)用中,選取損失函數(shù)會(huì)受到諸多因素的制約,比如是否有異常值、機(jī)器學(xué)習(xí)算法的選擇、梯度下降的時(shí)間復(fù)雜度、求導(dǎo)的難易程度以及預(yù)測(cè)值的置信度等等。因此,不存在一種損失函數(shù)適用于處理所有類(lèi)型的數(shù)據(jù)。這篇文章就講介紹不同種類(lèi)的損失函數(shù)以及它們的作用。

損失函數(shù)大致可分為兩類(lèi):分類(lèi)問(wèn)題的損失函數(shù)和回歸問(wèn)題的損失函數(shù)。在這篇文章中,我將著重介紹回歸損失。

本文出現(xiàn)的代碼和圖表我們都妥妥保存在這兒了:

https://nbviewer.jupyter.org/github/groverpr/Machine-Learning/blob/master/notebooks/05_Loss_Functions.ipynb

分類(lèi)、回歸問(wèn)題損失函數(shù)對(duì)比

均方誤差

均方誤差(MSE)是最常用的回歸損失函數(shù),計(jì)算方法是求預(yù)測(cè)值與真實(shí)值之間距離的平方和,公式如圖。

下圖是MSE函數(shù)的圖像,其中目標(biāo)值是100,預(yù)測(cè)值的范圍從-10000到10000,Y軸代表的MSE取值范圍是從0到正無(wú)窮,并且在預(yù)測(cè)值為100處達(dá)到最小。

MSE損失(Y軸)-預(yù)測(cè)值(X軸)

平均絕對(duì)值誤差(也稱(chēng)L1損失)

平均絕對(duì)誤差(MAE)是另一種用于回歸模型的損失函數(shù)。MAE是目標(biāo)值和預(yù)測(cè)值之差的絕對(duì)值之和。其只衡量了預(yù)測(cè)值誤差的平均模長(zhǎng),而不考慮方向,取值范圍也是從0到正無(wú)窮(如果考慮方向,則是殘差/誤差的總和——平均偏差(MBE))。

MAE損失(Y軸)-預(yù)測(cè)值(X軸)

MSE(L2損失)與MAE(L1損失)的比較

簡(jiǎn)單來(lái)說(shuō),MSE計(jì)算簡(jiǎn)便,但MAE對(duì)異常點(diǎn)有更好的魯棒性。下面就來(lái)介紹導(dǎo)致二者差異的原因。

訓(xùn)練一個(gè)機(jī)器學(xué)習(xí)模型時(shí),我們的目標(biāo)就是找到損失函數(shù)達(dá)到極小值的點(diǎn)。當(dāng)預(yù)測(cè)值等于真實(shí)值時(shí),這兩種函數(shù)都能達(dá)到最小。

下面是這兩種損失函數(shù)的python代碼。你可以自己編寫(xiě)函數(shù),也可以使用sklearn內(nèi)置的函數(shù)。

# true: Array of true target variable# pred: Array of predictionsdef mse(true, pred): return np.sum((true - pred)**2)def mae(true, pred): return np.sum(np.abs(true - pred)) # also available in sklearnfrom sklearn.metrics import mean_squared_errorfrom sklearn.metrics import mean_absolute_error

下面讓我們觀察MAE和RMSE(即MSE的平方根,同MAE在同一量級(jí)中)在兩個(gè)例子中的計(jì)算結(jié)果。第一個(gè)例子中,預(yù)測(cè)值和真實(shí)值很接近,而且誤差的方差也較小。第二個(gè)例子中,因?yàn)榇嬖谝粋€(gè)異常點(diǎn),而導(dǎo)致誤差非常大。

左圖:誤差比較接近 右圖:有一個(gè)誤差遠(yuǎn)大于其他誤差

從圖中可以知道什么?應(yīng)當(dāng)如何選擇損失函數(shù)?

MSE對(duì)誤差取了平方(令e=真實(shí)值-預(yù)測(cè)值),因此若e>1,則MSE會(huì)進(jìn)一步增大誤差。如果數(shù)據(jù)中存在異常點(diǎn),那么e值就會(huì)很大,而e2則會(huì)遠(yuǎn)大于|e|。

因此,相對(duì)于使用MAE計(jì)算損失,使用MSE的模型會(huì)賦予異常點(diǎn)更大的權(quán)重。在第二個(gè)例子中,用RMSE計(jì)算損失的模型會(huì)以犧牲了其他樣本的誤差為代價(jià),朝著減小異常點(diǎn)誤差的方向更新。然而這就會(huì)降低模型的整體性能。

如果訓(xùn)練數(shù)據(jù)被異常點(diǎn)所污染,那么MAE損失就更好用(比如,在訓(xùn)練數(shù)據(jù)中存在大量錯(cuò)誤的反例和正例標(biāo)記,但是在測(cè)試集中沒(méi)有這個(gè)問(wèn)題)。

直觀上可以這樣理解:如果我們最小化MSE來(lái)對(duì)所有的樣本點(diǎn)只給出一個(gè)預(yù)測(cè)值,那么這個(gè)值一定是所有目標(biāo)值的平均值。但如果是最小化MAE,那么這個(gè)值,則會(huì)是所有樣本點(diǎn)目標(biāo)值的中位數(shù)。眾所周知,對(duì)異常值而言,中位數(shù)比均值更加魯棒,因此MAE對(duì)于異常值也比MSE更穩(wěn)定。

然而MAE存在一個(gè)嚴(yán)重的問(wèn)題(特別是對(duì)于神經(jīng)網(wǎng)絡(luò)):更新的梯度始終相同,也就是說(shuō),即使對(duì)于很小的損失值,梯度也很大。這樣不利于模型的學(xué)習(xí)。為了解決這個(gè)缺陷,我們可以使用變化的學(xué)習(xí)率,在損失接近最小值時(shí)降低學(xué)習(xí)率。

而MSE在這種情況下的表現(xiàn)就很好,即便使用固定的學(xué)習(xí)率也可以有效收斂。MSE損失的梯度隨損失增大而增大,而損失趨于0時(shí)則會(huì)減小。這使得在訓(xùn)練結(jié)束時(shí),使用MSE模型的結(jié)果會(huì)更精確。

根據(jù)不同情況選擇損失函數(shù)

如果異常點(diǎn)代表在商業(yè)中很重要的異常情況,并且需要被檢測(cè)出來(lái),則應(yīng)選用MSE損失函數(shù)。相反,如果只把異常值當(dāng)作受損數(shù)據(jù),則應(yīng)選用MAE損失函數(shù)。

推薦大家讀一下這篇文章,文中比較了分別使用L1、L2損失的回歸模型在有無(wú)異常值時(shí)的表現(xiàn)。

文章網(wǎng)址:

http://rishy.github.io/ml/2015/07/28/l1-vs-l2-loss/

這里L(fēng)1損失和L2損失只是MAE和MSE的別稱(chēng)。

總而言之,處理異常點(diǎn)時(shí),L1損失函數(shù)更穩(wěn)定,但它的導(dǎo)數(shù)不連續(xù),因此求解效率較低。L2損失函數(shù)對(duì)異常點(diǎn)更敏感,但通過(guò)令其導(dǎo)數(shù)為0,可以得到更穩(wěn)定的封閉解。

二者兼有的問(wèn)題是:在某些情況下,上述兩種損失函數(shù)都不能滿(mǎn)足需求。例如,若數(shù)據(jù)中90%的樣本對(duì)應(yīng)的目標(biāo)值為150,剩下10%在0到30之間。那么使用MAE作為損失函數(shù)的模型可能會(huì)忽視10%的異常點(diǎn),而對(duì)所有樣本的預(yù)測(cè)值都為150。

這是因?yàn)槟P蜁?huì)按中位數(shù)來(lái)預(yù)測(cè)。而使用MSE的模型則會(huì)給出很多介于0到30的預(yù)測(cè)值,因?yàn)槟P蜁?huì)向異常點(diǎn)偏移。上述兩種結(jié)果在許多商業(yè)場(chǎng)景中都是不可取的。

這些情況下應(yīng)該怎么辦呢?最簡(jiǎn)單的辦法是對(duì)目標(biāo)變量進(jìn)行變換。而另一種辦法則是換一個(gè)損失函數(shù),這就引出了下面要講的第三種損失函數(shù),即Huber損失函數(shù)。

Huber損失,平滑的平均絕對(duì)誤差

Huber損失對(duì)數(shù)據(jù)中的異常點(diǎn)沒(méi)有平方誤差損失那么敏感。它在0也可微分。本質(zhì)上,Huber損失是絕對(duì)誤差,只是在誤差很小時(shí),就變?yōu)槠椒秸`差。誤差降到多小時(shí)變?yōu)槎握`差由超參數(shù)δ(delta)來(lái)控制。當(dāng)Huber損失在[0-δ,0+δ]之間時(shí),等價(jià)為MSE,而在[-∞,δ]和[δ,+∞]時(shí)為MAE。

Huber損失(Y軸)與預(yù)測(cè)值(X軸)圖示。真值取0

這里超參數(shù)delta的選擇非常重要,因?yàn)檫@決定了你對(duì)與異常點(diǎn)的定義。當(dāng)殘差大于delta,應(yīng)當(dāng)采用L1(對(duì)較大的異常值不那么敏感)來(lái)最小化,而殘差小于超參數(shù),則用L2來(lái)最小化。

為何要使用Huber損失?

使用MAE訓(xùn)練神經(jīng)網(wǎng)絡(luò)最大的一個(gè)問(wèn)題就是不變的大梯度,這可能導(dǎo)致在使用梯度下降快要結(jié)束時(shí),錯(cuò)過(guò)了最小點(diǎn)。而對(duì)于MSE,梯度會(huì)隨著損失的減小而減小,使結(jié)果更加精確。

在這種情況下,Huber損失就非常有用。它會(huì)由于梯度的減小而落在最小值附近。比起MSE,它對(duì)異常點(diǎn)更加魯棒。因此,Huber損失結(jié)合了MSE和MAE的優(yōu)點(diǎn)。但是,Huber損失的問(wèn)題是我們可能需要不斷調(diào)整超參數(shù)delta。

Log-Cosh損失

Log-cosh是另一種應(yīng)用于回歸問(wèn)題中的,且比L2更平滑的的損失函數(shù)。它的計(jì)算方式是預(yù)測(cè)誤差的雙曲余弦的對(duì)數(shù)。

Log-cosh損失(Y軸)與預(yù)測(cè)值(X軸)圖示。真值取0

優(yōu)點(diǎn):對(duì)于較小的x,log(cosh(x))近似等于(x^2)/2,對(duì)于較大的x,近似等于abs(x)-log(2)。這意味著‘logcosh’基本類(lèi)似于均方誤差,但不易受到異常點(diǎn)的影響。它具有Huber損失所有的優(yōu)點(diǎn),但不同于Huber損失的是,Log-cosh二階處處可微。

為什么需要二階導(dǎo)數(shù)?許多機(jī)器學(xué)習(xí)模型如XGBoost,就是采用牛頓法來(lái)尋找最優(yōu)點(diǎn)。而牛頓法就需要求解二階導(dǎo)數(shù)(Hessian)。因此對(duì)于諸如XGBoost這類(lèi)機(jī)器學(xué)習(xí)框架,損失函數(shù)的二階可微是很有必要的。

XgBoost中使用的目標(biāo)函數(shù)。注意對(duì)一階和二階導(dǎo)數(shù)的依賴(lài)性

但Log-cosh損失也并非完美,其仍存在某些問(wèn)題。比如誤差很大的話,一階梯度和Hessian會(huì)變成定值,這就導(dǎo)致XGBoost出現(xiàn)缺少分裂點(diǎn)的情況。

Huber和Log-cosh損失函數(shù)的Python代碼:

# huber lossdef huber(true, pred, delta): loss = np.where(np.abs(true-pred) < delta , 0.5*((true-pred)**2), delta*np.abs(true - pred) - 0.5*(delta**2)) ? ?return np.sum(loss)# log cosh lossdef logcosh(true, pred): ? ?loss = np.log(np.cosh(pred - true))return np.sum(loss)

分位數(shù)損失

在大多數(shù)現(xiàn)實(shí)世界預(yù)測(cè)問(wèn)題中,我們通常希望了解預(yù)測(cè)中的不確定性。清楚預(yù)測(cè)的范圍而非僅是估計(jì)點(diǎn),對(duì)許多商業(yè)問(wèn)題的決策很有幫助。

當(dāng)我們更關(guān)注區(qū)間預(yù)測(cè)而不僅是點(diǎn)預(yù)測(cè)時(shí),分位數(shù)損失函數(shù)就很有用。使用最小二乘回歸進(jìn)行區(qū)間預(yù)測(cè),基于的假設(shè)是殘差(y-y_hat)是獨(dú)立變量,且方差保持不變。

一旦違背了這條假設(shè),那么線性回歸模型就不成立。但是我們也不能因此就認(rèn)為使用非線性函數(shù)或基于樹(shù)的模型更好,而放棄將線性回歸模型作為基線方法。這時(shí),分位數(shù)損失和分位數(shù)回歸就派上用場(chǎng)了,因?yàn)榧幢銓?duì)于具有變化方差或非正態(tài)分布的殘差,基于分位數(shù)損失的回歸也能給出合理的預(yù)測(cè)區(qū)間。

下面讓我們看一個(gè)實(shí)際的例子,以便更好地理解基于分位數(shù)損失的回歸是如何對(duì)異方差數(shù)據(jù)起作用的。

分位數(shù)回歸與最小二乘回歸

左:b/wX1和Y為線性關(guān)系。具有恒定的殘差方差。右:b/wX2和Y為線性關(guān)系,但Y的方差隨著X2增加。(異方差)

橙線表示兩種情況下OLS的估值

分位數(shù)回歸。虛線表示基于0.05和0.95分位數(shù)損失函數(shù)的回歸

附上圖中所示分位數(shù)回歸的代碼:

https://github.com/groverpr/Machine-Learning/blob/master/notebooks/09_Quantile_Regression.ipynb

理解分位數(shù)損失函數(shù)

如何選取合適的分位值取決于我們對(duì)正誤差和反誤差的重視程度。損失函數(shù)通過(guò)分位值(γ)對(duì)高估和低估給予不同的懲罰。例如,當(dāng)分位數(shù)損失函數(shù)γ=0.25時(shí),對(duì)高估的懲罰更大,使得預(yù)測(cè)值略低于中值。

γ是所需的分位數(shù),其值介于0和1之間。

分位數(shù)損失(Y軸)與預(yù)測(cè)值(X軸)圖示。Y的真值為0

這個(gè)損失函數(shù)也可以在神經(jīng)網(wǎng)絡(luò)或基于樹(shù)的模型中計(jì)算預(yù)測(cè)區(qū)間。以下是用Sklearn實(shí)現(xiàn)梯度提升樹(shù)回歸模型的示例。

使用分位數(shù)損失(梯度提升回歸器)預(yù)測(cè)區(qū)間

上圖表明:在sklearn庫(kù)的梯度提升回歸中使用分位數(shù)損失可以得到90%的預(yù)測(cè)區(qū)間。其中上限為γ=0.95,下限為γ=0.05。

對(duì)比研究

為了證明上述所有損失函數(shù)的特點(diǎn),讓我們來(lái)一起看一個(gè)對(duì)比研究。首先,我們建立了一個(gè)從sinc(x)函數(shù)中采樣得到的數(shù)據(jù)集,并引入了兩項(xiàng)人為噪聲:高斯噪聲分量ε?N(0,σ2)和脈沖噪聲分量ξ?Bern(p)。

加入脈沖噪聲是為了說(shuō)明模型的魯棒效果。以下是使用不同損失函數(shù)擬合GBM回歸器的結(jié)果。

連續(xù)損失函數(shù):(A)MSE損失函數(shù);(B)MAE損失函數(shù);(C)Huber損失函數(shù);(D)分位數(shù)損失函數(shù)。將一個(gè)平滑的GBM擬合成有噪聲的sinc(x)數(shù)據(jù)的示例:(E)原始sinc(x)函數(shù);(F)具有MSE和MAE損失的平滑GBM;(G)具有Huber損失的平滑GBM,且δ={4,2,1};(H)具有分位數(shù)損失的平滑的GBM,且α={0.5,0.1,0.9}。

仿真對(duì)比的一些觀察結(jié)果:

MAE損失模型的預(yù)測(cè)結(jié)果受脈沖噪聲的影響較小,而MSE損失函數(shù)的預(yù)測(cè)結(jié)果受此影響略有偏移。

Huber損失模型預(yù)測(cè)結(jié)果對(duì)所選超參數(shù)不敏感。

分位數(shù)損失模型在合適的置信水平下能給出很好的估計(jì)。

最后,讓我們將所有損失函數(shù)都放進(jìn)一張圖,我們就得到了下面這張漂亮的圖片!它們的區(qū)別是不是一目了然了呢~

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4346

    瀏覽量

    63024
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8446

    瀏覽量

    133127

原文標(biāo)題:機(jī)器學(xué)習(xí)大牛最常用的5個(gè)回歸損失函數(shù),你知道幾個(gè)?

文章出處:【微信號(hào):CAAI-1981,微信公眾號(hào):中國(guó)人工智能學(xué)會(huì)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    verilog常用系統(tǒng)函數(shù)以及例子

    verilog常用系統(tǒng)函數(shù)以及例子
    發(fā)表于 08-15 15:49

    TensorFlow損失函數(shù)(定義和使用)詳解

    正如前面所討論的,在回歸中定義了損失函數(shù)或目標(biāo)函數(shù),其目的是找到使損失最小化的系數(shù)。本節(jié)將介紹如何在 TensorFlow 中定義損失
    發(fā)表于 07-28 14:38

    無(wú)法獲知TIVA里到底有什么函數(shù)以及這些函數(shù)的用法?

    初學(xué)TIVA,有一個(gè)地方讓我感到頭疼,就是無(wú)法獲知TIVA里到底有什么函數(shù)以及這些函數(shù)的用法(不需要源代碼,只想知道每一個(gè)函數(shù)的具體用途),不知道論壇里的大神有沒(méi)有相關(guān)的資源,可否發(fā)一份給我。我的郵箱是1431839557@qq
    發(fā)表于 08-26 08:34

    陀螺儀工作原理以及同種類(lèi)陀螺儀之間的差異

    文件第四步 編譯并下載,觀察實(shí)驗(yàn)現(xiàn)象【思考題】1、選擇題2、簡(jiǎn)答題【實(shí)驗(yàn)?zāi)康摹渴煜ね勇輧x工作原理,了解不同種類(lèi)陀螺儀之間的差異;熟悉MPU6050的輸出形式,熟悉MPU6050的通信方法;掌握S...
    發(fā)表于 08-06 06:08

    USART串口接收數(shù)據(jù)函數(shù)以及程序

    今天完善了USART串口接收數(shù)據(jù)函數(shù)以及程序,在每個(gè)USART外設(shè)上都添加了串口空閑中斷函數(shù)。其步驟如下:添加總線空閑中斷功能的優(yōu)點(diǎn):a)可以準(zhǔn)確地判斷出串口數(shù)據(jù)是否接收完畢,不需要額外添加
    發(fā)表于 08-13 06:29

    如何識(shí)別不同種類(lèi)的電阻?不同種類(lèi)電阻的特點(diǎn)是什么?

    在前一篇文章中,我們了解了與電阻器相關(guān)的各種性能指標(biāo)?,F(xiàn)在,讓我們了解一下不同類(lèi)型的電阻,以及它們是如何在各種性能指標(biāo)中得分的。這項(xiàng)評(píng)估將有助于確定不同類(lèi)型電阻器對(duì)特定電子應(yīng)用的適用性和相關(guān)性
    發(fā)表于 04-01 10:46

    RT-Thread提供了怎樣的定時(shí)器操作函數(shù)以及如何使用它們

    。具體定義如下:定時(shí)器管理前面介紹了定時(shí)器相關(guān)的理論知識(shí),那么 RT-Thread 提供了怎樣的定時(shí)器操作函數(shù),以及如何使用它們呢?RT-Thread 提供的定時(shí)器相關(guān)的操作包括:創(chuàng)建/初始化定時(shí)器啟動(dòng)
    發(fā)表于 04-02 11:41

    同種類(lèi)的二極管如何替換

    同種類(lèi)的二極管如何替換 1、檢波二極管的代換  檢波二極管損壞后,若無(wú)
    發(fā)表于 01-13 14:44 ?1w次閱讀

    同種類(lèi)激光在醫(yī)療行業(yè)的應(yīng)用分析

    隨著激光醫(yī) 療的越來(lái)越廣泛,人們對(duì)于各種激光醫(yī)療的種類(lèi)看的眼花繚亂,被一些廣告忽悠的以為一種激光就是萬(wàn)能的,能夠治療各種疾病。事實(shí)卻是各種不同種類(lèi)的激光所對(duì) 應(yīng)的激光醫(yī)療是有所不同的。不同波長(zhǎng),不同形式的激光所擅長(zhǎng)的醫(yī)療方面也是一樣的。下面就針對(duì)一些
    發(fā)表于 02-13 02:40 ?3946次閱讀

    基于Python 函數(shù)基礎(chǔ)、參數(shù)以及高級(jí)用法的解析

    簡(jiǎn)單地說(shuō),一個(gè)函數(shù)就是一組Python語(yǔ)句的組合,它們可以在程序中運(yùn)行一次或多次運(yùn)行。Python中的函數(shù)在其他語(yǔ)言中也叫做過(guò)程或子例程,那么這些被包裝起來(lái)的語(yǔ)句通過(guò)一個(gè)函數(shù)名稱(chēng)來(lái)調(diào)用
    的頭像 發(fā)表于 02-01 15:53 ?4591次閱讀
    基于Python <b class='flag-5'>函數(shù)</b>基礎(chǔ)、參<b class='flag-5'>數(shù)以及</b>高級(jí)用法的解析

    計(jì)算機(jī)視覺(jué)的損失函數(shù)是什么?

    損失函數(shù)在模型的性能中起著關(guān)鍵作用。選擇正確的損失函數(shù)可以幫助你的模型學(xué)習(xí)如何將注意力集中在數(shù)據(jù)中的正確特征集合上,從而獲得最優(yōu)和更快的收斂
    的頭像 發(fā)表于 03-13 16:30 ?3614次閱讀
    計(jì)算機(jī)視覺(jué)的<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>是什么?

    損失函數(shù)的簡(jiǎn)要介紹

    例如,你有一個(gè)神經(jīng)網(wǎng)絡(luò),通過(guò)該網(wǎng)絡(luò)可以獲取一些與房屋有關(guān)的數(shù)據(jù)并預(yù)測(cè)其價(jià)格。在這種情況下,你可以使用MSE(均方誤差)損失。基本上,在輸出為實(shí)數(shù)的情況下,應(yīng)使用此損失函數(shù)
    的頭像 發(fā)表于 04-17 10:01 ?3664次閱讀

    表示學(xué)習(xí)中7大損失函數(shù)的發(fā)展歷程及設(shè)計(jì)思路

    損失函數(shù)的發(fā)展歷程,以及它們演進(jìn)過(guò)程中的設(shè)計(jì)思路,主要包括contrastive loss、triplet loss、n-pair loss、infoNce loss、focal l
    的頭像 發(fā)表于 07-08 14:23 ?2300次閱讀

    靜電測(cè)試儀的不同種類(lèi)在不同領(lǐng)域的運(yùn)用

    靜電測(cè)試儀的不同種類(lèi)在不同領(lǐng)域的運(yùn)用,比如說(shuō):電視、廣播、電影等。這些都是需要使用到它們的地方。
    的頭像 發(fā)表于 04-13 10:12 ?1427次閱讀
    靜電測(cè)試儀的不<b class='flag-5'>同種類(lèi)</b>在不同領(lǐng)域的運(yùn)用

    RNN的損失函數(shù)與優(yōu)化算法解析

    RNN的損失函數(shù) RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))在處理序列數(shù)據(jù)的過(guò)程中,損失函數(shù)(Loss Function)扮演著重要的角色,它可以測(cè)量模型在訓(xùn)練中的表現(xiàn),并推動(dòng)模型朝著正確的方向?qū)W習(xí)。RN
    的頭像 發(fā)表于 11-15 10:16 ?658次閱讀