欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

支持向量機(jī)(SVM)的定義、分類及工作流程圖詳解

lviY_AI_shequ ? 2017-11-30 10:59 ? 次閱讀

關(guān)于SVM

可以做線性分類、非線性分類、線性回歸等,相比邏輯回歸、線性回歸、決策樹等模型(非神經(jīng)網(wǎng)絡(luò))功效最好

傳統(tǒng)線性分類:選出兩堆數(shù)據(jù)的質(zhì)心,并做中垂線(準(zhǔn)確性低)——上圖左

SVM:擬合的不是一條線,而是兩條平行線,且這兩條平行線寬度盡量大,主要關(guān)注距離車道近的邊緣數(shù)據(jù)點(diǎn)(支撐向量support vector),即large margin classification——上圖右

使用前,需要對數(shù)據(jù)集做一個scaling,以做出更好的決策邊界(decision boundary)

但需要容忍一些點(diǎn)跨越分割界限,提高泛化性,即softmax classification

在sklearn中,有一個超參數(shù)c,控制模型復(fù)雜度,c越大,容忍度越小,c越小,容忍度越高。c添加一個新的正則量,可以控制SVM泛化能力,防止過擬合。(一般使用gradsearch)

SVM特有損失函數(shù)Hinge Loss

(liblinear庫,不支持kernel函數(shù),但是相對簡單,復(fù)雜度O(m*n))

同SVM特點(diǎn)吻合,僅考慮落在分類面附近和越過分類面到對方領(lǐng)域的向量,給于一個線性懲罰(l1),或者平方項(xiàng)(l2)

importnumpyasnpfromsklearnimportdatasetsfromsklearn.pipelineimportPipelinefromsklearn.preprocessingimportStandardScalerfromsklearn.svmimportLinearSVCiris = datasets.load_iris()X = iris["data"][:,(2,3)]y = (iris["target"]==2).astype(np.float64)svm_clf = Pipeline(( ("scaler",StandardScaler()), ("Linear_svc",LinearSVC(C=1,loss="hinge")), ))svm_clf.fit(X,y)print(svm_clf.predit([[5.5,1.7]]))

對于nonlinear數(shù)據(jù)的分類

有兩種方法,構(gòu)造高維特征,構(gòu)造相似度特征

使用高維空間特征(即kernel的思想),將數(shù)據(jù)平方、三次方。。映射到高維空間上

fromsklearn.preprocessingimportPolynomialFeaturespolynomial_svm_clf = Pipeline(( ("poly_features", PolynomialFeatures(degree=3)), ("scaler", StandardScaler()), ("svm_clf", LinearSVC(C=10, loss="hinge")) ))polynomial_svm_clf.fit(X, y)

這種kernel trick可以極大地簡化模型,不需要顯示的處理高維特征,可以計(jì)算出比較復(fù)雜的情況

但模型復(fù)雜度越強(qiáng),過擬合風(fēng)險越大

SVC(基于libsvm庫,支持kernel函數(shù),但是相對復(fù)雜,不能用太大規(guī)模數(shù)據(jù),復(fù)雜度O(m^2 *n)-O(m^3 *n))

可以直接使用SVC(coef0:高次與低次權(quán)重)

fromsklearn.svmimportSVCpoly_kernel_svm_clf = Pipeline(( ("scaler", StandardScaler()), ("svm_clf", SVC(kernel="poly", degree=3, coef0=1, C=5)) ))poly_kernel_svm_clf.fit(X, y)

添加相似度特征(similarity features)

例如,下圖分別創(chuàng)造x1,x2兩點(diǎn)的高斯分布,再創(chuàng)建新的坐標(biāo)系統(tǒng),計(jì)算高斯距離(Gaussian RBF Kernel徑向基函數(shù))

gamma(γ)控制高斯曲線形狀胖瘦,數(shù)據(jù)點(diǎn)之間的距離發(fā)揮更強(qiáng)作用

rbf_kernel_svm_clf= Pipeline(( ("scaler", StandardScaler()), ("svm_clf", SVC(kernel="rbf", gamma=5, C=0.001)) ))rbf_kernel_svm_clf.fit(X, y)

如下是不同gamma和C的取值影響

SGDClassifier(支持海量數(shù)據(jù),時間復(fù)雜度O(m*n))

SVM Regression(SVM回歸)

盡量讓所用instance都fit到車道上,車道寬度使用超參數(shù)控制,越大越寬

使用LinearSVR

fromsklearn.svmimportLinearSVRsvm_reg = LinearSVR(epsilon=1.5)svm_reg.fit(X, y)

使用SVR

fromsklearn.svmimportSVRsvm_poly_reg = SVR(kernel="poly", degree=2, C=100, epsilon=0.1)svm_poly_reg.fit(X, y)

數(shù)學(xué)原理

w通過控制h傾斜的角度,控制車道的寬度,越小越寬,并且使得違反分類的數(shù)據(jù)點(diǎn)更少

hard margin linear SVM

優(yōu)化目標(biāo):,并且保證

soft margin linear SVM

增加一個新的松弛變量(slack variable),起正則化作用

優(yōu)化目標(biāo):,并且保證

放寬條件,即使有個別實(shí)例違反條件,也懲罰不大

使用拉格朗日乘子法進(jìn)行計(jì)算,α是松弛項(xiàng)后的結(jié)果

計(jì)算結(jié)果:取平均值

KernelizedSVM

由于

故可先在低位空間里做點(diǎn)積計(jì)算,再映射到高維空間中。

下列公式表示,在高維空間計(jì)算可用kernel trick方式,直接在低維上面計(jì)算


幾個常見的kernal及其function

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • SVM
    SVM
    +關(guān)注

    關(guān)注

    0

    文章

    154

    瀏覽量

    32552
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8442

    瀏覽量

    133110

原文標(biāo)題:【機(jī)器學(xué)習(xí)】支持向量機(jī)(SVM)

文章出處:【微信號:AI_shequ,微信公眾號:人工智能愛好者社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    機(jī)器學(xué)習(xí)分類算法之支持向量機(jī)SVM

    統(tǒng)計(jì)學(xué)習(xí)方法C++實(shí)現(xiàn)之六 支持向量機(jī)SVM
    發(fā)表于 04-29 10:47

    支持向量機(jī)SVM

    支持向量機(jī)SVM
    發(fā)表于 05-20 10:21

    怎么理解支持向量機(jī)SVM

    支持向量機(jī)SVM理解篇
    發(fā)表于 06-14 09:05

    軟件測試工作流程圖

    軟件測試工作流程圖 軟件在開發(fā)過程中共有五個版本,分別是Base版、Alpha版、Beta版、RC版、Release版,每個版本的開發(fā)中都需
    發(fā)表于 10-22 12:58 ?4392次閱讀
    軟件測試<b class='flag-5'>工作流程圖</b>

    財務(wù)管理工作流程圖

    財務(wù)管理工作流程圖
    發(fā)表于 03-30 20:42 ?8338次閱讀

    分類孿生支持向量機(jī)研究進(jìn)展

    擴(kuò)展為多分類方法并提出了多種多分類孿生支持向量機(jī),多分類孿生
    發(fā)表于 12-19 11:32 ?0次下載

    基于支持向量機(jī)SVM引入雷達(dá)故障預(yù)診斷

    本文將支持向量機(jī)SVM)引入雷達(dá)故障預(yù)診斷,實(shí)現(xiàn)了雷達(dá)進(jìn)入潛伏性故障時就提前診斷。很好地解決雷達(dá)故障診斷流程復(fù)雜、診斷時間長等問題。這是由
    發(fā)表于 12-20 16:43 ?0次下載

    基于支持向量機(jī)的噪聲分類與補(bǔ)償

    是要盡量降低或消除此類不匹配的影響。 針對現(xiàn)有車載語音識別系統(tǒng)在實(shí)際應(yīng)用環(huán)境下噪聲魯棒性較差的問題,提出一種基于支持向量機(jī)SVM)的噪聲分類
    發(fā)表于 02-23 11:11 ?0次下載
    基于<b class='flag-5'>支持</b><b class='flag-5'>向量</b><b class='flag-5'>機(jī)</b>的噪聲<b class='flag-5'>分類</b>與補(bǔ)償

    人工智能之機(jī)器學(xué)習(xí)Analogizer算法-支持向量機(jī)SVM

    支持向量機(jī)SVM)是由Vapnik領(lǐng)導(dǎo)的AT&T Bell實(shí)驗(yàn)室研究小組在1995年提出的一種新的非常有潛力的分類技術(shù)。剛開始主要針對二值
    發(fā)表于 05-29 19:11 ?2082次閱讀

    OpenCV機(jī)器學(xué)習(xí)SVM支持向量機(jī)分類程序免費(fèi)下載

    本文檔的主要內(nèi)容詳細(xì)介紹的是OpenCV機(jī)器學(xué)習(xí)SVM支持向量機(jī)分類程序免費(fèi)下載。
    發(fā)表于 10-09 11:45 ?5次下載

    什么是支持向量機(jī) 什么是支持向量

    支持向量機(jī),英文為Support Vector Machine,簡稱SV機(jī)(論文中一般簡稱SVM)。它是一 種監(jiān)督式學(xué)習(xí)的方法,它廣泛的應(yīng)用
    發(fā)表于 01-28 16:01 ?2.2w次閱讀
    什么是<b class='flag-5'>支持</b><b class='flag-5'>向量</b><b class='flag-5'>機(jī)</b> 什么是<b class='flag-5'>支持</b><b class='flag-5'>向量</b>

    工作流程圖怎么用?有哪些繪制工作流程圖的軟件

    工作流程圖是清晰地展示工作中各個環(huán)節(jié)的流程圖圖示,主要用于工作活動和效率的管理。工作流程圖這種圖示方法具有直觀描述性、簡潔性、可操作性和指導(dǎo)
    的頭像 發(fā)表于 07-28 14:22 ?3607次閱讀

    圖解支持向量機(jī)SVM

    作者說:我以前一直沒有真正理解支持向量機(jī),直到我畫了一張。 1. 問題 支持向量
    的頭像 發(fā)表于 12-26 11:46 ?2349次閱讀

    支持向量機(jī)SVM的圖解分析與研究

    支持向量機(jī)SVM)旨在解決「分類」問題。數(shù)據(jù)通常包含一定數(shù)量的條目/行/點(diǎn)?,F(xiàn)在,我們想對每個數(shù)據(jù)點(diǎn)進(jìn)行
    的頭像 發(fā)表于 10-10 17:41 ?1271次閱讀

    27個非常經(jīng)典的設(shè)備工作流程圖

    今天給大家分享27個非常經(jīng)典的設(shè)備工作流程圖解。
    的頭像 發(fā)表于 06-02 17:16 ?1867次閱讀
    27個非常經(jīng)典的設(shè)備<b class='flag-5'>工作流程圖</b>解