欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于數(shù)據(jù)挖掘的十種算法原理講解

新機器視覺 ? 來源:CSDN博主 ? 2023-09-18 15:00 ? 次閱讀

一個優(yōu)秀的數(shù)據(jù)分析師不僅要掌握基本的統(tǒng)計、數(shù)據(jù)庫、數(shù)據(jù)分析方法、思維、數(shù)據(jù)分析工具和技能,還要掌握一些數(shù)據(jù)挖掘的思路,幫助我們挖掘出有價值的數(shù)據(jù),這也是數(shù)據(jù)分析專家和一般數(shù)據(jù)分析師的差距之一。

c55c2382-5214-11ee-a25d-92fbcf53809c.png

數(shù)據(jù)挖掘主要分為三類:分類算法、聚類算法和相關(guān)規(guī)則,基本涵蓋了當前商業(yè)市場對算法的所有需求。這三類包含了許多經(jīng)典算法。市面上很多關(guān)于數(shù)據(jù)挖掘算法的介紹都是深奧難懂的。今天我就用我的理解給大家介紹一下數(shù)據(jù)挖掘十大經(jīng)典算法的原理,幫助大家快速理解。

數(shù)據(jù)挖掘算法分類

1、連接分析:PageRank。

2、相關(guān)分析:Apriori。

3、分類算法:C4.5,簡單的貝葉斯,SVM,KNN,Adaboost,CART。

4、聚類算法:K-Means,EM。

#1PageRank

論文被引用的次數(shù)越多,其影響就越大。

網(wǎng)頁入口越多,入鏈質(zhì)量越高,網(wǎng)頁質(zhì)量越高。

PageRank原理

網(wǎng)頁的影響=阻尼影響+所有入鏈集合頁面的加權(quán)影響之和。

一個網(wǎng)頁的影響:所有進入鏈的頁面的加權(quán)影響之和。

一個網(wǎng)頁對其他網(wǎng)頁的影響是:自身影響/鏈接數(shù)量。

并非所有用戶都是通過跳轉(zhuǎn)鏈接來上網(wǎng)的,還有其他方式,比如直接輸入網(wǎng)站訪問。

因此需要設(shè)置阻尼因子,代表用戶根據(jù)跳轉(zhuǎn)鏈接上網(wǎng)的概率。

PageRank比喻說明

1、微博

一個人的微博粉絲數(shù)量不一定等于他的實際影響力,還要看粉絲的質(zhì)量。

如果是僵尸粉沒用,但是如果是很多大V或者明星關(guān)注的話,影響力很大。

2、店鋪經(jīng)營

顧客較多的店鋪質(zhì)量較好,但要看顧客是否是托。

3、興趣

對感興趣的人或事投入相對較多的時間,對其相關(guān)的人和事也投入一定的時間。被關(guān)注的人或事越多,其影響力/受眾就越大。

關(guān)于阻尼因子

1、通過鄰居的影響來判斷你的影響,但是如果你不能通過鄰居來訪問你,并不意味著你沒有影響力,因為可以直接訪問你,所以引入了阻尼因子的概念。

2、海洋除了河流流經(jīng)外,還有雨水,但下雨是隨機的。

3、提出阻尼系數(shù),或者解決一些網(wǎng)站顯然有大量的鏈(鏈),但影響很大。

出鏈例子:hao123導航網(wǎng)頁,出鏈多,入鏈少。

入鏈例子:百度谷歌等搜索引擎,入鏈很多,出鏈很少。

#2Apriori(相關(guān)分析)

關(guān)聯(lián)挖掘關(guān)系,從消費者交易記錄中發(fā)現(xiàn)商品之間的關(guān)系。

Apriori原理

1、支持度

商品組合出現(xiàn)的次數(shù)與總次數(shù)之比。

五次購買,四次購買牛奶,牛奶支持度為4/5=0.8。

五次購買,三次購買牛奶+面包,牛奶+面包支持3/5=0.6。

2、置信度

購買商品A,購買商品B的概率有多大,發(fā)生A時發(fā)生B的概率有多大。

買了四次牛奶,其中兩次買了啤酒,(牛奶->啤酒)的可信度是2/4=0.5。

三次買啤酒,其中兩次買牛奶,(啤酒->牛奶)的可信度為2/3-0.67。

3、提升度

衡量商品A的出現(xiàn),提高商品B出現(xiàn)概率的程度。

提升度(A->B)=置信度(A->B)/支持度(B)。

提升度>1,有提升;提升度=1,無變化;提升度1,下降。

4、項集頻繁

項集:可以是單一商品,也可以是商品組合。

頻繁的項集是支持度大于最小支持度的項集(MinSupport)。

計算過程

(1)從K=1開始,經(jīng)常篩選項集。

(2)在結(jié)果中,組合K+1項集,重新篩選。

(3)循環(huán)1,2步。K-1項集的結(jié)果是最終結(jié)果,直到找不到結(jié)果。

擴展:FP-Growth算法。

Apriori算法需要多次掃描數(shù)據(jù)庫,性能低,不適合大數(shù)據(jù)量。

FP-growth算法,通過構(gòu)建FP樹的數(shù)據(jù)結(jié)構(gòu),將數(shù)據(jù)存儲在FP樹中,只需在構(gòu)建FP樹時掃描數(shù)據(jù)庫兩次,后續(xù)處理就不需要再訪問數(shù)據(jù)庫。

比喻:啤酒和紙尿褲一起賣。

沃爾瑪通過數(shù)據(jù)分析發(fā)現(xiàn),在美國有嬰兒的家庭中,母親通常在家照顧孩子,父親去超市買尿布。

父親在買紙尿褲的時候,經(jīng)常會搭配幾瓶啤酒來獎勵自己。因此,超市試圖推出一種將啤酒和紙尿褲放在一起的促銷手段,這實際上大大增加了紙尿褲和啤酒的銷量。

#3數(shù)據(jù)挖掘算法:AdaBoost

AdaBoost原理

簡單來說,多個弱分類器訓練成強分類器。

將一系列弱分類器作為不同權(quán)重比組合的最終分類選擇。

計算過程

1、基本權(quán)重初始化。

2、獎勵權(quán)重矩陣,通過現(xiàn)有的分類器計算錯誤率,選擇錯誤率最低的分類器。

3、通過分類器權(quán)重公式,減少正確的樣本分布,增加錯誤的樣本分布,獲得新的權(quán)重矩陣和當前k輪的分類器權(quán)重。

4、將新的權(quán)重矩陣帶入上述步驟2和3,重新計算權(quán)重矩陣。

5、迭代N輪,記錄每輪最終分類器的權(quán)重,獲得強分類器。

AdaBoost算法比喻說明

1、利用錯題提高學習效率

做對的題,下次少做點,反正都會。

下次多做錯題,集中在錯題上。

隨著學習的深入,錯題會越來越少。

2、合理跨境提高利潤

蘋果公司,軟硬件結(jié)合,占據(jù)了手機市場的大部分利潤,兩個領(lǐng)域的知識結(jié)合產(chǎn)生了新的收益。

#4數(shù)據(jù)挖掘算法:C4.5(決策樹)

決策就是對一個問題有多個答案,選擇答案的過程就是決策。

C4.5算法用于產(chǎn)生決策樹,主要用于分類。

C4.5計算信息增益率(ID3算法計算信息增益)。

C4.5算法原理

C4.5算法選擇最有效的方法對樣本集進行分裂,分裂規(guī)則是分析所有屬性的信息增益率。

信息增益率越大,意味著這個特征分類的能力越強,我們應(yīng)該優(yōu)先選擇這個特征進行分類。

比喻說明:挑西瓜。

拿到一個西瓜,先判斷它的線條。如果很模糊,就覺得不是好瓜。如果很清楚,就覺得是好瓜。如果稍微模糊一點,就考慮它的密度。如果密度大于一定值,就認為是好瓜,否則就是壞瓜。

#5數(shù)據(jù)挖掘算法:CART(決策樹)

CART:Clasification And Regresion Tree,中文叫分類回歸樹,可以分類也可以回歸。

什么是分類樹?回歸樹?

分類樹:處理離散數(shù)據(jù),即數(shù)據(jù)類型有限的數(shù)據(jù),輸出樣本類別。

回歸樹:可以預(yù)測連續(xù)值,輸出一個值,值可以在一定范圍內(nèi)獲得。

回歸問題和分類問題的本質(zhì)是一樣的,就是對一個輸入做一個輸出預(yù)測,其區(qū)別在于輸出變量的類型。

CART算法原理

CART分類樹

類似于C4.5算法,但屬性選擇的指標是基尼系數(shù)。

基尼系數(shù)反映了樣本的不確定性。基尼系數(shù)越小,樣本之間的差異越小,不確定性越低。

分類是一個降低不確定性的過程。CART在構(gòu)建分類樹時,會選擇基尼系數(shù)最小的屬性作為屬性劃分。

回歸樹的CART

以均方誤差或絕對值誤差為標準,選擇均方誤差或絕對值誤差最小的特征。

分類和回歸數(shù)的比喻說明

分類:預(yù)測明天是陰、晴還是雨。

回歸:預(yù)測明天的溫度。

#6數(shù)據(jù)挖掘算法:簡單貝葉斯(條件概率)

簡單貝葉斯是一種簡單有效的常用分類算法,在未知物體出現(xiàn)的情況下,計算各類出現(xiàn)的概率,取概率最大的分類。

c5a83c04-5214-11ee-a25d-92fbcf53809c.png

算法原理

假設(shè)輸入的不同特征是獨立的,基于概率論原理,通過先驗概率P(A)、P(B)和條件概率計算出P(A|B)。

P(A):先驗概率,即在B事件發(fā)生前判斷A事件概率。

P(B|A):條件概率,事件B在另一個事件A已經(jīng)發(fā)生的條件下發(fā)生的概率。

P(A|B):后驗概率,即B事件發(fā)生后重新評估A事件概率。

比喻說明:對患者進行分類

給定一個新病人,一個打噴嚏的建筑工人,計算他感冒的概率。

c5e10516-5214-11ee-a25d-92fbcf53809c.png

#7數(shù)據(jù)挖掘算法:SVM

SVM:SupportVectorMachine,中文名為支持向量機,是一種常見的分類方法,最初是為二分類問題設(shè)計的,在機器學習中,SVM是一種有監(jiān)督的學習模式。

什么是監(jiān)督學習和無監(jiān)督學習?

監(jiān)督學習:即在現(xiàn)有類別標簽的情況下,對樣本數(shù)據(jù)進行分類。

無監(jiān)督學習:即在沒有類別標簽的情況下,樣本數(shù)據(jù)按照一定的方法進行分類,即聚類。分類好的類別需要進一步分析,才能知道每個類別的特點。

SVM算法原理

找到間隔最小的樣本點,然后擬合到這些樣本點的距離和最大的線段/平面。

硬間隔:數(shù)據(jù)線性分布,直接給出分類。

軟間隔:允許一定量的樣本分類錯誤。

核函數(shù):非線性分布的數(shù)據(jù)映射為線性分布的數(shù)據(jù)。

SVM算法比喻說明

1、分隔桌上的一堆紅球和籃球。

桌上的紅球和藍球用一根線分成兩部分。

2、分隔盒子里的一堆紅球和籃球。

盒子里的紅球和藍球用平面分成兩部分。

#8數(shù)據(jù)挖掘算法:KNN(聚類)

機器學習算法中最基本、最簡單的算法之一,可以通過測量不同特征值之間的距離來分類。

KNN算法原理

計算待分類物體與其他物體之間的距離,預(yù)測K最近鄰居數(shù)量最多的類別是該分類物體的類別。

計算步驟。

1.根據(jù)場景選擇距離計算方法,計算待分類物體與其他物體之間的距離。

2.統(tǒng)計最近的K鄰居。

3.對于K最近的鄰居,最多的類別被預(yù)測為分類對象的類別。

KNN算法比喻:近朱者赤,近墨者黑。

#9數(shù)據(jù)挖掘算法:K-Means(聚類)

K-means是一種無監(jiān)督學習、生成指定K類的聚類算法,將每個對象分配到最近的聚類中心。

c5f79808-5214-11ee-a25d-92fbcf53809c.png

K-Means算法原理

1.隨機選擇K點作為分類中心點。

2.將每個點分配到最近的類,從而形成K類。

3.重新計算每個類別的中心點。比如同一類別有10個點,那么新的中心點就是這10個點的中心點,一個簡單的方法就是取平均值。

K-Means算法比喻說明

1、選組長

每個人都隨機選擇K個組長,誰離得近,就是那個隊列的人(計算距離,近的人聚在一起)。

隨著時間的推移,組長的位置在變化(根據(jù)算法重新計算中心點),直到選擇真正的中心組長(重復,直到準確率最高)。

2、Kmeans和Knn的區(qū)別

Kmeans開班選組長,風水輪流轉(zhuǎn),直到選出最佳中心組長。

Knn小弟加隊,離那個班比較近,就是那個班。

#10數(shù)據(jù)挖掘算法:EM(聚類)

EM的英語是ExpectationMaximization,因此EM算法又稱最大期望算法,也是一種聚類算法。

EM和K-Means的區(qū)別:

EM是計算概率,KMeans是計算距離。

EM屬于軟聚類,同一樣本可能屬于多個類別;K-Means屬于硬聚類,一個樣本只能屬于一個類別。因此,前者可以發(fā)現(xiàn)一些隱藏的數(shù)據(jù)。

EM算法原理

先估計一個大概率的可能參數(shù),然后根據(jù)數(shù)據(jù)不斷調(diào)整,直到找到最終確認參數(shù)。

EM算法比喻說明:菜稱重

很少有人用稱重菜肴,然后計算一半的重量來平分。

大多數(shù)人的方法是:

1、先把一部分分成菜A,然后把剩下的分成菜B。

2、觀察菜A和B里的菜是否一樣多,哪個多就勻一點到少。

3、然后觀察碟子里的A和B是否一樣多,重復,直到重量沒有變化。

其中,數(shù)據(jù)挖掘之后就需要把收集的有用的數(shù)據(jù)進行可視化處理方便人們直觀感受數(shù)據(jù)的變化和重要性,通常數(shù)據(jù)分析師都會選擇一些可視化輔助工具幫助自己更好的完成數(shù)據(jù)分析工作,比如基礎(chǔ)的可視化工具有Excel、PPT和Xmind,但是對于企業(yè)來說,這些可視化工具提供的功能都太單一了,不能很好的滿足可視化效果,很多數(shù)據(jù)分析師會選擇Smartbi這款可視化工具,集齊數(shù)據(jù)挖掘、數(shù)據(jù)分析、數(shù)據(jù)可視化功能于一體的數(shù)據(jù)可視化工具,有著更方便的拖拉拽操作,能處理億級的數(shù)據(jù)量,還有著可視化效果更好的自助儀表盤,能更好的滿足現(xiàn)代企業(yè)報表需求。

到這里十大算法已經(jīng)簡單介紹完成了。事實上,一般來說,常用算法已經(jīng)被封裝到倉庫中,只要new生成相應(yīng)的模型。數(shù)據(jù)分析師不僅要學會怎么收集有用的數(shù)據(jù),也要對數(shù)據(jù)進行深度分析做出對企業(yè)更有利的決策,選擇可視化工具Smartbi能有效的提升數(shù)據(jù)分析師的生產(chǎn)力。這些是一些結(jié)合個人經(jīng)驗和網(wǎng)上資料的心得體會,希望能對你學習數(shù)據(jù)挖掘有幫助。

編輯:黃飛

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4631

    瀏覽量

    93406
  • 數(shù)據(jù)庫
    +關(guān)注

    關(guān)注

    7

    文章

    3851

    瀏覽量

    64717
  • 數(shù)據(jù)挖掘
    +關(guān)注

    關(guān)注

    1

    文章

    406

    瀏覽量

    24333
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8442

    瀏覽量

    133107
  • Adaboost算法
    +關(guān)注

    關(guān)注

    0

    文章

    5

    瀏覽量

    1346

原文標題:一文弄懂數(shù)據(jù)挖掘的十大算法,數(shù)據(jù)挖掘算法原理講解

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    十種精密全波整流電路

    十種精密全波整流電路
    發(fā)表于 08-09 15:09

    請問怎么做一個跑馬燈有十種模式,第十種模式有三音樂,可加速減速和無線遙控?

    我現(xiàn)在想做一個跑馬燈,這個跑馬燈有十種模式,第十種模式要求有三音樂。,還得有數(shù)碼管顯示第幾種模式??梢詿o線遙控。求哪位大神可以幫我。小女子必有重謝。
    發(fā)表于 07-19 04:49

    數(shù)據(jù)挖掘大經(jīng)典算法,你都知道哪些!

    的所有需求。而這三類里又包含許多經(jīng)典算法。而今天,小編就給大家介紹下數(shù)據(jù)挖掘中最經(jīng)典的算法,希望它對你有所幫助。一、 分類決策樹
    發(fā)表于 11-06 17:02

    數(shù)據(jù)挖掘算法有哪幾種?

    針對現(xiàn)有數(shù)據(jù)挖掘體系結(jié)構(gòu)松散揭合、算法運行效率不高的問題,提出了嵌入式數(shù)據(jù)挖掘模型。該模型實現(xiàn)了算法
    發(fā)表于 03-11 06:36

    十種精密全波整流電路原圖分享

    十種精密全波整流電路原圖,大家點評下
    發(fā)表于 11-27 06:47

    常用數(shù)據(jù)挖掘算法研究

    為了給企業(yè)快速、低成本構(gòu)建客戶管理系統(tǒng)、CRM系統(tǒng)、數(shù)據(jù)挖掘應(yīng)用系統(tǒng)提供參考與借鑒,研究了常用數(shù)據(jù)挖掘算法。通過研究
    發(fā)表于 06-08 16:06 ?0次下載
    常用<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>挖掘</b><b class='flag-5'>算法</b>研究

    十種方法能保護云數(shù)據(jù)安全

    十種方法能保護云數(shù)據(jù)安全
    發(fā)表于 01-14 12:00 ?12次下載

    數(shù)據(jù)挖掘常用的算法

    數(shù)據(jù)挖掘常用的算法包括: C4.5 ,K-means算法 3.SVM 4.Apriori ,EM:最大期望值法,pagerank:是go
    發(fā)表于 12-29 11:26 ?2.7w次閱讀

    大經(jīng)典數(shù)據(jù)挖掘算法—Apriori

    關(guān)聯(lián)分析是一類非常有用的數(shù)據(jù)挖掘方法,能從數(shù)據(jù)挖掘出潛在的關(guān)聯(lián)關(guān)系。Apriori算法是一
    發(fā)表于 02-04 09:37 ?3785次閱讀
    <b class='flag-5'>十</b>大經(jīng)典<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>挖掘</b><b class='flag-5'>算法</b>—Apriori

    數(shù)據(jù)挖掘大經(jīng)典算法,你都知道哪些!

    當前時代大數(shù)據(jù)炙手可熱,數(shù)據(jù)挖掘也是人人有所耳聞,但是關(guān)于數(shù)據(jù)挖掘更具體的
    發(fā)表于 11-06 17:07 ?2.1w次閱讀

    數(shù)據(jù)挖掘原理與算法

    數(shù)據(jù)挖掘原理與算法介紹。
    發(fā)表于 06-01 14:24 ?5次下載

    十種pandas數(shù)據(jù)編碼的方法分享

    題主表示pandas用起來很亂,事實真的如此嗎?本文就將先如何利用pandas來行數(shù)據(jù)轉(zhuǎn)換/編碼的十種方案,最后再回答這個問題。
    的頭像 發(fā)表于 05-10 15:33 ?1360次閱讀

    單片機中十種常見的ADC濾波算法

    單片機主要作用是控制外圍的器件,并實現(xiàn)一定的通信和數(shù)據(jù)處理。但在某些特定場合,不可避免地要用到數(shù)學運算,盡管單片機并不擅長實現(xiàn)算法和進行復雜的運算。下面給大家介紹十種常見的ADC濾波算法
    發(fā)表于 10-02 15:21 ?1566次閱讀

    數(shù)據(jù)挖掘算法

    數(shù)據(jù)挖掘算法 數(shù)據(jù)挖掘是目前最熱門的技術(shù)和概念之一。數(shù)據(jù)
    的頭像 發(fā)表于 08-17 16:29 ?2541次閱讀

    一文弄懂數(shù)據(jù)挖掘算法,數(shù)據(jù)挖掘算法原理講解

    數(shù)據(jù)挖掘主要分為三類:分類算法、聚類算法和相關(guān)規(guī)則,基本涵蓋了當前商業(yè)市場對算法的所有需求。這三類包含了許多經(jīng)典
    的頭像 發(fā)表于 09-14 15:56 ?1211次閱讀
    一文弄懂<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>挖掘</b>的<b class='flag-5'>十</b>大<b class='flag-5'>算法</b>,<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>挖掘</b><b class='flag-5'>算法</b>原理<b class='flag-5'>講解</b>