基于三個UWB錨點基站,采集近5萬條數(shù)據(jù),分別采用BPNN和LSTM兩種神經(jīng)網(wǎng)絡(luò)訓(xùn)練和預(yù)測模型,實現(xiàn)目標區(qū)域的判斷;
實驗共使用了11741條數(shù)據(jù),按照8 : 2的比例劃分為訓(xùn)練集與測試集
模型采用的是3層BPNN,隱含層為3,維度變化依次為3->32->16->4
損失函數(shù)使用的是交叉熵,優(yōu)化器選擇的是Adam,學(xué)習(xí)率為0.0001
訓(xùn)練輪數(shù)為100,為了提高訓(xùn)練效率和泛化能力,將32個數(shù)據(jù)作為一批,按批進行訓(xùn)練,在100輪訓(xùn)練之后,訓(xùn)練損失逐漸收斂于0.005;
在測試集中的2349個數(shù)據(jù)中的測試準確率為94.85%
LSTM模型
數(shù)據(jù)歸一化與劃分,使用numpy的最大值函數(shù)獲取每個特征列的最大值,并將數(shù)據(jù)進行預(yù)處理,使用最大值歸一化并將數(shù)據(jù)按照8:2的比例進行模型的訓(xùn)練與預(yù)測。
模型的構(gòu)建:使用了Keras來創(chuàng)建模型。模型結(jié)構(gòu)包括一個LSTM層,它有32個神經(jīng)元,激活函數(shù)為Relu。Dropout層設(shè)置為20%的丟棄比率。全連接層輸出4個神經(jīng)元,使用softmax激活函數(shù)進行多類分類。對模型進行編譯,使用Adam優(yōu)化器和分類交叉熵損失函數(shù)。之后將模型進行擬合,指定批量大小(batch_size)為20,訓(xùn)練次數(shù)(epochs)為100。
經(jīng)過100輪訓(xùn)練之后,模型的訓(xùn)練準確率達到了95.52%,損失函數(shù)為0.1134.測試數(shù)據(jù)約3000條的測試準確率為95.99%。
后續(xù)會進一步基于兩種神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)模型,通過減少錨點以及增加時間序列和信號能量以及信號到達角輸入變量,觀察預(yù)測模型的準確率;
審核編輯:湯梓紅
-
算法
+關(guān)注
關(guān)注
23文章
4631瀏覽量
93438 -
UWB
+關(guān)注
關(guān)注
32文章
1112瀏覽量
61437 -
模型
+關(guān)注
關(guān)注
1文章
3352瀏覽量
49281 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5519瀏覽量
121617
發(fā)布評論請先 登錄
相關(guān)推薦
目前主流的深度學(xué)習(xí)算法模型和應(yīng)用案例
![目前主流的<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>算法</b>模型和應(yīng)用案例](https://file1.elecfans.com/web2/M00/BA/8C/wKgZomWUxmaAFZqeAAHwLyOSSXg049.png)
深度學(xué)習(xí)算法聯(lián)合綜述
深度學(xué)習(xí)算法和應(yīng)用涌現(xiàn)的背后,是各種各樣的深度學(xué)習(xí)工具和框架
基于遷移深度學(xué)習(xí)的雷達信號分選識別
機器學(xué)習(xí)和深度學(xué)習(xí)算法流程
什么是深度學(xué)習(xí)中優(yōu)化算法
![什么是<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中優(yōu)化<b class='flag-5'>算法</b>](https://file.elecfans.com/web2/M00/90/60/poYBAGPp5o6AOU83AAALUNM1NRc735.jpg)
評論