2020-10-19 群體感知 -確保資料可行性

Turbo Lee發表於2020-10-19

引言

儘管我們可以通過一系列的激勵方法和信用機制來保證更多的使用者參與群體感知,保證提供資料的可靠性,但是,由於多種因素的影響,停車位資訊的提供依然無法十分準確。依然會存在使用者根據系統提供的車位資訊到達目的地之後無法停車的情況。這種情況沒有辦法杜絕,但可以通過一些方法來降低發生的概率。如使用機器學習的方法對於停車位空閒資訊進行預測,如利用推薦演算法模型綜合多種因素進行推薦。

車位預測

預測系統
在這裡插入圖片描述
預測系統的基本思想是,將採集的大量資料(X,Y)經過學習系統,得到模型。這樣對於其他的測試x,就可根據模型得到其對應的y,達到預測的目的。

機器學習三要素:
在這裡插入圖片描述
模型是我們要得到的目標函式,是總結資料的內在規律,用函式來描述的系統。策略是選取最優模型的評價準則,是預測值和真實值之間的差距。演算法是選取最優模型的具體方法,也即求得更加靠近真實值的模型的方法。

以線性迴歸為例

在這裡插入圖片描述

模型:
在這裡插入圖片描述
策略(損失函式):均方誤差
演算法:最小二乘法,梯度下降法

最小二乘法:

在這裡插入圖片描述
在這裡插入圖片描述

梯度下降法
目的:梯度下降(gradient descent)在機器學習中應用十分的廣泛,不論是線上性迴歸還是Logistic迴歸中,它的主要目的是通過迭代找到目標函式的最小值,或者收斂到最小值。
梯度的方向是函式在給定點上升最快的方向,那麼梯度的反方向就是函式在給定點下降最快的方向,這正是我們所需要的。所以我們只要沿著梯度的方向一直走,讓函式的未知數隨著梯度的方向運動,就能走到區域性的最低點!
在這裡插入圖片描述

以線性迴歸為例
迴歸模型:
在這裡插入圖片描述

損失函式為均方誤差損失函式
損失函式:讓函式的未知數隨著梯度的方
明確一下,未知數不是x,而是Θ,通過迭代Θ,達到損失函式的最小值。
在這裡插入圖片描述
迭代公式:
在這裡插入圖片描述

文獻舉例

利用基於時間的預測方法來預測車位的飽和度
1.獲取原始圖片資料,經過影像處理,得到初始資料欄位,及初始車位飽和度預測值X1
在這裡插入圖片描述
2.由大量基於時間的採集歷史資料,獲得非線性時間預測模型,得到基於事件的飽和度預測值X2
在這裡插入圖片描述
3.為了提高預測的精準度,結合由使用者採集的資訊進一步預測,得到最終預測值,其中X1為初始預測值,X2為基於時間的飽和度預測值,X3為採集空車位數量
在這裡插入圖片描述
停車位推薦模型
通過綜合考慮多種影響停車位選擇的因素,建立停車行為選擇模型,從而為使用者提供更為理想的車位。
在這裡插入圖片描述
綜合這些影響停車位選擇行為的因素,得到推薦模型
在這裡插入圖片描述
其中w值,由遺傳演算法得到。

相關文章