欧美一区二区三区,国内熟女精品熟女A片视频小说,日本av网,小鲜肉男男GAY做受XXX网站

SVM和邏輯回歸有何區別和聯系?

林雅南2年前18瀏覽0評論

這個真不懂,從百度上搬了一個過來。我看了半天,還是看不懂。有懂行的過來用普通人理解的語言翻譯一下。

兩種方法都是常見的分類算法,從目標函數來看,區別在于邏輯回歸采用的是logisticalloss,svm采用的是hingeloss。這兩個損失函數的目的都是增加對分類影響較大的數據點的權重,減少與分類關系較小的數據點的權重。SVM的處理方法是只考慮supportvectors,也就是和分類最相關的少數點,去學習分類器。而邏輯回歸通過非線性映射,大大減小了離分類平面較遠的點的權重,相對提升了與分類最相關的數據點的權重。兩者的根本目的都是一樣的。此外,根據需要,兩個方法都可以增加不同的正則化項,如l1,l2等等。所以在很多實驗中,兩種算法的結果是很接近的。

但是邏輯回歸相對來說模型更簡單,好理解,實現起來,特別是大規模線性分類時比較方便。而SVM的理解和優化相對來說復雜一些。但是SVM的理論基礎更加牢固,有一套結構化風險最小化的理論基礎,雖然一般使用的人不太會去關注。還有很重要的一點,SVM轉化為對偶問題后,分類只需要計算與少數幾個支持向量的距離,這個在進行復雜核函數計算時優勢很明顯,能夠大大簡化模型和計算量。