最常見的原因:過擬合。
過擬合要說起來還不少,主要包括(深度學習中):
- 數據量小,網絡復雜;
- learningrate比較高,又沒有設置任何過擬合的機制;
解決辦法有:
- 簡化模型,利用現有深度學習手段增加數據(翻轉、平移、隨機裁剪、imgaug);
- 利用dropout層;
- 利用正則化。
這是機器學習中的一個過擬合現象,說明你的模型訓練不夠好,還需要改進。這并不是意味著你的模型預測準確率達到了上限。如果單純在訓練集就達到百分百的準確度完全是有辦法的,畢竟訓練集是已知的,難的就在于如何讓他在測試集依然有較高的預測率。
在機器學習中,過擬合現象并不少見。問題多半出現在模型訓練上,我知道我這樣說很籠統,但是沒辦法,我也不知道具體指的什么算法,就只能大致說說。你建模的方式中間會不會出現問題,是否可以加入一些參數進行調節,在你的訓練過程中一點點的進行調試。
本來機器學習這些都有很多的不確定性。所以要不斷地調試,要耐住性子。