更新時間:2020年09月21日15時05分 來源:傳智播客 瀏覽次數(shù):
• Variance 是由于你使用的學習算法過于復雜而產生的錯誤。它反映的是模型每一次輸出結果與模型輸出期望之間的誤差,即模型的穩(wěn)定性。反應預測的波動情況。Variance 過高會導致算法對訓練數(shù)據(jù)的高緯度變化過于敏感,這樣會導致模型過度擬合數(shù)據(jù)。從而你的模型會從訓練集里帶來太多噪音,這會對測試數(shù)據(jù)有一定的好處。
關于Bias和Variance的圖形解釋:
Bias-Variance 的分解,本質上是通過在基礎數(shù)據(jù)集中添加偏差、方差和一點由噪聲引起的不可約誤差,來分解算法上的學習誤差。從本質上講,如果你使模型更復雜并添加更多變量,你將會失去一些 Bias 但獲得一些 Variance,這就是我們所說的權衡(tradeoff)。這也是為什么我們在建模的過程中,不希望這個模型同時擁有高的偏差和方差。
猜你喜歡:
學習人工智能AI進階班可以在哪些公司和行業(yè)進行工作?
下面是傳智播客公開的幾套人工智能視頻教程,如果感興趣可以下載學習。