-
Notifications
You must be signed in to change notification settings - Fork 80
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
习题2-1 #16
Comments
2.1
|
二分类呢?类别为0和1,模型预测输出一个概率p (0<=p<=1),这样的话,使用平方损失,没有什么不合适啊(起码直观上是这样的) |
loss function 非凸 |
2.9: 试分析什么因素会导致模型出现图2.6所是的高偏差和高方差的情况。
高方差原因:
【注】:单纯增加训练集数目一般不会减小高偏差,但是会减小高方差。 |
感觉这个答案是正解,2L不太对。对于分类任务来说,预测到其他类别的损失一样是没问题的,但是预测到3比预测到2更优是不能接受的。 |
2.1
这里有个具体的例子,是在NNDL书中3.6节讲到二分类问题时损失函数的对比,通过这个例子我们可以发现,除了平方损失,其他损失函数都 比较适合于二分类问题。由于截图上传后无法显示,所以大家可以自己看下3.6节的例子。 |
对2.2中的权重可以从非参的角度理解。例如在局部线性核估计中,r^{(n)}即是核密度K((X_i-x)/h) 。其思想是:预测x点处的y值时,距离x较近的点在预测中应该有更大的权重。 |
2.1 这个还是不好说的,毕竟NN的可解释性还在探索中,MSE的目标是使得预测正确即可,其实也是达到了理想的预期,我觉得吧,还是那句话,“没有免费的午餐”。 |
对于二分类问题,如果label=1,那么预测值0.9就是要比0.8要好啊 @xh286286 |
额 是可以的,mse 至少可以做二分类。是可以被证明的。 |
①目标函数不一致:分类问题的目标是将样本正确分类到不同的类别中,而不是预测一个连续值。平方损失函数的目标是最小化预测值与真实值之间的平方差异,这与分类问题的目标不一致。 |
平方损失函数(MSE)在分类问题中不适用,主要原因可以通俗地解释为以下几点:分类是“非黑即白”的:在分类问题中,比如判断邮件是不是垃圾邮件,答案是“是”或“不是”,没有中间值。但平方损失函数却把预测值和真实值之间的差距“平方”了,这意味着即使你猜得差不多,只要不完全正确,损失仍然很大,这不符合分类问题的实际。 “大错特错”和“小错”没区别:如果你预测一个类别是90%,而实际是80%,和你预测是10%,而实际是80%,在使用平方损失函数时,这两种情况的损失是一样的。这在分类问题中是不合理的,因为第一种情况明显比第二种情况更接近真实值。 平方损失函数会将小的预测错误放大成大的损失,这可能导致模型在训练过程中过于关注那些预测错误很大的少数样本,而对于整体分类性能的提升并不利。 当预测和真实值差距很大时,平方损失函数的梯度也会很大,导致在训练过程中梯度下降“跑得快”,但容易“跑过头”或者“跑偏”。当差距很小时,梯度又很小,导致学习过程“跑得慢”。 “异常值”影响力太大:分类问题中的异常值(即离群点)会导致平方损失函数的值急剧增加,从而在优化过程中对模型的训练产生不公平的影响。 |
分析为什么平方损失函数不适用于分类问题.
分类问题中的标签,是没有连续的概念的。每个标签之间的距离也是没有实际意义的,所以预测值和标签两个向量之间的平方差这个值不能反应分类这个问题的优化程度。
比如分类 1,2,3, 真实分类是1, 而被分类到2和3错误程度应该是一样的, 但是平方损失函数的损失却不相同.
The text was updated successfully, but these errors were encountered: