深度学习-李沐-第四节-Dropout暂退法
Dropout暂退法
暂退法的思想是在隐藏层中丢弃某些单元,以减少模型对某些特征的依赖。
删除了h2和h5,因此输出的计算不再依赖于h2或h5,并且它们各⾃的梯度在执⾏反向传播时也会消失。这样,输出层的计算不能过度依赖于h1, . . . , h5的任何⼀个元素。
实现神经元的丢弃
假设某个神经元被丢弃的概率为p,那么该神经元的输出可以表示为:
计算h{}’期望值:
这种插入方式使得在插入了噪声后,每一层的期望等于没有插入噪声时的值。

- 标题: 深度学习-李沐-第四节-Dropout暂退法
- 作者: moye
- 创建于 : 2022-08-16 15:00:46
- 更新于 : 2025-12-11 14:39:48
- 链接: https://www.kanes.top/2022/08/16/深度学习-李沐-第四节-Dropout暂退法/
- 版权声明: 本文章采用 CC BY-NC-SA 4.0 进行许可。
评论