1
A
回答
0
退出只是防止网络过度配合的正则化技术。它在训练期间以给定概率将节点的权重设置为零,从而减少每次迭代训练所需的权重数量。它可以应用于网络的每一层(不管它是完全连接的还是卷积的),或者在选定的层之后。应用哪些图层丢失仅仅是为了获得最佳性能的设计决策。
2
通常,完全连接的图层上会放置丢失,这是因为它们是具有更多参数的图像,因此它们可能会过度地自我调整以导致过度拟合。
但是,由于它是一种随机正则化技术,因此您可以将它放在任何地方。通常,它被放置在具有大量参数的图层上,但没有人拒绝将它应用到卷积图层(对于fc图层而言,参数的数量较少)。
此外,丢弃概率应根据所需的正则化影响而改变。
经验法则是当应用于完全连接的层时将保持概率(1-丢弃概率)设置为0.5,同时将其应用于更大数量(通常为0.8,0.9)时应用于卷积层。
请注意:因为在每个机器学习框架中,退出都是以其“倒置”版本实现的,所以您应该降低学习速度以克服退出概率给学习速率带来的“推动力”。 欲了解更全面的评估:https://pgaleone.eu/deep-learning/regularization/2017/01/10/anaysis-of-dropout/
+0
非常感谢您,我已阅读您发送的链接。我会尝试这个概率。两层的分布。 – TheWho
0
相关问题
- 1. 如何为TF完全连接的完全连接图层添加dropout?
- 2. 卷积网络:完全连接层中的退出
- 3. 具有解卷积层的Concat FC层
- 4. 完全卷积图层可以用于分割任务吗?
- 5. 第二卷积层的输入尺寸?
- 6. 了解Caffe卷积层
- 7. 卷积层输出尺寸
- 8. 完全连接层的尺寸?
- 9. java中的完全连接层,Tensorflow
- 10. 2层或3层:哪个更安全?
- 11. MVP - 演示者和服务层 - 在哪里声明服务层
- 12. 如何在使用Tensorflow的卷积网络中的完全连接层之后添加回归头?
- 13. Keras - 如何共享CNN的卷积部分与2个独立的完全连接图层
- 14. 连接两列在哪里
- 15. 修正Tensorflow中的去卷积层
- 16. 3通道图像的卷积层
- 17. Keras卷积层输出的可视化
- 18. 卷积层错配Keras维数
- 19. Keras中的卷积层中的权重
- 20. 使用Tensorflow实现卷积图层
- 21. 3层应用程序中的安全性:在哪一层?
- 22. 如何在skflow中创建非完全连接的图层?
- 23. 在哪里把连接字符串放在一个n层应用程序中?
- 24. 为什么我们称CNN“顶层”中的完全连接图层?
- 25. 应将“@Transactional”放在哪里服务层或DAO
- 26. Scapy - 在两个其他层之间插入数据包层
- 27. 哪里(层)应该使用DI?
- 28. 尺寸的输入,以从卷积层中的CNN
- 29. 关于使用卷积层的输出作为LSTM的输入
- 30. 如何使用截断SVD来减少完全连接(`“InnerProduct”`)层
非常感谢您 – TheWho