深度学习调参有哪些技巧?

发布时间:2021-06-23  栏目:人工智能, 深度学习  评论:0 Comments

自己的总结:

– 一般如果模型越深,那么针对同样的初始化方法,需要的学习率越小。因为模型越深训练时越容易梯度爆炸或者消失,所以相应的,学习率需要小一点

– 加入BN层或者dropout,可以使初始化方法和学习率不那么重要【实验验证过;理论原因是?】

– BN和dropout一般不同时使用【BN和Dropout单独使用都能减少过拟合并加速训练速度,但如果一起使用的话并不会产生1+1>2的效果,相反可能会得到比单独使用更差的效果。Dropout会扰乱BN所做的偏差矫正,一般尝试把Dropout放在BN层后面】

 

 

 

 

其他参考:

都是些自己知道或者用过,但是没有总结过的东西,不了解一下被问到时临时难免还是会有点懵:

https://www.zhihu.com/question/25097993/answer/651617880

留下评论

You must be logged in to post a comment.

相册集

pix pix pix pix pix pix

关于自己

杨文龙,微软Principal Engineering Manager, 曾在各家公司担任影像技术资深总监、数据科学团队资深经理、ADAS算法总监、资深深度学习工程师等职位,热爱创新发明,专注于人工智能、深度学习、图像处理、机器学习、算法、自然语言处理及软件等领域,目前发明有国际专利19篇,中国专利28篇。

联系我

个人技术笔记

welonshen@gmail.com

2015 in Shanghai