【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第11章 训练深层神经网络(中)
梯度裁剪
减少梯度爆炸问题的一种常用技术是在反向传播过程中简单地剪切梯度,使它们不超过某个阈值(这对于递归神经网络是非常有用的;参见第 14 章)。 这就是所谓的梯度裁剪。一般来说,人们更喜欢批量标准化,但了解梯度裁剪以及如何实现它仍然是有用的。
在 TensorFlow 中,优化器的minimize()
函数负责计算梯度并应用它们,所以您必须首先调用优化器的compute_gradients()
方法,然后使用clip_by_value()
函数创建一个裁剪梯度的操作,最后 创建一个操作来使用优化器的apply_gradients()
方法应用裁剪梯度:
threshold = 1.0
optimizer = tf.train.GradientDescentOptimizer(learning_rate)
grads_and_vars = op
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
【翻译】Sklearn 与 TensorFlow 机器学习实用指南 —— 第11章 训练深层神经网络(下)
训练稀疏模型 所有刚刚提出的优化算法都会产生密集的模型,这意味着大多数参数都是非零的。 如果你在运行时需要一个非常快速的模型,或者如果你需要它占用较少的内存,你可能更喜欢用一个稀疏模型来代替。 实现这一点的一个微不足道的方法是像平常一样训练模型,然后摆脱微小的权重(将它们设置为 0)。 另一个选择是在训练过程中应用强 l1 正则化,因为它会推动优化器尽可能多地消除权重(如第 4 章关于 Lasso 回归的讨论)。 但是,在某些情况下,这些技术可能仍然不足。 最后一个选择是应用双重平均,通常称为遵循正则化领导者(FTRL),一种由尤里·涅斯捷罗夫(Yurii Nesterov)提出的技术。 当与 l1 正则化一起使用时,这种技术通常导致非常稀疏的模型。 TensorFlow 在FTRLOptimizer类中实现称为 FTRL-Proxima
- 下一篇
直播平台开发经验分享——直播平台搭建环境配置详解及分析
直播平台开发完成后,接下来就会面临着直播平台搭建的问题。那么直播平台搭建的具体流程是怎样的呢?通常需要遵循以下几个环节:搭建环境配置(LNMP)、Redis配置、创建数据库、web站点搭建、node.js部署、管理后台信息配置等。本篇内容我们先来介绍下LNMP环境配置及Redis配置的流程。 搭建前的准备 注:以下操作,在操作系统centos7.0以上 64位前提下完成 (1)生成软件包信息缓存 yum makecache (2)安装更新 yum update -y (3)安装必要软件 yum install -y zip unzip wget curl git vim zsh nano screen (4)安装oh my zsh(有助于补全和选择目录) sh -c "$(wget https://raw.githubusercontent.com/robbyrussell/oh-my-zsh/master/tools/install.sh -O -)" 搭建LNMP环境 LNMP是指在Linux系统下的Nginx+MySQL+PHP这种网站服务器架构。新手可以选择LNMP一键安装包。...
相关文章
文章评论
共有0条评论来说两句吧...