如何用云端 GPU 为你的 Python 深度学习加速?
负荷 下午,我用 Python 深度学习框架 Keras 训练了一个包含3层神经网络的回归模型,预测波士顿地区房价。 这是来自于 “Deep Learning with Python” 书上的一个例子。 运行的时候,代码有两个大循环。 第一个把数据跑100遍(epochs),第二个把数据跑500遍。 我的笔记本电脑算起来很吃力,风扇一直在响。 大热天的,看着好可怜。 用笔记本电脑进行机器学习,还是不大合适的。 我要是有一块 GPU 就好了…… 此时,突发奇想。 我虽然没有带 nVidia GPU 的设备,不过谁说非要在本地机器运行代码了? 早已是云时代了啊! 能否用云端 GPU 跑机器学习代码,让我的笔记本少花些力气呢? 偶遇 有这个想法,是因为最近在 Youtube 上面,我看到了 Siraj Raval 的一段新视频。 这段视频里,他推荐了云端 GPU 提供平台 FloydHub。 我曾经试过 AWS GPU 产品。 那是在一门深度学习网课上。 授课老师跟 AWS 合作,为全体学生免费提供若干小时的 AWS 计算能力,以便大家顺利完成练习和作业。 我记得那么清楚,是因为光如何配置 ...