Company dynamics

Python人工智能 | 五.TensorFlow创建回归神经网络及Optimizer优化器

从本篇文章开始,作者正式开始讲解Python深度学习、神经网络及人工智能相关知识,希望您喜欢。

前一篇文章讲解了TensorFlow基础和一元直线预测的案例,以及Session、变量、传入值和激励函数;这篇文章将详细介绍TensorFlow创建回归神经网络及Optimizer优化器。本文主要结合作者之前的博客和"莫烦大神"的视频介绍,后面随着深入会讲解具体的项目及应用。

基础性文章,希望对您有所帮助,如果文章中存在错误或不足之处,还请海涵~同时自己也是人工智能的菜鸟,希望大家能与我在这一笔一划的博客中成长起来。

文章目录:

  • 一.TensorFlow创建神经层
  • 二.回归神经网络实现 1.制作虚拟数据 2.添加神经网络层 3.计算误差与神经网络学习
  • 三.回归神经网络可视化分析
  • 四.Optimizer优化器
  • 五.总结

代码下载地址:

  • https://github.com/eastmountyxz/ AI-for-TensorFlow
  • https://github.com/eastmountyxz/ AI-for-Keras

如图所示,通过该神经网络识别动物猫或狗,共包括输入层(Input Layer)、隐藏层3层(Hidden Layer)和输出层(Output Layer)。其中每个隐藏层神经元都有一个激励函数,被激励的神经元传递的信息最有价值,它也决定最后的输出结果,经过海量数据训练后,最终神经网络将可以用于识别猫或狗。

本文将通过TensorFlow不断训练学习,拟合一条曲线来预测散点的分布规律。首先,我们需要添加神经层,将层(Layer)定义成函数,用来添加神经层。神经层是相互连接的,从第一层输入层传入到隐藏层,最后传输至输出层。函数原型如下:

  • add_layer(inputs, in_size, out_size, activation_function=None)
  • 参数包括输入值,输入节点数,输出节点数和激励函数(默认为None)

TensorFlow的结构如下,输入值input经过隐藏层layer1和layer2,然后有一个预测值predictions,cross_entropy是计算跟真实值的差距。

首先,我们需要制作的层是Layer1或Layer2,它们中间会有权重Weights和偏置biases,计算位于Wx_plus_b中,激励函数是relu。

下面开始撰写代码,如下所示:(详见注释)

接下来开始实现了第一个神经网络代码,步骤如下:

通过numpy.linspace生成300个随机点进行训练,形成y=x^2-0.5的虚拟数据。代码如下:

这里通过matplotlib简单绘制散点图,输出结果如下图所示,基本满足:y_data=np.square(x_data) -0.5 + noise。

定义了隐藏层L1层和输出层prediction。

  • L1=add_layer(xs, 1, 10, activation_function=tf.nn.relu) 输入为xs,1维的data,神经元10个,relu非线性激励函数
  • prediction=add_layer(L1, 10, 1, activation_function=None) 输入为L1输出值, in_size为L1的神经元10,假设L2输出为最终output

完整代码如下图所示:

定义loss变量计算误差,即预测值与真实值的差别;再定义梯度下降变量(GradientDescentOptimizer),通过梯度下降让预测值更接近真实值。最后在Session中初始化及计算误差,每隔50步输出一次运算结果。

输出结果如下图所示,每隔50步输出结果,第一次的误差是0.45145842,第二次的误差是0.012015346, 其误差在不断减少,说明神经网络在提升预测的准确性或学到东西了。

写到这里,整个神经网络的定义和运行过程讲述完毕,包括定义神经层、误差设置、初始化及运行等,接下来开始可视化分析。

三.回归神经网络可视化分析

为了更直观了解神经网络是如何优化结果的,我们通过matplotlib进行可视化分析。从最早不合理的图形到后面基本拟合,loss误差在不断减小,说明神经网络的真实值和预测值在不断更新接近,神经网络正常运行。

第一次运行结果:

第四次运行结果:

第二十次运行结果:

完整代码及注释如下所示:

注意:在Spyder软件运行代码,一般显示figure的是在IPython console中,如下图所示,图比较小且不能进行操作,同时在IPython console中不能进行动态的figure显示。这时候需要设置单独弹出的窗口才能解决。

在Spyder软件设置单独弹出的窗口的步骤为:Tools–>Preferences–>IPython console–>Graphics–>Graphics backend–> Backend–>设置成Automatic,如下图所示。

如果是设置成Inline则figure是在IPython console中显示。最后需要再对Spyder软件进行重新启动,没有重启则不能实现设置效果。这样就可以显示出单独的窗口,并可以实现动态的figure显示,如图所示的曲线动态拟合效果。

参考:Spyder中单独弹出窗口显示figure以及解决动态figure显示的设置

class tf.train.Optimizer是优化器(optimizers)类的基类。这个类定义了在训练模型的时候添加一个操作的API。你基本上不会直接使用这个类,但是你会用到他的子类比如GradientDescentOptimizer、AdagradOptimizer、MomentumOptimizer等等。

优化器有很多不同的种类,最基本的一种是GradientsDescentOptimizer,它也是机器学习中最重要或最基础的线性优化。官方给出的常见优化器如下图所示:

官方网址:

  • http://www.tensorfly.cn/tfdoc/ api_docs/python/train.html
  • https://tensorflow.google.cn/versions/ r1.15/api_docs/python/tf/train/Optimizer

它介绍七种常见的优化器包括:

  • class tf.train.GradientDescentOptimizer
  • class tf.train.AdagradOptimizer
  • class tf.train.AdadeltaOptimizer
  • class tf.train.MomentumOptimizer
  • class tf.train.AdamOptimizer
  • class tf.train.FtrlOptimizer
  • class tf.train.RMSPropOptimizer

下面结合“莫烦”老师的课程,给读者们分享优化器的用法。

  • GradientDescentOptimizer (梯度下降)取决于传进数据的size,比如只传进去全部数据的十分之一,GradientDescentOptimizer就变成了STD,它只考虑一部分的数据,一部分一部分的学习,其优势是能更快地学习到去往全局最小量(Global minimum)的路径。
  • MomentumOptimizer 是基于学习效率的改变,它不仅仅考虑这一步的学习效率,还加载了上一步的学习效率趋势,然后上一步加这一步的learning_rate,它会比Gradient Descent Optimizer更快到达全局最小量。
  • RMSPropOptimizer Google用它来优化阿尔法狗的学习效率。

下图通过可视化对各种优化器进行了对比分析,机器学习从目标学习到最优的过程,有不同的学习路径,由于Momentum考虑了上一步的学习(learning_rate),走的路径会很长;GradientDescent的学习时间会非常慢。

  • 如果您是初学者,建议使用GradientDescentOptimizer即可;
  • 如果您有一定的基础,可以考虑下MomentumOptimizer、AdamOptimizer两个常用的优化器;
  • 高阶的话,可以尝试学习RMSPropOptimizer优化器。

总之,您最好结合具体的研究问题,选择适当的优化器。

深夜写下这篇文章,真的非常忙碌,希望这篇基础性文章对您有所帮助,如果文章中存在错误或不足之处,请海涵~

参考文献,感谢各位大神的文章和视频,推荐大家跟着莫烦老师学习,他是我人工智能的入门老师。

  • [1] 神经网络和机器学习基础入门分享 - 作者的文章
  • [2] 斯坦福机器学习视频NG教授: https://class.coursera.org/ml/class/index
  • [3] 书籍《游戏开发中的人工智能》
  • [4] 网易云莫烦老师视频(强推): https://study.163.com/course/courseLearn.htm?courseId=1003209007
  • [5] 神经网络激励函数 - deeplearning
  • [6] tensorflow架构 - NoMorningstar
  • [7] 《TensorFlow2.0》低阶 api 入门 - GumKey
  • [8]TensorFlow之基础知识 - kk123k
  • [9] Tensorflow基础知识梳理- sinat_36190649
  • [10] 深度学习(二):TensorFlow 基础知识 - 希希里之海
  • [11] tensorflow基础概念 - lusic01
  • [12] tensorflow:激活函数(Activation Function) - haoji007
  • [13] AI=> Tensorflow2.0语法 - 张量&基本函数(一)

平台注册入口