当前位置:首页 » 《随便一记》 » 正文

深度学习---三好学生各成绩所占权重问题(3)

18 人参与  2022年07月29日 08:25  分类 : 《随便一记》  评论

点击全文阅读


 ????????????

? 博客首页:knighthood2001

? 欢迎点赞?评论?️

❤️ 热爱python,期待与大家一同进步成长!!❤️

?给大家推荐一款很火爆的刷题、面试求职网站?

        之前,我们从三好学生成绩问题开始,设计出了解决该问题的神经网络模型,但是这个模型更多的是从一般的思维方式来设计的,这与神经网络通常设计中的思路并不一致,因此本文章,我们来看看如何优化该模型,让它的逻辑更清晰、运行更高效。

目录

全部代码

代码讲解 

结果展示 


全部代码

import tensorflow as tftf.compat.v1.disable_eager_execution()x = tf.compat.v1.placeholder(shape=[3], dtype=tf.float32)yTrain = tf.compat.v1.placeholder(shape=[], dtype=tf.float32)w = tf.Variable(tf.zeros([3]), dtype=tf.float32)n = x * wy = tf.reduce_sum(n)loss = tf.abs(y - yTrain)optimizer = tf.compat.v1.train.RMSPropOptimizer(0.001)train = optimizer.minimize(loss)sess = tf.compat.v1.Session()init = tf.compat.v1.global_variables_initializer()sess.run(init)for i in range(5000):    result = sess.run([train, x, w, y, yTrain, loss], feed_dict={x: [90, 80, 70], yTrain: 85})    print(result)    result = sess.run([train, x, w, y, yTrain, loss], feed_dict={x:[98, 95, 87], yTrain: 96})    print(result)

代码讲解 

        之前设计的神经网络模型中,把学生的德育、智育、体育3项分数分别对应x1、x2、x3这了个输入层的节点,这样本身没有问题,但是假设又增加了一个艺术分数, 那么就需要在输入层增加一个x4节点,在隐藏层对应的也要增加一个n4节点。也就是说,输入数据改变时,即使整套逻辑没有变,也要去修改整个网络模型,比较麻烦。

        另外,节点数多了也会让模型图看起来比较复杂。所以在通常的神经网络中,很多时候会把这种串的数据组织成一个 “向量”来送入神经网络进行计算。这里的“向量”与数学几何中的向量概念稍有不同,就是指一串数字,在程序中用一个数组来表示,例如,三好学生成绩问题中第一个学生的3项分数可以用[90, 80, 70]这样一个数组就表示出来了。数组是有顺序的,可以约定第一项代表德育分、 第二项代表智育分、 第三项代表体育分。向量中有几个数字,一般就把它叫作几“维”的向量,例如刚才这个向量就是一个三维向量。

x1 = tf.compat.v1.placeholder(dtype=tf.float32)x2 = tf.compat.v1.placeholder(dtype=tf.float32)x3 = tf.compat.v1.placeholder(dtype=tf.float32)

改成了一个三维的向量存入变量x

x = tf.compat.v1.placeholder(shape=[3], dtype=tf.float32)

 变量x的定义语句稍有不同,其中增加了一个命名参数shape,这是表示变量x的形态的,它的取值是“[3]”, 表示输入占位符x的数据将是一个有3个数字的数组,也就是一个三维向量。 

w1、w2、w3这3个可变参数也被缩减成了一个三维向量w:

w = tf.Variable(tf.zeros([3]), dtype=tf.float32)

其中tf.Variable函数的第一个参数还是定义这个可变参数的初始值,由于x是一个形态为[3]的三维向量,w也需要相应地是一个形态为[3]的三维向量,而我们用tf.zeros这个函数可以生成一个值全为0的向量,也就是说tf.zeros([3])的返回值将是一个数组[0, 0, 0],这个向量将作为w的初始值。 

yTrain因为只是一个普通数字,不是向量,如果要给它个形态的话, 可以用一个空的方括号“[]”来代表。 

yTrain = tf.compat.v1.placeholder(shape=[], dtype=tf.float32)

隐藏层节点变量n1、n2、n3也被缩减成一个变量 n: 

n = x * w

假设输入数据x为[90, 80, 70],也就是第一位学生的3项分数,此时w为[2,3,4],那么n=x*W的运算结果就是[90 * 2, 80* 3, 70* 4],即[180, 240,280]。这是因为“*”代表数学中矩阵运算的“点乘”,点乘是指两个形态相同的矩阵中每个相同位置的数字相乘,结果还是和这两个矩阵形态都样的矩阵。向量的点乘与矩阵点乘的方法是一样的, 所以x * w的计算结果还是与x或w相同形态的三维向量,其中第一维的结果是 x中的第一维的数字 90乘以w中的第一维的数字2, 即90*2得到180,后面依此类推

由于我们把原来3个隐藏层节点n、n2、n3缩减成了一个向量 n,输出层节点y的计算也要做出改变: 

y = tf.reduce_sum(n)

tf.reduce sum函数的作用是把作为它的参数的向量(以后还可能会是矩阵)中的所有维度的值相加求和,与原来y=n1 +n2 + n3的含义是相同的。

    result = sess.run([train, x, w, y, yTrain, loss], feed_dict={x: [90, 80, 70], yTrain: 85})    print(result)    result = sess.run([train, x, w, y, yTrain, loss], feed_dict={x:[98, 95, 87], yTrain: 96})    print(result)

最后这里改变一下即可 

结果展示 

我们最终重复循环训练5000次

看最后的几条结果,我们可以看到,误差也被控制到很小的范围,3个权重也分别接近预期值。 


点击全文阅读


本文链接:http://zhangshiyu.com/post/43892.html

<< 上一篇 下一篇 >>

  • 评论(0)
  • 赞助本站

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

关于我们 | 我要投稿 | 免责申明

Copyright © 2020-2022 ZhangShiYu.com Rights Reserved.豫ICP备2022013469号-1