1)第638章_我的超级黑科技帝国
字体:      护眼 关灯
上一章 目录 下一章
  对于一个给定的感知器来说,它的权重和阈值也是给定的,代表一种决策策略。因此,我们可以通过调整权重和阈值来改变这个策略。

  关于阈值threshold,这里需要指出的一点是,为了表达更方便,一般用它的相反数来表达:b=-threshold,这里的b被称为偏置(bias)。

  这样,前面计算输出的规则就修改为:如果w1x1+w2x2+w3x3+...+b0,则输出output=1,否则输出output=0。

  而权重w1=w2=-2,则b=3。

  很明显,只有当x1=x2=1的时候,output=0,因为(?2)*1+(?2)*1+3=?1,小于0。而其它输入的情况下,都是output=1。

  所以在实际情况下,这其实是一个“与非门”!

  在计算机科学中,与非门是所有门部件中比较特殊的一个,它可以通过组合的方式表达任何其它的门部件。这被称为与非门的普适性(GateUniversality)。

  既然感知器能够通过设置恰当的权重和偏置参数,来表达一个与非门,那么理论上它也就能表达任意其它的门部件。

  因此,感知器也能够像前面三体中的例子一样,通过彼此连接从而组成一个计算机系统。

  但这似乎没有什么值得惊喜的,我们已经有现成的计算机了,这只不过是让事情复杂化了而已。

  单个感知器能做的事情很有限。要做复杂的决策,所以则是需要将多个感知器连接起来。

  而实际中的网络可能会有上万个,甚至数十万个参数,如果手工一个一个地去配置这些参数,恐怕这项任务永远也完成不了了。

  而神经网络最有特色的地方就在于这里。

  我们不是为网络指定所有参数,而是提供训练数据,让网络自己在训练中去学习,在学习过程中为所有参数找到最恰当的值。

  大体的运转思路是这样:我们告诉网络当输入是某个值的时候,我们期望的输出是什么,这样的每一份训练数据,称为训练样本(trainingexample)。

  这个过程相当于老师在教学生某个抽象的知识的时候,举一个具体例子:

  一般来说,我们举的例子越多,就越能表达那个抽象的知识。这在神经网络的训练中同样成立。

  我们可以向网络灌入成千上万个训练样本,然后网络就自动从这些样本中总结出那份隐藏在背后的抽象的知识。

  这份知识的体现,就在于网络的所有权重和偏置参数的取值。

  假设各个参数有一个初始值,当我们输入一个训练样本的时候,它会根据当前参数值计算出唯一的一个实际输出值。

  这个值可能跟我们期望的输出值不一样。

  请收藏:https://m.kami9.cc

(温馨提示:请关闭畅读或阅读模式,否则内容无法正常显示)

上一章 目录 下一章