误入城堡,或者误拒了某些贵族。但每次犯错后,国王都会告诉他正确答案,然后他会调整自己的标准。例如:
如果他错把一位贵族拦在门外,他会提高对金色徽章的重视程度(增加 )。
如果他误让一个普通人进入,他会降低对衣服颜色的权重(减少 )。
这种调整过程就类似于感知机的权重更新,公式如下:
其中:
是正确答案(国王告诉他的)。
是他自己做的判断(可能错误)。
是调整步伐的大小,相当于守门人的学习速度。
随着不断实践,他的判断能力越来越强,最终可以精准地区分贵族和平民。
感知机的局限性:xor 问题的故事
然而,守门人的方法也有局限性。例如,有一天,他遇到了一个难题:王国里来了一些新的访客,他们既没有穿紫色衣服,也没有佩戴金色徽章,但他们是国王的密使,理应被允许进入。
然而,他的规则手册无法应对这种情况,因为它依赖于“简单的线性规则”来做决策。如果一个访客的身份不是“紫色+金徽章”的简单组合,他就无法正确判断。
这个问题在数学上被称为xor(异或)问题,即:
贵族可能是(紫色衣服,金色徽章)或(没有紫色衣服,没有金色徽章)。
平民可能是(紫色衣服,没有金色徽章)或(没有紫色衣服,有金色徽章)。
这时,守门人发现,他仅凭简单的加权打分无法解决这个问题,需要一个更复杂的逻辑。
这个问题最终在1970年代被多层感知机(lp) 解决了,即守门人不仅仅靠自己判断,而是让几个不同的顾问先进行分析(隐藏层),然后再做出最终决策。这一改变,使得神经网络能够处理更复杂的非线性问题,推动了现代人工智能的发展。
现代深度学习的启示:聪明的王国智脑
多年后,王国发展得更加繁荣,访客的情况也越来越复杂。守门人已经不够用了,于是国王雇佣了一群聪明的顾问,他们会:
1 先把访客的所有信息进行深度分析(多层神经网络)。
2 使用复杂的模